본문 바로가기

패턴인식과 머신러닝

3.1.3 순차적 학습

최대 가능도 해와 같은 일괄 처리 테크닉을 활용하기 위해서는 전체 훈련 집합을 한 번에 처리해야 한다. 큰 데이터 집합에 대해서는 이러한 방식이 계산적으로 실행하기에 너무 복잡할 수도 있다.

데이터 집합이 충분히 클 경우 순차적 알고리즘을 활용하는 것이 유용할 수도 있다. 이를 온라인 알고리즘이라고도 한다. 순차적 알고리즘에서는 한 번에 하나의 데이터 포인트를 고려하여 모델의 매개변수들은 그때마다 업데이트된다.

 

확률적 경사 하강법, 순차적 경사 하강법을 적용하여 순차적 학습 알고리즘을 구현할 수 있다. 

만약 여러 데이터 포인트들에 대한 오류 함수의 값이 데이터 포인트 각각의 오류 함수의 값을 합한 것과 같다면,

E = SUM(E_n)

확률적 경사 하강법을 이용해서 패턴 n 이 등장한 후의 매개변수 벡터 w 를 다음과 같이 업데이트 할 수 있다.

여기서 r 은 반복수를, n 은 학습률을 의미한다. 

시작 시 w 의 값을 어떤 시작 벡터 w^(0) 으로 초기화한다. 

제곱합 오류 함수의 경우의 위 식은 다음과 같다.

 
phi_n = phi(x_n) (기저함수) 이다. 이를 최소 제곱 평균 알고리즘이라 한다.