더북(TheBook)

오차가 있으면, 마지막부터 처음까지 되돌아가면서 경사 하강법을 사용하여 각각의 가중치 값을 수정해 나갑니다. 그래서 이 방법의 이름도 오차를 끝에서부터 거꾸로 가면서 줄인다는 의미를 가진 오차 역전파법(Back Propagation)입니다. 백프로파게이션, 체인룰이라고도 합니다.

TIP

이름이 ‘체인룰’인 이유가 궁금하지 않나요? 자전거 체인을 떠올려 봅시다. 하나하나가 서로 연결되어 있죠. 오차 역전파법을 사용하는 모습도 이와 유사합니다. 서로 맞물려서 값이 변하기 때문에 체인룰이라는 이름이 붙었습니다.

사실 이 방법의 원리를 자세히 살펴보기 위해서는 복잡한 미분 계산이 필요합니다. 하지만 기본 원리만 제대로 이해하고 있다면 인공 신경망을 만들 때 큰 문제는 없습니다.

이렇게 뒤로 가면서 가중치를 수정하면 그다음은 어떻게 하면 될까요? 다시 한번 데이터를 흘려보낸 후 결괏값을 살펴봅니다. 그 결괏값이 정답값과 어떤 차이가 있는지 살펴본 후 다시 오차 역전파법을 사용하여 가중치를 수정합니다.

인공 신경망은 이 과정을 반복하며 오차를 0으로 줄여나갑니다. 우리가 흔히 인공지능을 학습시킨다고 하죠? 바로 이렇게 오차값을 계산하고, 그 오차값에 따라 가중치를 점점 수정해나가는 모습이 바로 인공 신경망에서의 인공지능 학습 방법입니다.

지금까지 인공지능을 만드는 방법 중 하나인 인공 신경망의 원리에 대해 살펴봤습니다.

신간 소식 구독하기
뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.