즉, i번째 출력 값이 -1이고(y(i) = -1), i번째 입력 값과 i번째 가중치를 곱한 값이 0보다 클 때(w(i) × x(i) > 0), 정답과 출력 값의 오차를 줄이려고(0을 만들려고) 현재 가중치 값에 학습률과 입력 값을 곱한 값을 빼면서(w(i) - ŋ(i) × x(i)) 가중치를 업데이트합니다. 반대로 i번째 출력 값이 1이고(y(i) = 1), i번째 입력 값과 i번째 가중치를 곱한 값이 0보다 작거나 같다고 가정할 때는(w(i) × x(i) ≤ 0), 현재 가중치 값에 학습률과 입력 값을 곱한 값을 더하면서(w(i) + ŋ(i) × x(i)) 가중치를 업데이트합니다.
이러한 과정이 역전파이며, 미분은 (출력 값–정답)2 값을 가중치로 미분할 때 사용합니다. 즉, w(i) - ŋ(i) × x(i)를 w(i)로 미분하거나 w(i) + ŋ(i) × x(i)를 w(i)로 미분한 값이 w(i + 1)입니다.
인공지능에서 학습이란 신경망에서 원하는 결과를 얻기 위해 뉴런 사이의 적당한 가중치를 알아내는 것, 즉 가중치를 최적화하는 것이라고 할 때 미분은 인공지능의 가중치 계산에서 핵심입니다.