모델이 타깃과 아주 멀리 떨어진 나쁜 예측을 만든다면 meanAbsoluteError가 매우 커질 것입니다. 반대로 가능한 최선은 모든 예측이 정확하게 맞는 것입니다. 이 경우 모델 출력과 타깃 간의 차이가 0이 됩니다. 따라서 손실(meanAbsoluteError)도 0이 됩니다.
코드 2-4에 있는 sgd는 확률적 경사 하강법(stochastic gradient descent)의 약자입니다. 이에 대해서는 2.2절에서 자세히 설명하겠습니다. 간단하게 말하면, 미분을 사용해 손실을 감소시키기 위해 가중치를 어떻게 조절하는지 결정한다는 의미입니다. 그다음에는 가중치를 조정하고 과정을 반복합니다.
이제 모델이 훈련 데이터를 학습할 준비를 마쳤습니다.