더북(TheBook)

다음은 loss.backward() 메서드를 이용하여 기울기를 자동 계산합니다. loss.backward()는 배치가 반복될 때마다 오차가 중첩적으로 쌓이게 되므로 매번 zero_grad()를 사용하여 미분 값을 0으로 초기화합니다.

다음은 모델을 훈련시키는 예시 코드입니다.

for epoch in range(100):
    yhat = model(x_train)
    loss = criterion(yhat, y_train)
    optimizer.zero_grad() ------ 오차가 중첩적으로 쌓이지 않도록 초기화
    loss.backward()
    optimizer.step()
신간 소식 구독하기
뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.