더북(TheBook)

원래 과대적합을 줄이기 위해 고안된 것은 아니지만 배치 정규화(batch normalization, BatchNorm)와 층 정규화(layer normalization, LayerNorm) 같은 층의 입력을 정규화하는 기법은 훈련을 안정화하고 규제 효과를 내서 과대적합을 줄입니다.12 층의 입력이 아니라 모델 가중치를 정규화하는 가중치 정규화(weight normalization, WeightNorm)가 좋은 일반화 성능을 낼 수도 있습니다. 하지만 가중치 정규화가 가중치 감쇠처럼 명확하게 규제로 동작하는 것이 아니기 때문에 이런 효과는 간접적입니다.

신간 소식 구독하기
뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.