더북(TheBook)

심층 신경망에서 확률적 경사 하강법(stochastic gradient descent, SGD)의 배치 크기와 학습률(learning rate)의 비율을 제어하는 것이 좋은 성능을 내는 데 중요하다는 개념에 대해 이론과 경험적 증거를 제시하는 논문: Fengxiang He, Tongliang Liu, and Dacheng Tao, “Control Batch Size and Learning Rate to Generalize Well: Theoretical and Empirical Evidence” (2019), https://dl.acm.org/doi/abs/10.5555/3454287.3454390

모델을 속이도록 고안된 입력인 적대 샘플을 포함하면 모델이 강력해져 예측 성능을 향상시킬 수 있다는 논문: Cihang Xie et al., “Adversarial Examples Improve Image Recognition” (2019), https://arxiv.org/abs/1911.09665

신간 소식 구독하기
뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.