더북(TheBook)

 

주석

 

1장

 

  1 특성이 비슷한 데이터끼리 하나의 그룹으로 묶어 주는 것입니다.

 

  2 캐글(https://www.kaggle.com/)은 AI 경진 대회 플랫폼으로, 공개된 데이터가 많습니다.

 

  3 훈련 데이터를 과하게 학습하여 훈련 데이터에서는 오차가 감소하지만, 새로운 데이터에서는 오차가 커지는 것을 의미합니다.

 

  4 활성화 함수는 입력 신호가 일정 기준 이상이면 출력 신호로 변환하는 함수로 시그모이드, 하이퍼볼릭 탄젠트, 렐루 등이 있습니다. ‘4장 딥러닝 시작’에서 자세히 다룹니다.

 

  5 손실 함수는 모델의 출력 값과 사용자가 원하는 출력 값(레이블)의 차이, 즉 오차를 구하는 함수로 평균 제곱 오차(mean squared error)와 크로스 엔트로피 오차(cross entropy error)가 있습니다. ‘4장 딥러닝 시작’에서 자세히 다룹니다.

 

  6 옵티마이저는 손실 함수를 기반으로 네트워크 업데이트 방법을 결정합니다. 업데이트 결정 방법에 사용되는 것으로는 아담(Adam), 알엠에스프롭(RMSProp) 등이 있습니다. ‘4장 딥러닝 시작’에서 자세히 다룹니다.

 

  7 연속적인 값을 갖는 데이터입니다.

 

  8 ‘그렇다/아니다’처럼 두 개로 분류하는 것입니다.

 

  9 모델 내부에서 결정되는 변수입니다.

 

10 튜닝 또는 최적화해야 하는 변수로, 사람들이 선험적 지식으로 설정해야 하는 변수입니다.

 

11 은닉층이 두 개 이상인 신경망입니다.

신간 소식 구독하기
뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.