2.4 모델 해석 방법
모델을 훈련했고 합리적인 예측을 만들 수 있으므로 자연스럽게 모델이 무엇을 학습했는지 궁금합니다. 데이터를 어떻게 이해했는지 알아보기 위해 모델 내부를 들여다볼 수 있는 방법이 있을까요? 모델이 입력에 대해 어떤 가격을 예측할 때 왜 이런 가격이 나왔는지 납득할 만한 설명을 찾을 수 있을까요? 일반적으로 대규모 심층 네트워크의 경우 모델 이해(또는 모델 해석 가능성(interpretability))는 여전히 활발한 연구 영역입니다. 학술 콘퍼런스에서 많은 포스터 세션과 강연이 이런 주제로 열립니다. 하지만 단순한 선형 회귀 모델의 경우라면 매우 간단합니다.
이 절에서 다음과 같은 내용을 다룹니다.
• 모델에서 학습된 가중치 추출하기
• 이런 가중치를 해석하고 가중치에 대한 직관과 비교하기