더북(TheBook)

다음은 훈련과 테스트 데이터셋을 이용했을 때의 모델에 대한 성능 측정 결과입니다.

Train: epoch: 0 - loss: 0.68347; acc: 61.889
Test: epoch: 0 - loss: 0.66168; acc: 68.750
Train: epoch: 100 - loss: 0.44345; acc: 77.667
Test: epoch: 100 - loss: 0.50527; acc: 74.500
Train: epoch: 200 - loss: 0.39210; acc: 79.111
Test: epoch: 200 - loss: 0.52259; acc: 75.250
Train: epoch: 300 - loss: 0.48408; acc: 74.778
Test: epoch: 300 - loss: 0.56054; acc: 76.250
Train: epoch: 400 - loss: 0.44070; acc: 78.000
Test: epoch: 400 - loss: 0.56288; acc: 74.750
Train: epoch: 500 - loss: 0.34182; acc: 83.111
Test: epoch: 500 - loss: 0.54534; acc: 74.500
Train: epoch: 600 - loss: 0.54537; acc: 73.111
Test: epoch: 600 - loss: 0.52528; acc: 76.000
Train: epoch: 700 - loss: 0.38392; acc: 82.333
Test: epoch: 700 - loss: 0.53089; acc: 73.500
Train: epoch: 800 - loss: 0.41045; acc: 83.000
Test: epoch: 800 - loss: 0.52983; acc: 74.500
Train: epoch: 900 - loss: 0.37035; acc: 85.111
Test: epoch: 900 - loss: 0.56305; acc: 72.250
Train: epoch: 1000 - loss: 0.30108; acc: 87.444
Test: epoch: 1000 - loss: 0.55002; acc: 74.500

학습이 진행될수록 훈련과 테스트 데이터셋에 대한 성능이 모두 좋아지고 있습니다. 오차는 줄어들고 정확도는 높아지고 있지만 테스트 데이터셋의 경우 오차가 획기적으로 줄어들지는 않았습니다. 전체 769건의 데이터 중에서 훈련과 테스트 용도로 분리하여 사용했기 때문에 상당히 적은 양의 데이터가 사용되었습니다. 데이터양이 많았다면 조금 더 극적인 효과를 볼 수 있을 것입니다.

이 장에서는 자연어 전처리를 알아보았습니다. 다음 장에서는 임베딩에 대해 알아보겠습니다.

신간 소식 구독하기
뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.