다음은 훈련과 테스트 데이터셋을 이용했을 때의 모델에 대한 성능 측정 결과입니다.
Train: epoch: 0 - loss: 0.68347; acc: 61.889 Test: epoch: 0 - loss: 0.66168; acc: 68.750 Train: epoch: 100 - loss: 0.44345; acc: 77.667 Test: epoch: 100 - loss: 0.50527; acc: 74.500 Train: epoch: 200 - loss: 0.39210; acc: 79.111 Test: epoch: 200 - loss: 0.52259; acc: 75.250 Train: epoch: 300 - loss: 0.48408; acc: 74.778 Test: epoch: 300 - loss: 0.56054; acc: 76.250 Train: epoch: 400 - loss: 0.44070; acc: 78.000 Test: epoch: 400 - loss: 0.56288; acc: 74.750 Train: epoch: 500 - loss: 0.34182; acc: 83.111 Test: epoch: 500 - loss: 0.54534; acc: 74.500 Train: epoch: 600 - loss: 0.54537; acc: 73.111 Test: epoch: 600 - loss: 0.52528; acc: 76.000 Train: epoch: 700 - loss: 0.38392; acc: 82.333 Test: epoch: 700 - loss: 0.53089; acc: 73.500 Train: epoch: 800 - loss: 0.41045; acc: 83.000 Test: epoch: 800 - loss: 0.52983; acc: 74.500 Train: epoch: 900 - loss: 0.37035; acc: 85.111 Test: epoch: 900 - loss: 0.56305; acc: 72.250 Train: epoch: 1000 - loss: 0.30108; acc: 87.444 Test: epoch: 1000 - loss: 0.55002; acc: 74.500
학습이 진행될수록 훈련과 테스트 데이터셋에 대한 성능이 모두 좋아지고 있습니다. 오차는 줄어들고 정확도는 높아지고 있지만 테스트 데이터셋의 경우 오차가 획기적으로 줄어들지는 않았습니다. 전체 769건의 데이터 중에서 훈련과 테스트 용도로 분리하여 사용했기 때문에 상당히 적은 양의 데이터가 사용되었습니다. 데이터양이 많았다면 조금 더 극적인 효과를 볼 수 있을 것입니다.
이 장에서는 자연어 전처리를 알아보았습니다. 다음 장에서는 임베딩에 대해 알아보겠습니다.