샘플 200개를 모두 30번 실행하게끔 설정합니다. 그리고 테스트셋으로 최종 모델의 성과를 측정해 그 값을 출력합니다.
# 모델을 실행합니다. = .fit( , , =0.25, =30, =200, =0, =[ , ]) # 테스트 정확도를 출력합니다. print("\n Test Accuracy: " % ( .evaluate( , )[1]))
실행 결과를 그래프로 표현해 보겠습니다. 역시 14장에서 실습한 내용과 크게 다르지 않습니다. 다만 이번에는 학습셋의 정확도 대신 학습셋의 오차를 그래프로 표현하겠습니다. 학습셋의 오차는 1에서 학습셋의 정확도를 뺀 값입니다. 좀 더 세밀한 변화를 볼 수 있게 학습셋의 오차와 테스트셋의 오차를 그래프 하나로 나타내겠습니다.
import matplotlib.pyplot as plt = .history['val_loss'] # 학습셋의 오차 = .history['loss'] # 그래프로 표현합니다. = np. (len( )) plt.plot( , , ='.', ="red", ='Testset_loss') plt.plot( , , ='.', ="blue", ='Trainset_loss') # 그래프에 그리드를 주고 레이블을 표시합니다. plt.legend( ='upper right') plt.grid() plt.xlabel('epoch') plt.ylabel('loss') plt.show()