실행 결과
2/2 [==============================] - 0s 2ms/step - loss: 1.0080 - accuracy: 0.7381 2/2 [==============================] - 0s 2ms/step - loss: 0.7071 - accuracy: 0.8095 2/2 [==============================] - 0s 2ms/step - loss: 0.3312 - accuracy: 0.8810 2/2 [==============================] - 0s 2ms/step - loss: 0.4377 - accuracy: 0.9024 2/2 [==============================] - 0s 3ms/step - loss: 0.6416 - accuracy: 0.7317 정확도: [0.738095223903656, 0.8095238208770752, 0.8809523582458496, 0.9024389982223511, 0.7317073345184326] 정확도 평균: 0.8125435471534729
다섯 번의 정확도를 구했습니다. 학습이 진행되는 과정이 길어서 model.fit 부분에 verbose=0 옵션을 주어 학습 과정의 출력을 생략했습니다.
잠 깐 만 요
텐서플로 함수가 for 문에 포함되는 경우 다음과 같이 WARNING 메시지가 나오는 경우가 있습니다. 텐서플로 구동에는 문제가 없으므로 그냥 진행하면 됩니다.
WARNING:tensorflow:5 out of the last 9 calls to <function Model.make_test_function.<locals>.test_function at 0x000001EDE50D60D0> triggered tf.function retracing...
이렇게 해서 가지고 있는 데이터를 모두 사용해 학습과 테스트를 진행했습니다. 이제 다음 장을 통해 학습 과정을 시각화해 보는 방법과 학습을 몇 번 반복할지(epochs) 스스로 판단하게 하는 방법 등을 알아보며 모델 성능을 향상시켜 보겠습니다.