더북(TheBook)

LSTM은 앞서 설명했듯이 RNN에서 기억 값에 대한 가중치를 제어하며, LSTM(기사당 단어 수, 기타 옵션) 형식으로 적용됩니다. LSTM의 활성화 함수로는 tanh를 주로 사용하므로 activation='tanh'로 지정했습니다.

이제 다음과 같이 모델 실행의 옵션을 정하고 조기 중단 설정과 함께 학습을 실행합니다.

# 모델의 실행 옵션을 정합니다.
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) ----- ➊

# 학습의 조기 중단을 설정합니다.
early_stopping_callback = EarlyStopping(monitor='val_loss', patience=5) ----- ➋

# 모델을 실행합니다.
history = model.fit(X_train, y_train, batch_size=20, epochs=200, validation_ data=(X_test, y_test), callbacks=[early_stopping_callback]) ----- ➌

앞서 MNIST에 사용되었던 그래프 코드 출력을 더한 전체 코드는 다음과 같습니다.

신간 소식 구독하기
뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.