더북(TheBook)

model.add(Activation('relu'))

역시 relu 방식으로 값을 전달합니다.

model.add(Dense(10))

마지막 층을 추가합니다. 마지막 층은 10개의 노드로 구성되어 있습니다. 그 이유는 최종 결괏값이 0부터 9까지의 수 중 하나로 결정되기 때문입니다.

model.add(Activation('softmax'))

각 노드에서 전달되는 값의 총 합이 1이 되도록 소프트맥스 함수를 사용합니다.

model.summary( )

summary 함수는 모델이 어떻게 구성되었는지 살펴보는 함수입니다.

실행 결과를 해석하여 보겠습니다.

실행 결과

Model: "sequential"
_________________________________________________________________
Layer (type)                Output Shape     Param #
=================================================================
dense (Dense)               (None, 512)      401920
_________________________________________________________________
activation (Activation)     (None, 512)     0
_________________________________________________________________
dense_1 (Dense)             (None, 256)      131328
_________________________________________________________________
activation_1 (Activation)   (None, 256)     0
_________________________________________________________________
dense_2 (Dense)             (None, 10)       2570
_________________________________________________________________
activation_2 (Activation)   (None, 10)      0
=================================================================
Total params: 535,818
Trainable params: 535,818
Non-trainable params: 0
_________________________________________________________________
신간 소식 구독하기
뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.