■ model.add(Activation('relu'))
역시 relu 방식으로 값을 전달합니다.
■ model.add(Dense(10))
마지막 층을 추가합니다. 마지막 층은 10개의 노드로 구성되어 있습니다. 그 이유는 최종 결괏값이 0부터 9까지의 수 중 하나로 결정되기 때문입니다.
■ model.add(Activation('softmax'))
각 노드에서 전달되는 값의 총 합이 1이 되도록 소프트맥스 함수를 사용합니다.
■ model.summary( )
summary 함수는 모델이 어떻게 구성되었는지 살펴보는 함수입니다.
실행 결과를 해석하여 보겠습니다.
실행 결과
Model: "sequential" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= dense (Dense) (None, 512) 401920 _________________________________________________________________ activation (Activation) (None, 512) 0 _________________________________________________________________ dense_1 (Dense) (None, 256) 131328 _________________________________________________________________ activation_1 (Activation) (None, 256) 0 _________________________________________________________________ dense_2 (Dense) (None, 10) 2570 _________________________________________________________________ activation_2 (Activation) (None, 10) 0 ================================================================= Total params: 535,818 Trainable params: 535,818 Non-trainable params: 0 _________________________________________________________________