■ generator.add(LeakyReLU(0.2))
첫 번째 층의 활성화 함수는 LeakyReLU를 사용하겠습니다. LeakyReLU 함수 모양을 보면 음수 값은 특정한 기울기를 보입니다. 여기에서는 그 기울기 값을 (0.2)로 설정합니다.
TIP
Leaky 렐루 함수(LeakyReLU)는 5.2절의 활성화 함수를 참고하세요.
■ generator.add(Dense(units=512))
이 신경망의 첫 번째 층은 512개의 노드(units=512)로 구성되어 있습니다.
TIP
노드의 수를 꼭 책과 같게 할 필요는 없습니다. 한번 여러분이 노드의 수, 레이어(층)의 수 등을 변경해 보며 모델을 훈련시켜 보고, 그 결과를 살펴보세요.
■ generator.add(LeakyReLU(0.2))
두 번째 층의 활성화 함수는 LeakyReLU를 사용하겠습니다. LeakyReLU 함수 모양을 보면 음수 값은 특정한 기울기를 보입니다. 여기에서는 그 기울기 값을 (0.2)로 설정합니다.