AlexNet의 합성곱층에서 사용된 활성화 함수는 렐루(ReLU)로, 각 계층의 구조적 세부 사항은 다음 표를 참고하세요.
▼ 표 6-2 AlexNet 구조 상세
계층 유형 |
특성 맵 |
크기 |
커널 크기 |
스트라이드 |
활성화 함수 |
이미지 |
1 |
227×227 |
– |
– |
– |
합성곱층 |
96 |
55×55 |
11×11 |
4 |
렐루(ReLU) |
최대 풀링층 |
96 |
27×27 |
3×3 |
2 |
– |
합성곱층 |
256 |
27×27 |
5×5 |
1 |
렐루(ReLU) |
최대 풀링층 |
256 |
13×13 |
3×3 |
2 |
– |
합성곱층 |
384 |
13×13 |
3×3 |
1 |
렐루(ReLU) |
합성곱층 |
384 |
13×13 |
3×3 |
1 |
렐루(ReLU) |
합성곱층 |
256 |
13×13 |
3×3 |
1 |
렐루(ReLU) |
최대 풀링층 |
256 |
6×6 |
3×3 |
2 |
– |
완전연결층 |
– |
4096 |
– |
– |
렐루(ReLU) |
완전연결층 |
– |
4096 |
– |
– |
렐루(ReLU) |
완전연결층 |
– |
1000 |
– |
– |
소프트맥스(Softmax) |
네트워크에는 학습 가능한 변수가 총 6600만 개 있습니다. 네트워크에 대한 입력은 227×227×3 크기의 RGB 이미지이며, 각 클래스(혹은 카테고리)에 해당하는 1000×1 확률 벡터를 출력합니다.