더북(TheBook)

AlexNet의 합성곱층에서 사용된 활성화 함수는 렐루(ReLU)로, 각 계층의 구조적 세부 사항은 다음 표를 참고하세요.

▼ 표 6-2 AlexNet 구조 상세

계층 유형

특성 맵

크기

커널 크기

스트라이드

활성화 함수

이미지

1

227×227

-

-

-

합성곱층

96

55×55

11×11

4

렐루(ReLU)

최대 풀링층

96

27×27

3×3

2

-

합성곱층

256

27×27

5×5

1

렐루(ReLU)

최대 풀링층

256

13×13

3×3

2

-

합성곱층

384

13×13

3×3

1

렐루(ReLU)

합성곱층

384

13×13

3×3

1

렐루(ReLU)

합성곱층

256

13×13

3×3

1

렐루(ReLU)

최대 풀링층

256

6×6

3×3

2

-

완전연결층

-

4096

-

-

렐루(ReLU)

완전연결층

-

4096

-

-

렐루(ReLU)

완전연결층

-

1000

-

-

소프트맥스(softmax)

네트워크에는 학습 가능한 변수가 총 6600만 개 있습니다. 네트워크에 대한 입력은 227×227×3 크기의 RGB 이미지이며, 각 클래스(혹은 카테고리)에 해당하는 1000×1 확률 벡터를 출력합니다.

신간 소식 구독하기
뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.