AlexNet의 합성곱층에서 사용된 활성화 함수는 렐루(ReLU)로, 각 계층의 구조적 세부 사항은 다음 표를 참고하세요.

    ▼ 표 6-2 AlexNet 구조 상세

    계층 유형

    특성 맵

    크기

    커널 크기

    스트라이드

    활성화 함수

    이미지

    1

    227×227

    합성곱층

    96

    55×55

    11×11

    4

    렐루(ReLU)

    최대 풀링층

    96

    27×27

    3×3

    2

    합성곱층

    256

    27×27

    5×5

    1

    렐루(ReLU)

    최대 풀링층

    256

    13×13

    3×3

    2

    합성곱층

    384

    13×13

    3×3

    1

    렐루(ReLU)

    합성곱층

    384

    13×13

    3×3

    1

    렐루(ReLU)

    합성곱층

    256

    13×13

    3×3

    1

    렐루(ReLU)

    최대 풀링층

    256

    6×6

    3×3

    2

    완전연결층

    4096

    렐루(ReLU)

    완전연결층

    4096

    렐루(ReLU)

    완전연결층

    1000

    소프트맥스(Softmax)

    네트워크에는 학습 가능한 변수가 총 6600만 개 있습니다. 네트워크에 대한 입력은 227×227×3 크기의 RGB 이미지이며, 각 클래스(혹은 카테고리)에 해당하는 1000×1 확률 벡터를 출력합니다.

    신간 소식 구독하기
    뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.