그림 4-1에서는 먼저 ➊ 대규모 신경망을 ➋ 수렴할 때까지 훈련합니다. 타깃 데이터셋에서 가장 높은 성능을 내도록 만듭니다(예를 들어 훈련 손실을 최소화하거나 분류 정확도를 최대화합니다). 이 신경망은 일반적인 방식을 따라 작은 값의 랜덤한 가중치로 초기화됩니다.
그다음 그림 4-1에서 보듯이 ➌ 신경망의 가중치 파라미터를 가지치기하여 네트워크에서 잘라냅니다. 이렇게 하기 위해 가중치를 0으로 설정해 희소한 가중치 행렬을 만듭니다. 여기에서 (비구조적 가지치기(unstructured pruning)라고 부르는) 개별 가중치를 가지치기하거나 (구조적 가지치기(structured pruning)라고 부르는) 신경망의 큰 덩어리를 가지치기할 수 있습니다. 후자의 경우 합성곱 필터의 채널 전체를 가지치기할 수 있습니다.
원본 로터리 티켓 가설 방법은 반복적 크기 기반 가지치기(iterative magnitude pruning) 개념을 따릅니다. 이는 가장 작은 크기를 가진 가중치를 반복적으로 제거합니다(이 개념은 6장에서 과대적합 감소 기법을 설명할 때 다시 살펴보겠습니다).