더북(TheBook)

1장은 대규모 언어 모델(large language model, LLM)을 고수준에서 소개하고 애플리케이션, 구축 단계, 트랜스포머 구조를 살펴봅니다. 이 장은 효과적인 LLM을 개발하기 위한 두 가지 중요한 단계인 사전 훈련(pretraining)과 미세 튜닝(fine-tuning) 개념을 설명합니다. 트랜스포머 구조(transformer architecture)와 인코더(encoder) 모듈, 디코더(decoder) 모듈은 물론 셀프 어텐션 메커니즘(self-attention mechanism)을 포함해 핵심 구성 요소를 소개합니다. 또한 밑바닥에서부터 LLM을 구축하기 위한 세 단계 계획을 보여 줍니다. LLM 구조와 데이터 전처리 과정 구현하기, LLM을 사전 훈련하여 파운데이션 모델 만들기, 파운데이션 모델을 미세 튜닝하기입니다.

질문에 대한 답은 마지막에 있습니다.

 

 

신간 소식 구독하기
뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.