더북(TheBook)

5. BERT는 마스킹된 단어를 예측하는 데 초점을 맞추며, 텍스트 분류와 같은 작업에 뛰어납니다. GPT는 텍스트 완성, 번역, 요약과 같은 생성 작업을 위해 고안되었습니다.

 

6. 제로-샷 학습을 사용하면 GPT 모델이 특정 샘플로 훈련하지 않고도 작업을 수행할 수 있습니다. 반면 퓨-샷 학습은 모델이 최소한의 샘플 개수에서 학습할 수 있게 만듭니다. 이런 능력은 GPT의 다재다능함과 적응력을 보여 줍니다.

 

 

신간 소식 구독하기
뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.