더북(TheBook)

대화 깊이: 대화 체계에서 컨텍스트 창이 크면 클수록 AI가 대화의 이전 내용을 더 많이 기억하고 참조할 수 있기 때문에 더욱 매력적이고 자연스러운 상호 작용을 생성할 수 있습니다.

지식 검색: 매우 긴 문장을 참조하거나 문서의 여러 영역에서 가져와야 하는 작업의 경우, 컨텍스트 창이 크면 클수록 모델이 더 효과적으로 정보를 상호 참조하고 결합할 수 있습니다.

 

그러나 컨텍스트 창이 클수록 처리하는 데 더 많은 연산 능력과 메모리가 필요하므로 서로 절충이 필요하며, 이는 응답 시간과 비용에 영향을 미칩니다. 컨텍스트 창을 개선하면 복잡한 작업에서 모델의 사용성과 적응성을 크게 향상시킬 수 있기 때문에, LLM 간의 차별화를 위한 핵심적인 요소입니다.

클로드 2의 컨텍스트 창은 토큰 100,000개인 반면, 새로운 모델인 GPT-4-turbo-1106-review의 컨텍스트 창은 토큰 128,000개입니다. 영어의 경우 토큰 1,000개당 평균 단어 수는 약 750개입니다. 연구자들은 2024년까지 100만 개 이상의 토큰을 가지는 모델을 예측하고 있습니다.

신간 소식 구독하기
뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.