더북(TheBook)

환각 현상

LLM은 자신이 모르는 정보라도 가장 ‘그럴듯한’ 답변을 생성하려고 하며, 때때로 사실이 아닌 내용을 사실처럼 말하는 문제가 발생할 수 있습니다. 이를 환각(Hallucination) 현상이라고 합니다. 이 문제를 해결하기 위해서는 RAG를 사용하여 실제 문서를 검색한 후, 이를 기반으로 신뢰도 높은 답변을 생성하거나 출처를 명확히 제공하여 사용자가 정보를 검증할 수 있도록 해야 합니다.

 

시간과 비용에 대한 투자

LLM을 특정 데이터셋으로 재학습하려면 많은 비용과 시간이 필요합니다. 그러나 RAG를 활용하면 LLM을 수정하지 않고도 활용할 수 있습니다. 외부 검색 시스템과 결합하여 필요한 정보를 즉시 반영할 수 있기 때문이죠. 그래서 재학습보다는 RAG를 사용하여 검색한 정보를 기반으로 즉시 답변을 생성하는 것이 효율적입니다.

신간 소식 구독하기
뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.