• 상식 부족: LLM은 방대한 지식 기반을 가지고 있지만, 가끔 상식이 결여되거나 잘못된 가정을 하는 출력을 생성할 수 있습니다. 사용자는 더 정확하고 합리적인 응답을 얻기 위해 다양한 프롬프트 기술을 실험해 봐야 합니다.
• 편향성: LLM은 학습 데이터에 존재하는 편향성에 부주의하게 노출될 수 있습니다. 따라서 의도치 않게 편향과 차별적인 신념을 학습하고 전파할 수 있으며, 이는 편향된 관점과 불공정한 결과로 이어질 수 있습니다. 특히 채용, 교육, 의사 결정과 같은 분야에서 LLM을 사용할 때 심각한 영향을 미칠 수 있습니다. 이러한 강력한 도구를 책임감 있고 윤리적으로 사용하기 위해 LLM의 편향성을 인식하고 해결하는 것이 중요합니다.
• 환각: LLM의 환각(hallucination)은 LLM이 사실과 다르거나 말이 안 되거나 입력 상황과 관련 없는 문장을 생성하는 것을 말합니다. 환각 현상은 LLM이 방대한 양의 학습 데이터에서 패턴과 연관성을 학습하지만, 세계에 대한 본질적인 이해나 인간과 같은 추론 능력이 없기 때문에 발생합니다. 그 결과, 때때로 겉으로는 타당해 보이지만 실제로는 부정확하거나 비논리적인 출력을 생성할 수 있습니다. 환각은 사실적인 정보, 의사 결정, 콘텐츠 생성을 위해 LLM에 의존할 때 그 문제점이 더욱 두드러집니다. 환각의 영향을 완화하려면 모델을 세밀하게 조정하고 더 나은 평가 지표를 생성하며 피드백을 수시로 반영하여 LLM의 성능과 신뢰성을 향상시키는 데 투자해야 합니다.