마지막으로 검색 결과를 정리해서 답변을 생성합니다. 이때 만약 대통령의 경제 정책 정보가 누락되었다면, AI 에이전트는 재계획(replan)을 수행하여 다시 RAG에 요청을 보냅니다. 이 과정을 정리하면 다음과 같습니다.
▼ 표 3-4 LLM+RAG+AI 에이전트 사례
|
단계 |
작업 내용 |
구성 요소 |
|
1 |
사용자 명령을 수신합니다 |
에이전트 |
|
2 |
LLM을 활용해 계획을 세웁니다 |
에이전트 |
|
3 |
검색 시스템을 통해 ‘2024년 미국 대통령’ 정보를 수집합니다 |
RAG |
|
4 |
RAG가 반환한 정보를 LLM에게 전달합니다 |
에이전트 |
|
5 |
수집된 정보를 요약하여 ‘도널드 트럼프가 대통령이다’라고 응답합니다 |
LLM |
|
6 |
결과가 충분하지 않으면 재계획을 실행합니다 |
에이전트 |
|
7 |
사용자가 볼 수 있는 최종 응답을 생성합니다 |
LLM |
LLM+RAG+AI 에이전트를 함께 사용하는 사례까지 알아보았습니다.
이렇게 하위 작업으로 나누면 어떤 점이 좋을까요? 큰 작업을 관리 가능한 작은 작업 여러 개로 나눔으로써, 각 작업에 대해 목표를 명확하게 부여할 수 있습니다. 또한 각 작업을 병렬로 처리할 수 있어 전체 작업 속도가 빨라집니다. 정리하면, 하위 작업으로 문제를 나누면 복잡한 문제를 단순화하고, 병렬로 처리할 수 있으며, 실패한 작업만 재계획하고, 에이전트를 전문화하고, 성능을 개선할 수 있습니다.