전체 코드 중 앞에서 설명하지 않았던 아래 부분에 대해서만 살펴보겠습니다.
코드
@mcp.tool() async def ask_gpt(ctx: Context, question: str) -> str: llm = ChatOpenAI(model="gpt-4o", temperature=0.3) return llm.predict(question)
위 코드는 비동기 함수(async def)로 ask_gpt()를 생성합니다.
• ctx: Context: MCP의 컨텍스트 객체에는 요청 정보나 사용자 세션 같은 내용이 담길 수 있습니다. 지금은 이 코드에서 쓰이지 않지만, 나중에 로그를 남기거나 대화 내용을 저장할 때 활용하면 좋습니다.
• question: str: 사용자가 입력한 질문입니다.