더북(TheBook)

전체 코드 중 앞에서 설명하지 않았던 아래 부분에 대해서만 살펴보겠습니다.

코드

@mcp.tool()
async def ask_gpt(ctx: Context, question: str) -> str:
    llm = ChatOpenAI(model="gpt-4o", temperature=0.3)
    return llm.predict(question)

위 코드는 비동기 함수(async def)로 ask_gpt()를 생성합니다.

ctx: Context: MCP의 컨텍스트 객체에는 요청 정보나 사용자 세션 같은 내용이 담길 수 있습니다. 지금은 이 코드에서 쓰이지 않지만, 나중에 로그를 남기거나 대화 내용을 저장할 때 활용하면 좋습니다.

question: str: 사용자가 입력한 질문입니다.

신간 소식 구독하기
뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.