3. 이제 MCP 서버를 생성합니다. 이번에 생성할 서버는 LangChain + OpenAI GPT-4o + MCP + FastAPI + SSE를 모두 결합하여 만든 완전한 실시간 AI 채팅 서버입니다. 파일은 sse_server.py를 참조하세요.
코드
import os # OpenAI API 키를 환경 변수에 설정 os.environ["OPENAI_API_KEY"] = "sk…" from fastapi import FastAPI, Request # FastAPI로 웹 서버 및 HTTP 요청 처리 from langchain_openai import ChatOpenAI # 랭체인에서 OpenAI LLM(GPT-4o) 사용 from mcp.server.fastmcp import FastMCP # MCP 서버를 빠르게 구성하는 클래스 from mcp.server.sse import SseServerTransport # SSE 통신을 위한 MCP 전송 계층 from starlette.routing import Mount, Route # FastAPI의 라우팅 설정을 위한 Starlette 모듈 import uvicorn # FastAPI 앱을 실행하기 위한 서버 라이브러리 # LLM 인스턴스 생성 (GPT-4o 모델 사용) llm = ChatOpenAI(model="gpt-4o") # MCP 서버 초기화 ("chatbot"이라는 이름으로 MCP 서버 생성) mcp = FastMCP("chatbot", llm=llm)