# 문서를 랭체인의 Document 객체로 변환 documents = [Document(page_content=text) for text in sample_texts] # 문서 분할(chunking) text_splitter = RecursiveCharacterTextSplitter(chunk_size=50, chunk_overlap=10) docs = text_splitter.split_documents(documents) # OpenAI 임베딩 모델 사용 embeddings = OpenAIEmbeddings() # FAISS 벡터 저장소 생성 vectorstore = FAISS.from_documents(docs, embeddings) # 벡터 검색을 위한 retriever 생성 retriever = vectorstore.as_retriever() # 사용자의 질문을 기반으로 관련 문서 검색 query = "트랜스포머 모델이 발표된 연도는?" retrieved_docs = retriever.invoke(query)