설명: RAG(검색 기반 생성) 기법을 사용하기 위해 검색기와 LLM 환경을 초기화합니다. OpenAI API 또는 Hugging Face 모델 등을 활용합니다.
예시 코드:
from langchain.vectorstores import FAISS
from langchain.embeddings import OpenAIEmbeddings
from langchain.chains import RetrievalQA
# 벡터 저장소와 검색기 초기화
embeddings = OpenAIEmbeddings()
vector_store = FAISS.create_index(embedding_model=embeddings)
vector_store.add_texts(["문서 A 내용", "문서 B 내용", "문서 C 내용"])
# RetrievalQA 초기화
retriever = vector_store.as_retriever()
qa_chain = RetrievalQA(llm="gpt-4", retriever=retriever)
활용법: 검색과 생성의 통합 환경 설정, 대화형 검색 시스템 구축.
설명:
예시 코드 (OpenAI API 통합):
from langchain.llms import OpenAI
llm = OpenAI(model="gpt-4", api_key="your-api-key")
response = llm.generate("LangChain 활용법을 설명해주세요.")
print(response)
활용법: 각 LLM의 장점에 따라 검색 시스템과 맞춤 통합.
설명: 생성된 답변과 정답 간 임베딩 거리로 유사성을 측정.
예시 코드:
from langchain.embeddings import OpenAIEmbeddings
from sklearn.metrics.pairwise import cosine_similarity
embeddings = OpenAIEmbeddings()
true_answer_embedding = embeddings.embed_text("정답 문장")
generated_answer_embedding = embeddings.embed_text("생성된 답변 문장")
similarity = cosine_similarity([true_answer_embedding], [generated_answer_embedding])
print(f"Embedding Distance Similarity: {similarity[0][0]}")
활용법: 답변의 내용적 유사성 측정.