这里写目录标题
- 引言
- 问答与语言模型
- 一般流程
- 整合方法
- 通过高级问答技术增强 RAG 系统
- 利用 VectorDB 进行文档检索
- 实现问答链
- 初始化语言模型
- 配置 RetrievalQA 链
- 问答实战
引言
检索增强生成 (RAG) 系统已经革新了我们与大型数据集互动的方式,使得开发高度复杂的聊天机器人和问答模型成为可能。这些系统的一个关键阶段是将检索到的文档与原始查询一起传递给语言模型 (LM),以生成答案。本章探讨了各种策略以优化这一流程,确保生成的答案准确而全面。
问答与语言模型
一旦相关文档被检索出来,它们必须被有效地整合为连贯的答案。这包括将文档内容与查询上下文相结合,并利用语言模型的能力。
一般流程
- 查询接收:接收用户的查询。
- 文档检索:从语料库中获取相关文档。
- 答案生成:将文档和查询传递给语言模型,该模型生成答案。
整合方法
默认情况下,所有检索到的文档片段都会被传递进语言模型的上下文窗口。然而,由于上下文窗口的大小限制,需要采用诸如 MapReduce、Refine 和 MapRerank 等策略来解决这一约束。
通过高级问答技术增强 RAG 系统
在深入探讨具体问答方法之前,请确保你的开发环境已正确配置。这个设置包括导入必要的库、设置 API 密钥,并调整以适应任何语言模型版本的更新。
import os
import openai
from dotenv import load_dotenv
import datetime
# 加载环境变量并配置 OpenAI API 密钥
load_dotenv()
openai.api_key = os.environ['OPENAI_API_KEY']
# 调整以适应语言模型版本
current_date = datetime.datetime.now().date()
llm_name = "gpt-3.5-turbo"
print(f"正在使用语言模型版本: {llm_name}")
利用 VectorDB 进行文档检索
RAG 系统中的一个重要步骤是从用户的查询中检索相关文档。这可以通过使用向量数据库 (VectorDB) 来实现,它存储文档的嵌入向量。
# 导入用于向量数据库和嵌入向量生成的必要库
from langchain.vectorstores import Chroma
from langchain.embeddings.openai import OpenAIEmbeddings
# 指定向量数据库将持久化其数据的目录
documents_storage_directory = 'docs/chroma/'
# 初始化嵌入向量生成器,使用 OpenAI 的嵌入向量
embeddings_generator = OpenAIEmbeddings()
# 初始化向量数据库,指定存储目录和嵌入向量函数
vector_database = Chroma(persist_directory=documents_storage_directory, embedding_function=embeddings_generator)
# 显示向量数据库中的当前文档数量以验证初始化是否成功
print(f"向量数据库中的文档数量: {vector_database._collection.count()}")
实现问答链
RetrievalQA 链是一种结合文档检索与问答的方法,它利用语言模型的能力根据检索到的文档生成响应。
初始化语言模型
from langchain.chat_models import ChatOpenAI
# 初始化聊天模型,选择指定的语言模型版本
language_model = ChatOpenAI(model_name=llm_name, temperature=0)
配置 RetrievalQA 链
# 导入 langchain 库中的必要模块
from langchain.chains import RetrievalQA
from langchain.prompts import PromptTemplate
# 创建一个自定义提示模板以指导语言模型有效地使用提供的上下文来回答问题
custom_prompt_template = """为了更好地回答问题,请考虑以下提供的细节作为您的参考...
{context}
问题: {question}
有见地的回答: """
# 初始化 RetrievalQA 链,使用自定义提示模板
question_answering_chain = RetrievalQA.from_chain_type(
language_model,
retriever=vector_database.as_retriever(),
return_source_documents=True,
chain_type_kwargs={"prompt": PromptTemplate.from_template(custom_prompt_template)}
)
问答实战
# 向系统提出一个问题
query = "概率是不是一门课程的主题?"
response = question_answering_chain({"query": query})
print("答案:", response["result"])
请注意,上述代码示例中使用的 qa_chain
变量未被定义,因此在实际运行时应该替换为 question_answering_chain
。