检索增强生成架构详解【RAG】

news2024/11/16 12:44:21

生成式AI技术很强大,但它们受到知识的限制。 虽然像 ChatGPT 这样的LLM可以执行许多任务,但每个LLM的基线知识都存在基于其训练数据的差距。 如果你要求LLM写一些关于最近趋势或事件的文章,LLM不会知道你在说什么,而且回答最好是混合的,坏的情况下往往还是有问题的。

LLM基于知识的问题归结为两个关键问题:

  • LLM 训练数据往往无可救药地过时(截至撰写本文时,ChatGPT 的世界知识将于 2022 年 1 月结束,不包括使用 Bing 浏览和 GPT-4V 等提供额外上下文的功能)。
  • LLM在无法获得事实的情况下进行推断,因此当他们的知识存在差距时(称为幻觉),他们会自信地做出虚假但听起来合理的陈述。

在线工具推荐: Three.js AI纹理开发包 - YOLO合成数据生成器 - GLTF/GLB在线编辑 - 3D模型格式在线转换 - 可编程3D场景编辑器 

检索增强生成 (RAG:Retrieval Augmented Generation) 是一种有助于解决这两个问题的策略,它将信息检索与一组精心设计的系统提示相结合,将LLM锚定在从外部知识存储检索的精确、最新和相关信息上。 尽管LLM训练数据保持静态,但利用这种背景知识提示LLM可以创建需要对事实进行深入且不断发展的理解的特定领域应用程序。

你可以问LLM“什么是 RAG?”,根据LLM本身是否使用 RAG,可能会得到截然不同的答案:

“RAG是什么?” 有RAG的LLM响应:

RAG(检索增强生成)是 Meta AI 研究人员引入的一种方法,它将信息检索组件与文本生成器模型相结合,以解决知识密集型任务。 可以有效地修改其内部知识,而无需重新训练整个模型。 您想了解更多详细信息吗?

“RAG是什么?” 没有 RAG 的LLM响应:

根据上下文,RAG 可以指多种不同的事物。 以下是一些常见的含义:

1. 红色、琥珀色、绿色 (RAG):在项目管理和报告中,RAG 是一种颜色编码系统,用于快速传达项目或任务的状态或运行状况。
2. RAG分析:这是一种用于风险评估或决策的方法。 它涉及根据风险或选项的严重程度、影响或可取性将其分类为红色、琥珀色或绿色。 它有助于优先考虑行动或选择。
3. 随机访问生成器 (RAG):在某些技术背景下,RAG 可能指生成随机访问模式或数据的系统或算法,通常用于计算机科学或信息检索。
4.资源分配图(RAG):在操作系统和计算机科学的背景下,资源分配图用于死锁检测。 它是一个有向图,表示系统中进程之间的资源分配和请求关系。

如果你有特定的上下文或领域,请提供更多详细信息,我可以在该上下文中为你提供有关“RAG”的更准确的解释。

使用和不使用 RAG 来回答这个问题有很大区别。 特别是在涉及特定领域知识(如首字母缩略词)的情况下,RAG 可以极大地提高LLM回答的准确性。

如果你与了解最近事件、了解用户特定信息或对某个主题比正常情况有更深入了解的聊天机器人进行过交互,那么很可能在没有意识到的情况下与 RAG 进行了交互。 如果你看过有关“通过文档聊天”的教程,那么这就是 RAG 最简单的版本。 LangChain 和 LlamaIndex 等框架使快速创建简单的知识感知应用程序成为可能,从而实现了 RAG 的民主化。

我开发并实现了 Skyflow 内部的 LLM 应用程序,包括使用 RAG 的系统。 由于 RAG 几乎无处不在,并且不会很快消失,因此了解 RAG 的基础知识以及当你想要将代码转移到生产环境时如何超越这些基础知识非常重要。 我邀请你学习我在 RAG 旅程中的经验,这样你就不必经历艰难的摸索过程。

1、一个最小RAG示例

LangChain 提供了一个 RAG 最小(但不是最简单)形式的示例:

from langchain.document_loaders import WebBaseLoader
from langchain.indexes import VectorstoreIndexCreator
loader = WebBaseLoader("https://www.promptingguide.ai/techniques/rag")
index = VectorstoreIndexCreator().from_loaders([loader])
index.query("What is RAG?")

通过这五行代码,我们得到了 RAG 的描述,但代码是高度抽象的,因此很难理解实际发生的情况:我们获取网页的内容(本示例的知识库)。

  • 我们处理源内容并将它们存储在知识库(在本例中为矢量数据库)中。
  • 我们输入一个提示,LangChain从知识库中查找一些信息,并将提示和知识库结果传递给LLM。

虽然此脚本有助于原型设计和理解使用 RAG 的主要节拍,但它对于超越该阶段并不是那么有用,因为你没有太多控制权。 让我们讨论一下实际执行的内容。

2、LLM+RAG基本架构

由于完整的 LLM 应用程序架构相当大,因此我们将仅考虑启用 RAG 的组件:

  • 编排层接收用户在任何关联元数据(如对话历史记录)中的输入,与所有相关工具交互,将提示发送给 LLM,并返回结果。 编排层通常由 LangChain、Semantic Kernel 等工具组成,并使用一些本机代码(通常是 Python)将它们编织在一起。
  • 检索工具是一组返回上下文的实用程序,这些上下文通知用户提示并对用户提示进行响应。 该组包括知识库和基于 API 的检索系统。
  • LLM 是你向其发送提示的大型语言模型。 它们可能由 OpenAI 等第三方托管,也可能在你自己的基础设施中内部运行。 就本文而言,你使用的具体模型并不重要。

在典型的LLM应用程序中,你的推理处理脚本会根据需要连接到检索工具。 如果你正在构建基于 LLM 代理的应用程序,则每个检索实用程序都会作为工具向你的代理公开。 从这里开始,我们将只讨论典型的基于脚本的用法。

当用户触发你的推理流程时,编排层会将必要的工具和 LLM 结合在一起,以从你的检索工具中收集上下文并生成上下文相关的知情响应。 编排层处理所有 API 调用和特定于 RAG 的提示策略(我们很快就会谈到)。 它还执行验证,例如确保你没有超出 LLM 的令牌限制,这可能会导致 LLM 拒绝你的请求,因为你在提示中填充了太多文本。

3、知识库检索

要查询数据,你不仅需要数据,还需要应用程序可以访问的格式。 对于基于 LLM 的应用程序,这通常涉及向量存储 - 一个可以基于文本相似性而不是精确匹配进行查询的数据库。

将数据从源格式转换为矢量存储需要 ETL(提取、转换、加载)管道。

  • 汇总源文档。 你需要收集希望可用于你的应用程序的任何内容。 对于我在 Skyflow 的私有LLM方面的工作,这包括我们的产品文档、白皮书和博客文章,但这可以轻松扩展到内部记录、规划文件等。
  • 清理文档内容。 如果有任何东西不应该对LLM提供者或你的应用程序的最终用户可见,现在你有机会将其删除。 在此过程中,删除个人身份信息 (PII)、机密信息和正在开发的内容。 此步骤之后剩下的任何内容对于后续训练和推理过程的所有阶段都将是可见的。 Skyflow GPT Privacy Vault 可以帮助你对文档内容进行去标识化,以确保你的训练数据不含敏感信息。
  • 将文档内容加载到内存中。 Unstructed、LlamaIndex 和 LangChain 的文档加载器等工具可以将各种文档类型加载到你的应用程序中,特别是非结构化内容。 无论是文本文档、电子表格、网页、PDF、Git 存储库还是数百种其他内容,都可能有一个加载程序。 但要小心,因为并非所有加载器都是一样的,有些加载器比其他加载器加载更多的内容或上下文。 例如,一个加载器可能从电子表格中的多个工作表加载内容,而另一个加载器仅从第一个工作表加载内容。
  • 将内容分成块。 当你分割你的内容时,你把它分成小的、一口大小的片段,这些片段可以适应LLM提示,同时保持意义。 有多种方法可以分割内容。 LangChain 和 LlamaIndex 都有可用的文本分割器,默认情况下按空格字符和句子递归分割,但你需要使用最适合你的内容的方法。 对于我的项目,我发现用 Markdown 编写的文档即使使用 LangChain 的 Markdown 拆分器也会丢失太多上下文,因此我编写了自己的拆分器,根据 Markdown 的标题和代码块标记对内容进行分块。
  • 为文本块创建嵌入。 嵌入存储向量—一个文本块的相对位置以及与其他附近文本块的关系的数字表示。 虽然这很难想象,但庆幸的是创建嵌入很容易。 OpenAI 提供嵌入模型,LangChain 和 LlamaIndex 提供各种托管或自托管嵌入选项,或者您也可以使用 SentenceTransformers 等嵌入模型自行完成。
  • 将嵌入存储在向量存储中。 获得嵌入后,你可以将它们添加到矢量存储中,例如 Pinecone、Weaviate、FAISS、Chroma 或众多其他选项。

存储向量后,你可以查询向量存储并查找与你的查询最相似的内容。 如果您需要更新或添加源文档,大多数向量数据库都允许更新存储。 这意味着你还可以从矢量存储中删除内容,这是微调模型时无法执行的操作。

你可以再次运行管道来重新创建整个知识库,虽然这比重新训练模型成本更低,但它仍然耗时且效率低下。 如果你希望定期更新源文档,请考虑创建文档索引流程,以便仅处理管道中的新文档和最近更新的文档。

4、基于API的检索

从向量存储中检索并不是唯一的检索类型。 如果你有任何允许编程访问的数据源(客户记录数据库、内部票务系统等),请考虑让你的编排层可以访问它们。 在运行时,你的编排层可以查询基于 API 的检索系统,以提供与当前请求相关的其他上下文。

5、使用 RAG 提示

设置好检索工具后,就可以使用一些编排层魔法将它们编织在一起。

首先,我们将从提示模板开始。 提示模板包含你想要作为提示的一部分传递给 LLM 的所有信息的占位符。 系统(或基本)提示符告诉LLM如何表现以及如何处理用户的请求。 一个简单的提示模板可能如下所示:

System: You are a friendly chatbot assistant that responds in a conversational
manner to users' questions. Respond in 1-2 complete sentences, unless specifically
asked by the user to elaborate on something. Use History and Context to inform your answers.
---
History: {history}
---
Context: {context}
---
User: {request}

当你的最终用户提交请求时,你就可以开始填写变量。 如果用户提交“什么是RAG?”,你可以填写请求变量。 你可能会随请求一起获得对话历史记录,因此也可以填写该变量:

System: You are a friendly chatbot assistant that responds in a conversational
manner to user's questions. Respond in short but complete answers unless specifically
asked by the user to elaborate on something. Use History and Context to inform your answers.
---
History: [{"role": "assistant", "message": "Hi! How can I help you?"}]
---
Context: {context}
---
User: What is RAG?

接下来,调用你的检索工具,无论它们是矢量存储还是其他 API。 一旦你掌握了上下文(知识库结果、客户记录等),就可以更新上下文变量,以便在推理过程中为 LLM 提供信息和基础。

注意:如果你的 RAG 实施中包含多种类型的数据,请确保对它们进行标记,以帮助LLM区分它们。

System: You are a friendly chatbot assistant that responds in a conversational
manner to user's questions. Respond in short but complete answers unless specifically
asked by the user to elaborate on something. Use History and Context to inform your answers.
---
History: [{"role": "assistant", "message": "Hi! How can I help you?"}]
---
Context: [Document(page_content='Meta AI researchers introduced a method called [Retrieval Augmented Generation](https://ai.facebook.com/blog/retrieval-augmented-generation-streamlining-the-creation-of-intelligent-natural-language-processing-models/) (RAG) to address such knowledge-intensive tasks. RAG combines an information retrieval component with a text generator model. RAG can be fine-tuned and its internal knowledge can be modified in an efficient manner and without needing retraining of the entire model.', metadata={'source': 'https://www.promptingguide.ai/techniques/rag', 'title': 'Retrieval Augmented Generation (RAG)'})]
---
User: What is RAG?

上下文就位后,提示模板已填写,但你仍然有两个后处理任务需要完成:

  • 就像清理源数据一样,你也需要清理提示。 即使你的数据是干净的,用户也可以在其请求中输入 PII,你且您不希望用户的信息最终出现在 LLM 操作员的日志或数据存储中。 如果你没有清理源数据,这也可以作为一种保障。 除了对数据集和提示进行去识别化之外,Skyflow GPT Privacy Vault 还可以在你向用户发送响应之前重新识别 LLM 响应中的敏感值。
  • 确保你没有超出LLM的令牌数量限制,否则你的推理尝试将会失败。 在尝试推理之前,请使用令牌计算器(例如 tiktoken),以确保你处于 LLM 特定的限制范围内。 你可能必须减少包含的上下文数量以适应令牌限制。

一旦你的提示被清理并在令牌限制内,就可以通过将提示发送到你选择的LLM来执行推理。 当你收到响应时,它应该根据你提供的上下文进行通知,并且你可以将其发送回用户。

6、提高性能

现在你的应用程序中已经有了 RAG,你可能希望立即投入生产。 还不做! 或者,你可能对所得到的结果并不那么兴奋。 不用担心,你可以采取以下一些措施来提高 RAG 性能并做好生产准备:

  • 垃圾进垃圾出。 你提供的上下文质量越高,收到的结果质量就越高。 清理源数据以确保数据管道维护足够的内容(例如捕获电子表格列标题),并确保删除不必要的标记,以免干扰LLM对文本的理解。
  • 调整你的分块策略。 尝试不同的文本块大小,以确保启用 RAG 的推理保持足够的上下文。 每个数据集都是不同的。 创建不同的分割向量存储,看看哪一个最适合你的架构。
  • 调整你的系统提示。 如果LLM没有对你的上下文给予足够的重视,请更新你的系统提示,并期望如何处理和使用所提供的信息。
  • 过滤你的向量存储结果。 如果你想要或不想返回特定类型的内容,请根据元数据元素值过滤矢量存储结果。 例如,如果你需要一个流程,可以根据 docType 元数据值进行筛选,以确保你的结果来自操作文档。
  • 尝试不同的嵌入模型(并微调自己的模型)。 不同的嵌入模型有不同的编码和比较数据向量的方式。 进行实验,看看哪一种最适合你的应用。 你可以在 MTEB 排行榜上查看当前性能最佳的开源嵌入模型。 如果喜欢冒险,你还可以微调自己的嵌入模型,以便你的 LLM 更加了解特定于领域的术语,从而为你提供更好的查询结果。 是的,你绝对可以使用清理和处理的知识库数据集来微调你的模型。

7、微调

在结束之前,让我们先讨论另一个与 LLM 相关的流行语:微调。

微调和 RAG 提供了两种不同的方法来优化 LLM。 虽然 RAG 和微调都利用源数据,但它们都有独特的优势和需要考虑的挑战。

微调是一个继续使用附加数据训练模型的过程,使其在数据集详细说明的特定任务和领域上表现更好。 然而,单一模型不可能在所有方面都是最好的,并且与微调任务无关的任务通常会随着额外的训练而降低性能。 例如,微调是创建特定于代码的 LLM 的方式。 Google 的 Codey 在各种语言的代码示例精选数据集上进行了微调。 这使得 Codey 在编码任务方面的表现明显优于 Google 的 Duet 或 PaLM 2 模型,但代价是聊天性能一般。

相反,RAG 通过从外部知识库检索到的相关和当前信息来增强LLM。 这种动态增强使LLM能够克服静态知识的局限性,并生成更明智、更准确且与上下文相关的响应。 然而,外部知识的集成会增加计算复杂性、延迟和提示复杂性,可能导致推理时间更长、资源利用率更高和开发周期更长。

RAG 在一个特定领域比微调效果要好:遗忘。 当你微调模型时,训练数据将成为模型本身的一部分。 你无法隔离或删除模型的特定部分。 LLM 不能忘记。 但是,矢量存储允许你添加、更新和删除其内容,因此你可以随时轻松删除错误或过时的信息。

微调和 RAG 一起可以创建专门针对特定任务或领域并能够使用上下文知识的 LLM 支持的应用程序。 考虑 GitHub Copilot:它是一个经过微调的模型,专门从事编码,并使用你的代码和编码环境作为知识库,为你的提示提供上下文。 因此,Copilot 往往适应性强、准确且与你的代码相关。 另一方面,Copilot 基于聊天的响应据说比其他模型需要更长的时间来处理,并且 Copilot 无法协助完成与编码无关的任务。

8、结束语

RAG 代表了增强LLM能力的实用解决方案。 通过将实时外部知识集成到 LLM 响应中,RAG 解决了静态训练数据的挑战,确保所提供的信息保持最新且与上下文相关。

展望未来,将 RAG 集成到各种应用程序中有望显着改善用户体验和信息准确性。 在当今时代,及时了解最新动态至关重要,RAG 提供了一种可靠的方法来让法学硕士了解情况并保持高效。 采用 RAG 的实用性使我们能够自信而精确地应对现代人工智能应用的复杂性。


原文链接:检索增强生成架构剖析 - BimAnt

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1250771.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

vivado产生报告阅读分析22

“ Advanced ”选项卡 “ Advanced ” ( 高级 ) 选项卡如下图所示。 在“ Advanced ”选项卡中提供了以下字段 : • “ Report ” ( 报告 ): 选中“ Advanced ”选项卡中的“ Cells to Analyze ” &…

GEE:通过将 Landsat 5、7、8、9 的 C02 数据集合并起来,构建 NDVI 长时间序列

作者:CSDN @ _养乐多_ 本文记录了在 Google Earth Engine(GEE)平台上,将 Landsat-5、Landsat-7、Landsat-8 和 Landsat-9 的数据合成为一个影像集合,并生成 NDVI(归一化植被指数)的时间序列的代码。 代码封装成了函数,方便调用,结果如下图所示, 在实际应用中,可能…

地表最强端口扫描神器之namp工具的使用方法

namp使用方法 文章目录 namp使用方法nmap工具是什么?nmap工具是用来干什么的?nmap扫描工具如何使用-A-sS-sP-p-sV nmap工具是什么? nmap是一款强大的网络扫描和安全审计工具,它可以帮助用户探测网络中存活的主机,扫描开放的端口,检测运行…

c++_继承

🏷如被何实现一个不能被继承的类(或是继承无意义的类) 将构造函数定义成私有的就行了,即:私有化父类的构造函数 c 11 新增关键字final 修饰父类直接不能被继承 class A final {........ }🏷继承与有元 有…

基于mediapipe的人手21点姿态检测模型—CPU上检测速度惊人

前期的文章,我们介绍了MediaPipe对象检测与对象分类任务,也分享了MediaPipe的人手手势识别。在进行人手手势识别前,MediaPipe首先需要进行人手的检测与人手坐标点的检测,经过以上的检测后,才能把人手的坐标点与手势结合起来,进行相关的手势识别。 MediaPipe人手坐标点检测…

Linux学习笔记之六(进程之间的管道通信和信号处理)

目录 1、管道通信1.1、无名管道1.1、有名管道 2、信号处理2.1、信号的种类和发送2.2、信号的接受和处理 1、管道通信 管道通信是一个设备中进程与进程之间通信的一种方式,分为无名管道和有名管道两种。前者只能用于有亲缘关系的进程之间的通信,如父子进…

B/S前后端分离的Java医院云HIS信息管理系统源码(LIS源码+电子病历源码)

HIS系统采用主流成熟技术开发,软件结构简洁、代码规范易阅读,SaaS应用,全浏览器访问前后端分离,多服务协同,服务可拆分,功能易扩展。多医院、多集团统一登录患者主索引建立、主数据管理,统一对外…

windows cmd执行远程长脚本

背景 有时候我们想在未进行一些环境设置,或者工具使用者电脑中执行一段初始化脚本,为了简化使用者的理解成本,通常给使用者一段代码执行初始化电脑中的设置,尤其是这段初始化脚本比较长的时候。 脚本制作者 比如将需要执行的命…

【React】Memo

组件重新渲染时缓存计算的结果。 实例:count1计算斐波那契数列,count2和count1可以触发数值变化。使用memo可以使只有在count1变化时触发斐波那契数列计算函数,而count2变化时不触发斐波那契数列计算函数。 import { useMemo } from "r…

【Ambari】HDFS基于Ambari的常规运维

🦄 个人主页——🎐开着拖拉机回家_大数据运维-CSDN博客 🎐✨🍁 🪁🍁🪁🍁🪁🍁🪁🍁 🪁🍁🪁&#x1f…

Vue3的计算属性(computed)和监听器(watch)案例语法

一:前言 Vue3 是 Vue2 的一个升级版,随着 2023年12月31日起 Vue2 停止维护。这意味着 Vue3 将会为未来国内一段时间里,前端的开发主流。因此熟练的掌握好 Vue3 是前端开发程序员所不可避免的一门技术栈。而 Vue3 是 Vue2 的一个升级版&#x…

画中画视频剪辑:如何实现多画面融合,提升创作质量

在视频剪辑的过程中,画中画是一种常见的技巧,它能够将多个画面融合在一起,创造出一种独特的效果,增强视频的观赏性和表现力。这种技巧常常用于电影、电视和广告中,以增加视觉冲击力,引导注意力,…

Vue3设计思想及响应式源码剖析 | 京东物流技术团队

一、Vue3结构分析 1、Vue2与Vue3的对比 对TypeScript支持不友好(所有属性都放在了this对象上,难以推倒组件的数据类型)大量的API挂载在Vue对象的原型上,难以实现TreeShaking。架构层面对跨平台dom渲染开发支持不友好,vue3允许自…

阅读笔记——《Removing RLHF Protections in GPT-4 via Fine-Tuning》

【参考文献】Zhan Q, Fang R, Bindu R, et al. Removing RLHF Protections in GPT-4 via Fine-Tuning[J]. arXiv preprint arXiv:2311.05553, 2023.【注】本文仅为作者个人学习笔记,如有冒犯,请联系作者删除。 目录 摘要 一、介绍 二、背景 三、方法…

十大排序之冒泡排序与快速排序(详解)

文章目录 🐒个人主页🏅算法思维框架📖前言: 🎀冒泡排序 时间复杂度O(n^2)🎇1. 算法步骤思想🎇2.动画实现🎇 3.代码实现🎇4.代码优化(添加标志量) …

高级搜索-线段树[C/C++]

线段树 文章目录 线段树前言一、线段树的定义二、线段树的结构与建立2..1 节点定义2.2 递归建树2.3 静态数组空间的解释 三、线段树的操作3.1 单点修改3.2 单点查询3.3 区间查询3.3 区间修改 四、动态开点线段树递增分配器 前言 对于求数组区间和我们可以处理出前缀和后可以在…

京东数据采集接口推荐(京东大数据分析工具)

随着京东电商平台的不断发展,平台中店铺数量也越来越多,对于电商卖家而言,在电商运营过程中如何做好数据分析也越来越重要。而电商运营数据往往多而杂,想要高效的完成电商数据分析,品牌需要借助一些电商数据分析软件。…

Leetcode—1457.二叉树中的伪回文路径【中等】

2023每日刷题(四十) Leetcode—1457.二叉树中的伪回文路径 实现代码 /*** Definition for a binary tree node.* struct TreeNode {* int val;* struct TreeNode *left;* struct TreeNode *right;* };*/ int record[10] {0};int accumula…

Qt C++中调用python,并将软件打包发布,python含第三方依赖

工作中遇到qt c调用我的python 代码,并且想要一键打包,这里我根据参考的以及个人实践的结果来简单实现一下。 环境:windows系统,QT Creater 4.5, python 3.8(anaconda虚拟环境) 1. 简单QT调用…

pgz easyexcel如何给excel文件添加自定义属性

免费API方式 直接上传URL,自定义修改Excel 视频演示【内含接口地址】 https://www.ixigua.com/7304510132812153385 前情提示 | 功能说明 多选仅支持微软office、office365系列Excel。因为WPS宏功能需要企业版且付费生成xlsx、xlsm等文件,office和WPS均可以打开,均可以单…