使用 LlamaIndex 进行 CRAG 开发用来强化检索增强生成

news2024/9/28 5:11:55

提升AI模型的准确性与可靠性

©作者|Ninja Geek

来源|神州问学

介绍

检索增强生成(RAG)彻底改变了使用大语言模型和利用外部知识库的方式。它允许模型从文档存储的相关索引数据中获取信息用以增强其生成的内容,使其更加准确和信息丰富。然而,RAG并非完全无缺。它有时会检索出不相关或不正确的信息,这就导致了不准确或带有明显误导性的生成内容。这就是 CRAG (修正型检索增强生成)发挥作用的地方。

CRAG 是一种强大的技术,它通过结合反馈机制来改进检索过程,从而增强了 RAG 的鲁棒性。它确保生成中使用的信息既相关又准确,从而产生更可靠、更值得信赖的生成内容。

了解 CRAG

CRAG 的工作原理是对检索到的文档进行额外的内容审查。它采用一种称作”评估器“的模型来评估每个文档与给定查询的相关性。如果评估器认为文档不相关,CRAG 会启动回退机制(通常利用网络搜索)来搜索其他来源的信息。

CRAG 的优势

1. 提高准确性:通过确保检索信息的相关性,CRAG 显著降低了产生不正确或误导性内容的可能性。

2. 增强可靠性:CRAG 通过验证生成中使用的信息来提供安全网,使模型更加值得信赖和可靠。

3. 扩展知识库:回退机制允许模型利用更广泛的信息源,从而有可能客服原始文档存储的限制。

了解检索评估器架构

我从论文《Corrective Retrieval Augmented》中截取了如下的示意图,在该示意图中描绘了如何构建一个检索评估器来评估检索到的文档与输入的问题的相关性。对置信度进行估计,以此为基础可以触发不同的知识检索操作,如”正确“、”错误“或”模棱两可“。

来源:《Corrective Retrieval Augmented Generation》

该方法被命名为“校正增强生成”(Corrective Retrieval-Augmented Generation,CRAG),旨在自我校正检索结果并增强文档在生成过程中的利用率。

引入了一个轻量级的检索评估器,用于评估给定查询下检索到的文档的整体质量。

该评估器是“检索增强生成”(Retrieval-Augmented Generation,RAG)的关键组成部分,通过审查和评估检索到的文档的相关性和可靠性,帮助生成有价值的信息。

检索评估器量化了信心水平,从而基于评估结果触发不同的知识检索操作,如“正确”、“错误”或“模棱两可”。

对于“错误”和“模棱两可”的情况,可以通过大规模网络搜索,以解决静态和有限语料库的局限性,旨在提供更广泛和多样化的信息集。

最后,在整个检索和利用过程中实施了“分解再重构”算法。

该算法有助于消除检索文档中对RAG无益的冗余内容,优化信息提取过程,并在减少非必要元素的同时最大限度地包含关键信息。

检索评估器逻辑算法

检索评估器涉及到一种算法,该算法确保检索到的信息的细化,优化关键信息的提取并最大限度地减少非必要信息被检索到,从而提高检索到的数据的利用率。

通过下面的算法伪码我们来了解检索评估器的核心思想:

来源:《Corrective Retrieval Augmented Generation》

使用 LlamaIndex 实现CRAG

LlamaIndex 提供了一个便利的框架来实现 CRAG。这是一个简化的示例,目的是让您了解这个过程:

步骤一:安装 OpenAI 的 Python 库并填写 API 秘钥

%pip install llama-index llama-index-indices-managed-llama-cloud llama-index-tools-tavily-research

import nest_asyncio
import os

nest_asyncio.apply()

os.environ["OPENAI_API_KEY"] = "<YOUR_OPENAI_API_KEY>"

步骤二:设计工作流程

 from typing import List, Optional, Any

from llama_index.core.schema import  NodeWithScore
from llama_index.core.workflow import (
    Event,
)
from llama_index.core.workflow import (
    StartEvent,
    StopEvent,
    step,
    Workflow,
    Context,
)
from llama_index.core import SummaryIndex
from llama_index.core.schema import Document
from llama_index.core.prompts import PromptTemplate
from llama_index.core.llms import LLM
from llama_index.llms.openai import OpenAI
from llama_index.core.base.base_retriever import BaseRetriever
from llama_index.indices.managed.llama_cloud import LlamaCloudIndex
from llama_index.tools.tavily_research import TavilyToolSpec
class RetrieveEvent(Event):
    """检索事件(获取被检索的节点)"""
    retrieved_nodes: List[NodeWithScore]
class RelevanceEvalEvent(Event):
    """相关性评估事件(获取相关性评估结果)"""
    relevant_results: List[str]
class TextExtractEvent(Event):
    """文本提取事件 提取相关文本并进行拼接"""
    relevant_text: str
class QueryEvent(Event):
    """查询事件 对给定的相关文本和搜索文本进行查询。"""
    relevant_text: str
    search_text: str
DEFAULT_RELEVANCY_PROMPT_TEMPLATE = PromptTemplate(
    template="""作为评分员,您的任务是评估根据用户问题检索到的文档的相关性。
    检索到的文档:
    -------------------
    {context_str}
    用户问题:
    --------------
    {query_str}
    评估标准:
        - 考虑文档是否包含与用户问题相关的关键词或主题。
        - 评估不应过于严格;主要目的是识别并过滤掉明显不相关的检索结果。
        决策:
        - 赋予二元评分以指示文档的相关性。
        - 如果文档与问题相关,请使用“是”;如果不相关,请使用“否”。
        请在下方提供您的二元评分(“yes”或“no”)以指示文档与用户问题的相关性。"""
)
DEFAULT_TRANSFORM_QUERY_TEMPLATE = PromptTemplate(
    template="""您的任务是优化查询,以确保其在检索相关搜索结果时具有较高的有效性。\n
    分析给定的输入以把握核心语义意图或含义。\n
    原始查询:
    \n ------- \n
    {query_str}
    \n ------- \n
    您的目标是重新表述或改进此查询,以提高其搜索性能。确保修订后的查询简洁明了,并直接符合预期的搜索目标。\n
    只需回复优化后的查询内容:"""
)
class CorrectiveRAGWorkflow(Workflow):
    """CRAG 工作流"""
    def __init__(
        self,
        index,
        tavily_ai_apikey: str,
        llm: Optional[LLM] = None,
        **kwargs: Any
) -> None:
        """初始化参数"""
        super().__init__(**kwargs)
        self.index = index
        self.tavily_tool = TavilyToolSpec(api_key=tavily_ai_apikey)
        self.llm = llm or OpenAI(model="gpt-4o")
    @step
    async def retrieve(self, ctx: Context, ev: StartEvent) -> Optional[RetrieveEvent]:
        """检索与查询相关的节点"""
        query_str = ev.get("query_str")
        retriever_kwargs = ev.get("retriever_kwargs", {})
        if query_str is None:
            return None
        retriever: BaseRetriever = self.index.as_retriever(**retriever_kwargs)
        result = retriever.retrieve(query_str)
        await ctx.set("retrieved_nodes", result)
        await ctx.set("query_str", query_str)
        return RetrieveEvent(retrieved_nodes=result)
    @step
    async def eval_relevance(
        self, ctx: Context, ev: RetrieveEvent
) -> RelevanceEvalEvent:
        """评估检索到的文档与查询的相关性"""
        retrieved_nodes = ev.retrieved_nodes
        query_str = await ctx.get("query_str")
        relevancy_results = []
        for node in retrieved_nodes:
            prompt = DEFAULT_RELEVANCY_PROMPT_TEMPLATE.format(context_str=node.text, query_str=query_str)
            relevancy = self.llm.complete(prompt)
            relevancy_results.append(relevancy.text.lower().strip())
        await ctx.set("relevancy_results", relevancy_results)
        return RelevanceEvalEvent(relevant_results=relevancy_results)
    @step
    async def extract_relevant_texts(
        self, ctx: Context, ev: RelevanceEvalEvent
) -> TextExtractEvent:
        """从检索到的文档中提取相关文本"""
        retrieved_nodes = await ctx.get("retrieved_nodes")
        relevancy_results = ev.relevant_results
        relevant_texts = [
            retrieved_nodes[i].text
            for i, result in enumerate(relevancy_results)
            if result == "yes"
        ]
        result = "\n".join(relevant_texts)
        return TextExtractEvent(relevant_text=result)
    @step
    async def transform_query_pipeline(
        self, ctx: Context, ev: TextExtractEvent
) -> QueryEvent:
        """使用Tavily API搜索转换后的查询"""
        relevant_text = ev.relevant_text
        relevancy_results = await ctx.get("relevancy_results")
        query_str = await ctx.get("query_str")
        # 如果发现任何文档不相关,请转换查询字符串以获得更好的搜索结果。
        if "no" in relevancy_results:
            prompt = DEFAULT_TRANSFORM_QUERY_TEMPLATE.format(query_str=query_str)
            result = self.llm.complete(prompt)
            transformed_query_str = result.text
            # 使用转换后的查询字符串进行搜索并收集结果。
            search_results = self.tavily_tool.search(
                transformed_query_str, max_results=5
            )
            search_text = "\n".join([result.text for result in search_results])
        else:
            search_text = ""
        return QueryEvent(relevant_text=relevant_text, search_text=search_text)
    @step
    async def query_result(self, ctx: Context, ev: QueryEvent) -> StopEvent:
        """获取包含相关文本的结果"""
        relevant_text = ev.relevant_text
        search_text = ev.search_text
        query_str = await ctx.get("query_str")
        documents = [Document(text=relevant_text + "\n" + search_text)]
        index = SummaryIndex.from_documents(documents)
        query_engine = index.as_query_engine()
        result = query_engine.query(query_str)
        return StopEvent(result=result)

步骤三:创建基于 LlamaCloud 的索引

 
from llama_index.indices.managed.llama_cloud import LlamaCloudIndex

index = LlamaCloudIndex(
    name="<索引名称>",
    project_name="<项目名称>",
    api_key="<LlamaCloud_API_KEY>",
    organization_id="<组织ID>",
)

# 设置工作流程集成
workflow = CorrectiveRAGWorkflow(index=index, tavily_ai_apikey="<TAVILY_API_KEY>", verbose=True, timeout=60)

# 可视化工作流
from llama_index.utils.workflow import draw_all_possible_flows

draw_all_possible_flows(CorrectiveRAGWorkflow, filename="crag_workflow.html")

步骤四:执行一个示例查询

 from IPython.display import display, Markdown

result = await workflow.run(query_str="How was Llama2 pretrained?") # 这是在所提供的论文中提到的内容。
display(Markdown(str(result)))

# 输出内容
Running step retrieve
Step retrieve produced event RetrieveEvent
Running step eval_relevance
Step eval_relevance produced event RelevanceEvalEvent
Running step extract_relevant_texts
Step extract_relevant_texts produced event TextExtractEvent
Running step transform_query_pipeline
Step transform_query_pipeline produced event QueryEvent
Running step query_result
Step query_result produced event StopEvent
Llama 2 was pretrained using self-supervised learning on 2 trillion tokens of data from publicly available online sources.
result = await workflow.run(query_str="Where does the airline flight UA 1 fly?") # this info is not in the paper
display(Markdown(str(result)))

# 输出内容
Running step retrieve
Step retrieve produced event RetrieveEvent
Running step eval_relevance
Step eval_relevance produced event RelevanceEvalEvent
Running step extract_relevant_texts
Step extract_relevant_texts produced event TextExtractEvent
Running step transform_query_pipeline
Step transform_query_pipeline produced event QueryEvent
Running step query_result
Step query_result produced event StopEvent
The airline flight UA 1 flies from San Francisco, California (SFO) to Singapore (SIN).

结论

CRAG 是一种非常有价值的技术,可提高检索增强生成的可靠性和准确性。通过结合反馈机制和后备策略,CRAG 可确保语言模型根据相关且准确的信息来生成回答。LlamaIndex 提供了一个用户友好的平台来实施 CRAG,使得开发者能够构建更强大、更值得信赖的 AI 应用。

参考资源:

https://github.com/run-llama/ll

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2172400.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

en造数据结构与算法C# 之 二叉排序树的删除

en造数据结构与算法C# 之 二叉排序树的增/查-CSDN博客 删除方法比起添加和查找就稍显复杂了 &#xff0c;所以单独拿出来写一篇 分析 输入 1.根节点&#xff0c;用于从根上查找你要删除的节点 2.需要删除的值 public Node<T> Delete(Node<T> root, T data) {if (…

数据结构及基本算法

目录 第一章 概论 第一节 引言 第二节 基本概念和常用术语 第三节 算法的描述与分析 第二章 线性表 第一节 线性表定义和基本运算个 一、线性表的逻辑定义 二、线性表的基本运算 第二节 线性表的顺序存储和基本运算的实现 一、线性表的顺序存储 二、顺序表上基本运算…

自动驾驶电车难题的康德式道德决策

摘 要 自动驾驶电车难题是检验人工智能伦理可行性的一块试金石 , 面对不同情境 , 其计算程序既要作出可决定的、 内在一致的判断决策 , 又要与人类的普遍道德常识相兼容 。 康德义务论给出了具有普遍性与一致性的理论框架。 自动驾驶电车的道德决策可视为由计算程序执行的第…

Linux学习之路 -- 线程 -- 条件变量与生产消费模型

前面我们已经提过线程互斥的相关概念&#xff0c;但是我们在前文的抢票逻辑中&#xff0c;我们其实很容易发现一个问题。那就是票可能被一直被一个人抢&#xff0c;这里我们就需要引入条件变量的概念。 目录 1、条件变量 <1>线程同步 <2>相关概念 <3>相…

pycharm2024版 搭配Anaconda创建pytorch项目

pycharm2024版 搭配Anaconda创建pytorch项目 ​ 刚接触anaconda和pytorch&#xff0c;b站看的教学视频中博主使用的是2019版的pycharm&#xff0c;所以在创建pytorch项目时有些懵&#xff0c;在多次摸索后大概明白了一些 上图中是2024版pycharm的新项目创建界面 Project venv…

计算机毕业设计 基于Python的广东旅游数据分析系统的设计与实现 Python+Django+Vue Python爬虫 附源码 讲解 文档

&#x1f34a;作者&#xff1a;计算机编程-吉哥 &#x1f34a;简介&#xff1a;专业从事JavaWeb程序开发&#xff0c;微信小程序开发&#xff0c;定制化项目、 源码、代码讲解、文档撰写、ppt制作。做自己喜欢的事&#xff0c;生活就是快乐的。 &#x1f34a;心愿&#xff1a;点…

部分监督多器官医学图像分割中的标记与未标记分布对齐|文献速递--基于多模态-半监督深度学习的病理学诊断与病灶分割

Title 题目 Labeled-to-unlabeled distribution alignment for partially-supervised multi-organ medical image segmentation 部分监督多器官医学图像分割中的标记与未标记分布对齐 01 文献速递介绍 多器官医学图像分割&#xff08;Mo-MedISeg&#xff09;是医学图像分析…

vscode开发uniapp安装插件指南

安装vuets的相关插件 首先是vue的相关插件&#xff0c;目前2024年9月应该是vue-offical 安装uniapp开发插件 uni-create-view &#xff1a;快速创建 uni-app 页面 安装uni-create-view之后修改插件拓展设置 勾选第一个选择创建视图时创建同名文件夹 选择第二个创建文件夹中生…

node.js npm 安装和安装create-next-app -windowsserver12

1、官网下载windows版本NODE.JS https://nodejs.org/dist/v20.17.0/node-v20.17.0-x64.msi 2、安装后增加两个文件夹目录node_global、node_cache npm config set prefix "C:\Program Files\nodejs\node_global" npm config set prefix "C:\Program Files\nod…

zabbix 软件监控

一、zabbix基本概念与组件和原理 1.1 zabbix概述 Zabbix 是一款可监控网络的众多参数以及服务器、虚拟机、应用程序、服务、数据库、网站、云等的健康状况和完整性。Zabbix 使用灵活的通知机制&#xff0c;允许用户为几乎任何事件配置基于电子邮件的警报。这允许对服务器问题做…

酒店智能门锁SDK接口通用转换函数对接酒店收银-SAAS本地化-未来之窗行业应用跨平台架构

一、通用转换代码 public class CyberWin_LocakAPP{// public static byte[] bufCard new byte[128 1];public static string 未来之窗_美萍_getsign(byte[] bufCard){int i;string 酒店标识, s, s2;// 先读卡string 未来之窗 Encoding.ASCII.GetString(bufCard);// edt_Ca…

回归预测|基于蜣螂优化长短期记忆网络的数据回归预测Matlab程序DBO-LSTM 多特征输入单输出 含基础LSTM

基于蜣螂优化长短期记忆网络的数据回归预测Matlab程序DBO-LSTM 多特征输入单输出 含基础LSTM 文章目录 一、基本原理DBO-LSTM 多特征输入单输出回归预测的原理和流程2.1 蜣螂优化&#xff08;DBO&#xff09;2.2 长短期记忆网络&#xff08;LSTM&#xff09;3.1 数据准备3.2 模…

ubuntu 开启root

sudo passwd root#输入以下命令来给root账户设置密码 sudo passwd -u root#启用root账户 su - root#要登录root账户 root 开启远程访问&#xff1a; 小心不要改到这里了&#xff1a;sudo nano /etc/ssh/ssh_config 而是&#xff1a;/etc/ssh/sshd_config sudo nano /etc/ssh…

C++:采用模板封装顺序表,栈,队列

1.顺序表&#xff1a; list.hpp #ifndef LIST_HPP #define LIST_HPP #include <iostream>using namespace std;template <class L>class Seqlist { private:L *ptr;L size;L len0;public:void init(L n){//堆区申请空间&#xff08;大小为n&#xff09;this->…

饿了么 ui表单 有滚动条的时候 右上角多一节

// 当没有滚动条的时候 :deep(.el-table__body-wrapper.is-scrolling-none~.el-table__fixed-right) {right: 0px !important;}// 当有滚动条的时候 默认偏移距离:deep(.el-table--scrollable-y .el-table__fixed-right) {right: 13px !important;}修改完 不显示滚动条

localhost 自动被 redirect 到 https 地址的问题

不知道为什么, 前端项目启动以后自动将 http://localhost 重定向到了 https://localhost, 我并没有添加任何 hsts 的中间件, 所以并不是这个原因, 而且代码之前是好使的, 但是由于我安装了某个证书后, 导致出现了这个问题。 在edge浏览器中输入edge://net-internals/#hsts 或是…

【React】自定义hook函数

1. 概念 本质&#xff1a;函数 2. 例子 需求&#xff1a;实现点击按钮的展示与隐藏子组件 2.1 不封装直接实现 import { useState } from react function Son() {return <div>子组件</div> }function App() {const [isShow, setIsShow] useState(true)funct…

虚拟环境默认安装到C盘的修改办法

问题&#xff1a; 创建的虚拟环境默认安装到了C盘。 将路径改成D盘下。 解决办法&#xff1a; 我是按照博客w11下载anaconda在d盘&#xff0c;新建的虚拟环境总是在c盘怎么解决_如何保证anaconda的全在e盘-CSDN博客 中的方法1解决的。 用记事本打开.condarc文档&#xff0…

前端学习笔记-JS进阶篇-01

作用域&解构&箭头函数 1、作用域 作用域&#xff08;scope&#xff09;规定了变量能够被访问的“范围”&#xff0c;离开了这个“范围”变量便不能被访问 1.1、局部作用域 局部作用域分为函数作用域和块作用域 1.1.1、函数作用域 在函数内部声明的变量只能在函数…

OpenCV 进行图像分割

介绍 图像分割是将数字图像划分互不相交的区域的过程,它可以降低图像的复杂性,从而使分析图像变得更简单。 图像分割技术 阈值法 基于边缘的分割 基于区域的分割 基于聚类的分割 基于分水岭的方法 基于人工神经网络的分割 在这里,我们选择基于聚类的分割 与分类算法不同,…