揭秘RAG与大模型对接:深入探讨9大隐藏挑战

news2024/11/17 13:46:25

前一段时间,各个大模型在争斗:谁能携带更长、更大的上下文 Prompt,比如 Kimi 说 200 万字,阿里通义千问又说自己能达 1000 万字;大家都知道 Prompt 很重要,但是 RAG 和 长的上下文文本携带 是两个不同的技术方向。

RAG

先来简单介绍一下什么是 RAG (增强搜索生成),很简单:

当我们问 ChatGPT 一个比较专业的问题时,他就是开始回答轱辘话了,通用大模型在专业领域的应答能力有限;

所有这个时候,我们通过丰富 Prompt 给他介绍一下相关背景,然后大模型就有更专业的应答能力了。

这个丰富 Prompt 的过程就是 RAG —— 增强搜索生成。

实际操作会更复杂一点,但是原理就是这么一个原理,如图:

image.png

如上图,当我们问大模型:“五四运动的历史意义”,它可能泛泛而谈;此时,此时,我们引入了专业知识库(书、教材、论文文献等),然后通过提取文本形成区块,形成向量库;当我们再次提问的时候,会结合向量库形成一个更加完备的Prompt ,此时,大模型就能很好地回答我们的专业问题了!

言而总之,大数据时代,很多公司都拥有大量的专有数据,如果能基于它们创建 RAG,将显著提升大模型的特异性。

构建 RAG

本篇不是想讲 RAG 概念,而是想再深入探索一下:RAG 的构建;

通常来说,构建 RAG 的过程有:

  • 将文档分割成均匀的块,每个块都是一段原始文本;
  • 为每个块生成嵌入(例如 OpenAl 嵌入,sentence_transformer);
  • 将每个块存储在向量数据库中;
  • 从向量数据库集合中找到最相似的Top-k块;
  • 接入LLM响应合成模块;

image.png

image.png

简易 RAG:

!pip install llama-index

# My OpenAI Key
import os
os.environ['OPENAI_API_KEY'] = ""


import logging
import sys
import requests

logging.basicConfig(stream=sys.stdout, level=logging.INFO)
logging.getLogger().addHandler(logging.StreamHandler(stream=sys.stdout))

from llama_index import VectorStoreIndex, SimpleDirectoryReader
from IPython.display import Markdown, display

# download paul graham's essay
response = requests.get("https://www.dropbox.com/s/f6bmb19xdg0xedm/paul_graham_essay.txt?dl=1")
essay_txt = response.text
with open("pg_essay.txt", "w") as fp:
  fp.write(essay_txt)
  
  
  # load documents
documents = SimpleDirectoryReader(input_files=['pg_essay.txt']).load_data()

index = VectorStoreIndex.from_documents(documents)

# set Logging to DEBUG for more detailed outputs
query_engine = index.as_query_engine(similarity_top_k=2)

response = query_engine.query(
    "What did the author do growing up?",
)


print(response.source_nodes[0].node.get_text())


以上代码是一个简单的 RAG 管道,演示了加载一篇专业文章,对其进行分块,并使用 llama-index 库创建 RAG 管道。这种简易的 RAG 适合一些小而美的专业问题。

现实世界中,专业问题往往会更加复杂。

对于很多人来说,RAG 的引入、与大模型的对接是一个黑盒,任何微小参数的变动都将引起结果发生很大的变化。

image.png

广泛理解,在检索中,容易造成的问题有:

  • 低精度:检索集合中并非所有片段都相关—— 存在幻觉问题和中间丢失问题

  • 低召回率:并非所有相关片段都被检索到——缺乏足够的上下文让LLM合成答案(这也印证了扩张上下文容量的必要性)

  • 信息过时:数据冗余或已过时

这样会导致:模型编造不符合上下文语义的答案/模型没有回答问题/模型编造有害的或带有偏见的答案

接下来,一起揭秘:RAG 对接大模型的黑盒 —— 9 大问题

image.png

来源:Seven Failure Points When Engineering a Retrieval Augmented Generation System

1. 源数据本身缺少上下文

这个很好理解, 你想要问专业的历史问题,就需要建立历史知识库,而不是对接一个生物数据库;

如果源数据质量较差,例如包含冲突信息,无论我们如何构建 RAG 管道,最终也无法从提供的垃圾中生成黄金。

有一些常见的策略可以清理数据,举几个例子:

  • 去除噪声和不相关信息:包括去除特殊字符、停顿词(像“the”和“a”这样的常用词)和HTML标签。
  • 识别并纠正错误:包括拼写错误、打字错误和语法错误;拼写检查器和语言模型之类的工具可以帮助解决这些问题。
  • 去重:移除重复记录或在偏置检索过程的相似记录。

这里推荐:Unstructured.io 是一套核心库,能帮助解决数清理,值得一试。

image.png

还有一个提示的小技巧:直接告诉大模型,“如果你遇到了你不懂的知识点,请直接告诉我:不知道”;

或者你还可以在每个 chunk 里面添加上下文;

2. 关键信息出现权重较低

理论上来讲,重要的信息都要出现在提示语的头部,如果其被忽视,将导致大模型无法准确响应。

所以,RAG 应该给关键信息以足够高的权重设置,一般有两种解决方案:

  • 调整块-chunk_size 的大小
  • 调整相似度 top-k(similarity_top_k)参数

对检索过程中的效率和有效性进行设置,代码示例如下:

# contains the parameters that need to be tuned
param_dict = {"chunk_size": [256, 512, 1024], "top_k": [1, 2, 5]}

# contains parameters remaining fixed across all runs of the tuning process
fixed_param_dict = {
    "docs": documents,
    "eval_qs": eval_qs,
    "ref_response_strs": ref_response_strs,
}

def objective_function_semantic_similarity(params_dict):
    chunk_size = params_dict["chunk_size"]
    docs = params_dict["docs"]
    top_k = params_dict["top_k"]
    eval_qs = params_dict["eval_qs"]
    ref_response_strs = params_dict["ref_response_strs"]

    # build index
    index = _build_index(chunk_size, docs)

    # query engine
    query_engine = index.as_query_engine(similarity_top_k=top_k)

    # get predicted responses
    pred_response_objs = get_responses(
        eval_qs, query_engine, show_progress=True
    )

    # run evaluator
    eval_batch_runner = _get_eval_batch_runner_semantic_similarity()
    eval_results = eval_batch_runner.evaluate_responses(
        eval_qs, responses=pred_response_objs, reference=ref_response_strs
    )

    # get semantic similarity metric
    mean_score = np.array(
        [r.score for r in eval_results["semantic_similarity"]]
    ).mean()

    return RunResult(score=mean_score, params=params_dict)

param_tuner = ParamTuner(
    param_fn=objective_function_semantic_similarity,
    param_dict=param_dict,
    fixed_param_dict=fixed_param_dict,
    show_progress=True,
)

results = param_tuner.tune()

3. 重排序后缺少上下文

数据表明,将 RAG 检索结果发送给大模型前,对其重排序会显著提高 RAG 性能:

import os
from llama_index.postprocessor.cohere_rerank import CohereRerank

api_key = os.environ["COHERE_API_KEY"]
cohere_rerank = CohereRerank(api_key=api_key, top_n=2) # return top 2 nodes from reranker

query_engine = index.as_query_engine(
    similarity_top_k=10, # we can set a high top_k here to ensure maximum relevant retrieval
    node_postprocessors=[cohere_rerank], # pass the reranker to node_postprocessors
)

response = query_engine.query(
    "What did Elon Musk do?",
)

这段 LlamaIndex 代码显示了二者区别,不使用重排器导致结果不准确;

但是,通过重排可能导致上下文的缺失,所以需要更好的检索策略:

  • 对每个索引基本检索
  • 高级检索和搜索
  • 自动检索
  • 知识图谱检索器
  • 组合/层次化检索器

image.png

如果检索效果仍不强,可以考虑基于数据微调模型,加入嵌入模型,通过自定义嵌入模型帮助原始数据更准确的转为向量数据库。

4. 未提取上下文

当信息过载时,还可能出现:未提取上下文,关键信息遗漏,影响回答质量。

我们可以尝试将提示压缩,在检索步骤之后,把数据喂给 LLM 之前通过 LongLLMLingua 压缩上下文,可以使成本更低、性能更好。

from llama_index.core.query_engine import RetrieverQueryEngine
from llama_index.core.response_synthesizers import CompactAndRefine
from llama_index.postprocessor.longllmlingua import LongLLMLinguaPostprocessor
from llama_index.core import QueryBundle

node_postprocessor = LongLLMLinguaPostprocessor(
    instruction_str="Given the context, please answer the final question",
    target_token=300,
    rank_method="longllmlingua",
    additional_compress_kwargs={
        "condition_compare": True,
        "condition_in_question": "after",
        "context_budget": "+100",
        "reorder_context": "sort",  # enable document reorder
    },
)

retrieved_nodes = retriever.retrieve(query_str)
synthesizer = CompactAndRefine()

# outline steps in RetrieverQueryEngine for clarity:
# postprocess (compress), synthesize
new_retrieved_nodes = node_postprocessor.postprocess_nodes(
    retrieved_nodes, query_bundle=QueryBundle(query_str=query_str)
)

print("\n\n".join([n.get_content() for n in new_retrieved_nodes]))

response = synthesizer.synthesize(query_str, new_retrieved_nodes)

就像人写文章一样,虎头凤尾猪肚,重要的东西放在首位,对于大模型提示语也是一样:

image.png

研究表明:自注意力机制对头部信息关注更多。

5. 输出格式错误

RAG 通道需要输出 JSON 答案,我们也要保证输出格式:

  • 使用OpenAI函数调用+ JSON模式
  • 使用令牌级提示(LMQL,Guidance)
  • LlamaIndex支持与其他框架提供的输出解析模块集成,例如Guardrails和LangChain。

参见以下 LangChain 输出解析模块的示例代码:

from llama_index.core import VectorStoreIndex, SimpleDirectoryReader
from llama_index.core.output_parsers import LangchainOutputParser
from llama_index.llms.openai import OpenAI
from langchain.output_parsers import StructuredOutputParser, ResponseSchema

# load documents, build index
documents = SimpleDirectoryReader("../paul_graham_essay/data").load_data()
index = VectorStoreIndex.from_documents(documents)

# define output schema
response_schemas = [
    ResponseSchema(
        name="Education",
        description="Describes the author's educational experience/background.",
    ),
    ResponseSchema(
        name="Work",
        description="Describes the author's work experience/background.",
    ),
]

# define output parser
lc_output_parser = StructuredOutputParser.from_response_schemas(
    response_schemas
)
output_parser = LangchainOutputParser(lc_output_parser)

# Attach output parser to LLM
llm = OpenAI(output_parser=output_parser)

# obtain a structured response
query_engine = index.as_query_engine(llm=llm)
response = query_engine.query(
    "What are a few things the author did growing up?",
)
print(str(response))

Pydantic 库可提供大型语言模型结构化:

from pydantic import BaseModel
from typing import List

from llama_index.program.openai import OpenAIPydanticProgram

# Define output schema (without docstring)
class Song(BaseModel):
    title: str
    length_seconds: int

class Album(BaseModel):
    name: str
    artist: str
    songs: List[Song]

# Define openai pydantic program
prompt_template_str = """\
Generate an example album, with an artist and a list of songs. \
Using the movie {movie_name} as inspiration.\
"""
program = OpenAIPydanticProgram.from_defaults(
    output_cls=Album, prompt_template_str=prompt_template_str, verbose=True
)

# Run program to get structured output
output = program(
    movie_name="The Shining", description="Data model for an album."
)

6. 输出不清晰

还有问题是:输出的内容不清晰,导致大模型回答也不尽如人意,需要多轮对话、检索才能得到答案;

解决方案,同样可以优化检索策略:

  • 检索从小到大
  • 使用句子窗口检索
  • 递归检索

7. 输出不完整

有时候问法不一样,结果就不一样:比如问:

  • “文档A、B、C的主要观点”;
  • “文档A的观点、文档B的观点、文档C的观点、”

这两个问题结果是不一样的,后者会更加全面;改进 RAG 推理能力的一个好方法是添加一个查询理解层 —— 在实际查询向量存储之前添加查询转换。

有 4 种不同的查询转换:

  • 路由:保留初始查询,同时精确定位它所涉及的适当工具子集。然后,指定这些工具为合适的选项。
  • 查询重写:保留选定的工具,以多种方式重新构建查询,以便在同一组工具上应用。
  • 子问题:将查询分解为几个较小的问题,每个问题针对由其元数据确定的不同工具。
  • ReAct代理工具选择:基于原始查询,确定使用哪个工具,并制定在该工具上运行的具体查询。

image.png

8. 无法扩展到更大的数据量

当处理很大的专业数据库、私人数据库时,RAG 通道会出现处理很慢甚至无法处理的情况;

可以采取并行化提取管道,比如:

● 并行化文档处理

● HuggingFace TEI

● RabbitMQ 消息队列

● AWS EKS 集群

image.png

实际上,LlamaIndex 已经提供并行处理功能,文档处理速度提高 15 倍:

# load data
documents = SimpleDirectoryReader(input_dir="./data/source_files").load_data()

# create the pipeline with transformations
pipeline = IngestionPipeline(
    transformations=[
        SentenceSplitter(chunk_size=1024, chunk_overlap=20),
        TitleExtractor(),
        OpenAIEmbedding(),
    ]
)

# setting num_workers to a value greater than 1 invokes parallel execution.
nodes = pipeline.run(documents=documents, num_workers=4)

9. 速率限制

如果大模型的 API 允许配置多个密钥、一个应用轮番调用,可以采用分布式系统,将请求分散到多个 RAG 通道,即使通道有速率限制,也能通过负载均衡、动态分配请求的方式来解决这个速率限制问题。

总结

本篇提供了开发 RAG 通道 9 个痛点,并针对每个痛点都给了相应的解决思路。

RAG 是非常重要的专用检索+通用大模型的技术手段,在赋能模型、满足特定化场景中非常重要!

后续有机会,本瓜还会介绍相关内容,敬请期待。

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2052696.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

mac查看jdk安装目录

打开终端,直接输入命令: /usr/libexec/java_home终端即会输出jdk的安装目录:

8.17日学习打卡---Spring Cloud Alibaba(四)

8.17日学习打卡 目录: 8.17日学习打卡分布式流量防护什么是服务雪崩解决方案内部异常治理外部流量控制 SentinelSentinel 基本概念Sentinel 的主要特性Sentinel 是如何工作的Sentinel 与 Hystrix、resilience4j 的对比安装Sentinel控制台将应用接入Sentinel流量控制…

python使用flask实现自动根据url寻找对应目录/文件/方法,实现动态路由

例如访问:/user/index/index_config 则自动访问/user 目录里 index.py文件里的 index_config 方法 实现代码 from flask import Flask,jsonifyapp Flask(__name__)def reg_func(code, data, msg, debugNone, showFalse):return jsonify({code: code,data: data,msg: msg,time…

iPhone照片怎么导入电脑?一键导入毫不费力

随着智能手机的普及,我们越来越依赖手机来记录生活的点点滴滴。iPhone作为其中的佼佼者,其高质量的摄像头为用户捕捉了无数珍贵瞬间。然而,随着照片数量的增多,手机存储空间可能会变得捉襟见肘,此时将照片导入电脑既能…

UniAD_面向规划的自动驾驶

Planning-oriented Autonomous Driving 面向规划的自动驾驶 https://github.com/OpenDriveLab/UniAD Abstract Modern autonomous driving system is characterized as modular tasks in sequential order, i.e., perception, prediction, and planning. In order to perfor…

Python 如何创建和管理虚拟环境?

Python虚拟环境是一个独立的运行环境,能够与系统的全局Python环境相隔离。它允许你在不影响系统其他项目的前提下,为每个项目创建独立的Python环境,并在该环境中安装特定版本的包和依赖项。这在开发多个项目时非常有用,尤其是当这…

EmguCV学习笔记 VB.Net 4.1 颜色变换

版权声明:本文为博主原创文章,转载请在显著位置标明本文出处以及作者网名,未经作者允许不得用于商业目的。 教程VB.net版本请访问:EmguCV学习笔记 VB.Net 目录-CSDN博客 教程C#版本请访问:EmguCV学习笔记 C# 目录-CSD…

使用Python实现B站自动答题机器人

文章目录 1. 写在前面2. 接口分析3. 点选验证分析4. Python程序实现 【🏠作者主页】:吴秋霖 【💼作者介绍】:擅长爬虫与JS加密逆向分析!Python领域优质创作者、CSDN博客专家、阿里云博客专家、华为云享专家。一路走来长…

解密Linux中的通用块层:加速存储系统,提升系统性能

通用块层 通用块层是Linux中的一个重要组件,用于管理不同块设备的统一接口,减少不同块设备的差异带来的影响。它位于文件系统和磁盘驱动之间,类似于Java中的适配器模式,让我们无需关注底层实现,只需提供固定接口即可。…

【13】即时编译(JIT)

概念 即时编译是用来提升应用运行效率的技术。代码会先在JVM上解释执行,之后反复执行的热点代码会被即时翻译成为机器码,直接运行在底层硬件上。 分层编译模式 HotSpot包含多个即时编译器:C1、C2和Graal(Java 10,实验…

Native开发与逆向第一篇-字符串

开发 Android studio新建项目 Android studio新建一个Native C项目。 默认代码就是调用Native 方法stringFromJNI 返回一个字符串。 public native String stringFromJNI();C 代码 stringFromJNI 函数的代码,默认使用的是静态注册的方式,静态注册是函…

【数据结构】链式结构实现:二叉树

二叉树 一.快速创建一颗二叉树二.二叉树的遍历1.前序、中序、后序遍历(深度优先遍历DFS)2.层序遍历(广度优先遍历BFS) 三.二叉树节点的个数四.二叉树叶子节点的个数五.二叉树的高度六.二叉树第k层节点个数七.二叉树查找值为x的节点…

C++ //练习 17.23 编写查找邮政编码的正则表达式。一个美国邮政编码可以由五位或九位数字组成。前五位数字和后四位数字之间可以用一个短横线分隔。

C Primer(第5版) 练习 17.23 练习 17.23 编写查找邮政编码的正则表达式。一个美国邮政编码可以由五位或九位数字组成。前五位数字和后四位数字之间可以用一个短横线分隔。 环境:Linux Ubuntu(云服务器) 工具&#x…

【CTF | WEB】004、攻防世界WEB题目之simple_js

文章目录 simple_js题目描述:题目场景:解题思路 simple_js 题目描述: 小宁发现了一个网页,但却一直输不对密码。(Flag格式为 Cyberpeace{xxxxxxxxx} ) 题目场景: 解题思路 尝试了一下随便输入密码,显示如下: 按下F1…

【高阶数据结构】图

图 1. 图的基本概念2. 图的存储结构2.1 邻接矩阵2.2 邻接表2.3 邻接矩阵的实现2.4 邻接表的实现 3. 图的遍历3.1 图的广度优先遍历3.2 图的深度优先遍历 4. 最小生成树4.1 Kruskal算法4.2 Prim算法 5. 最短路径5.1 单源最短路径--Dijkstra算法5.2 单源最短路径--Bellman-Ford算…

CVE-2024-34982 LyLme Spage六零导航页 任意文件上传漏洞漏洞分析

代码分析 文件位于/lylme_spage/include/file.php。 这是用于图片文件处理的 <?php /** Description: 图片文件处理* FilePath: /lylme_spage/include/file.php* Copyright (c) 2024 by LyLme, All Rights Reserved.*/ header(Content-Type:application/json); require_o…

【Linux基础】Linux中的开发工具(3)--make/makefile和git的使用

目录 前言一&#xff0c;Linux项目自动化构建工具-make/makefile1. 背景2. 依赖关系和依赖方法3. 项目清理4. 使用方法和原理5. .PHONY的作用6. makefile中符号的使用 二&#xff0c;进度条的实现1. 理解回车换行2. 理解行缓冲区3. 版本14. 版本2 三&#xff0c;Linux上git的使…

文件包含漏洞(一)

本文仅作为学习参考使用&#xff0c;本文作者对任何使用本文进行渗透攻击破坏不负任何责任。 一&#xff0c;漏洞简述。 文件包含漏洞&#xff0c;通常发生在Web应用程序中&#xff0c;特别是那些使用用户输入动态生成内容的部分。这种漏洞允许攻击者通过提交恶意的文件路径请…

AI预测福彩3D采取888=3策略+和值012路或胆码测试8月19日新模型预测第61弹

经过60期的测试&#xff0c;当然有很多彩友也一直在观察我每天发的预测结果&#xff0c;得到了一个非常有价值的信息&#xff0c;那就是9码定位的命中率非常高&#xff0c;60期一共只错了6次&#xff0c;这给喜欢打私房菜的朋友提供了极高价值的预测结果~当然了&#xff0c;大部…

【Neo4j系列】简化Neo4j数据库操作:一个基础工具类的开发之旅

作者&#xff1a;后端小肥肠 在Neo4j系列我打算写一个Neo4j同步关系数据库、增删改查及展示的基础小系统&#xff0c;这篇文件先分享系统里面的基础工具类&#xff0c;感兴趣的可以点个关注&#xff0c;看了文章的jym有更好的方法可以分享在评论区。 创作不易&#xff0c;未经允…