大模型RAG入门到实战基础教程(非常详细),大模型RAG入门到精通,收藏这一篇就够了!

news2024/9/29 21:30:30

写在前面

大模型(Large Language Model,LLM)的浪潮已经席卷了几乎各行业,但当涉及到专业场景或行业细分域时,通用大模型就会面临专业知识不足的问题。相对于成本昂贵的“Post Train”或“SFT”,基于RAG的技术方案往成为一种更优选择。本文从RAG架构入手,详细介绍相关技术细节,并附上一份实践案例。

LLM的问题

尽管LLM拥有令人印象深刻的能力,但是它们还面临着一些问题和挑战:

  • 幻觉问题:大模型的底层原理是基于概率,在没有答案的情况下经常会胡说八道,提供虚假信息。

  • 时效性问题:规模越大(参数越多、tokens 越多),大模型训练的成本越高。类似 ChatGPT3.5,起初训练数据是截止到 2021 年的,对于之后的事情就不知道了。而且对于一些高时效性的事情,大模型更加无能为力,比如帮我看看今天晚上有什么电影值得去看?这种任务是需要去淘票票、猫眼等网站先去获取最新电影信息的,大模型本身无法完成这个任务。

  • 数据安全:OpenAI 已经遭到过几次隐私数据的投诉,而对于企业来说,如果把自己的经营数据、合同文件等机密文件和数据上传到互联网上的大模型,那想想都可怕。既要保证安全,又要借助 AI 能力,那么最好的方式就是把数据全部放在本地,企业数据的业务计算全部在本地完成。而在线的大模型仅仅完成一个归纳的功能,甚至,LLM 都可以完全本地化部署。

解决这些挑战对于 LLMs 在各个领域的有效利用至关重要。一个有效的解决方案是集成检索增强生成(RAG)技术,该技术通过获取外部数据来响应查询来补充模型,从而确保更准确和最新的输出。主要表现方面如下:

  • 有效避免幻觉问题:虽然无法 100% 解决大模型的幻觉问题,但通过 RAG 技术能够有效的降低幻觉,在软件系统中结合大模型提供幂等的API接口就可以发挥大模型的重要作用。

  • 经济高效的处理知识&开箱即用:只需要借助信息检索和向量技术,将用户的问题和知识库进行相关性搜索结合,就能高效的提供大模型不知道的知识,同时具有权威性。

  • 数据安全:企业的数据可以得到有效的保护,通过私有化部署基于 RAG 系统开发的AI产品,能够在体验AI带来的便利性的同时,又能避免企业隐私数据的泄漏。

上图展示了 RAG 如何使 ChatGPT 能够提供超出其初始训练数据的精确答案。

什么是RAG?

检索增强生成(Retrieval Augmented Generation),简称 RAG,已经成为当前最火热的LLM应用方案。经历今年年初那一波大模型潮,想必大家对大模型的能力有了一定的了解,但是当我们将大模型应用于实际业务场景时会发现,通用的基础大模型基本无法满足我们的实际业务需求,主要有以下几方面原因:

  • 知识的局限性:模型自身的知识完全源于它的训练数据,而现有的主流大模型(ChatGPT、文心一言、通义千问…)的训练集基本都是构建于网络公开的数据,对于一些实时性的、非公开的或离线的数据是无法获取到的,这部分知识也就无从具备。

  • 幻觉问题:所有的AI模型的底层原理都是基于数学概率,其模型输出实质上是一系列数值运算,大模型也不例外,所以它有时候会一本正经地胡说八道,尤其是在大模型自身不具备某一方面的知识或不擅长的场景。而这种幻觉问题的区分是比较困难的,因为它要求使用者自身具备相应领域的知识。

  • 数据安全性:对于企业来说,数据安全至关重要,没有企业愿意承担数据泄的风险,将自身的私域数据上传第三方平台进行训练。这也导致完全依赖通用大模型自身能力的应用方案不得不在数据安全和效果方面进行取舍。

而RAG是解决上述问题的一套有效方案。

实践示例

那具体 RAG 怎么做呢?我们用一个简单的 LangChain 代码示例来展示 RAG 的使用。

环境准备

安装相关依赖

# 环境准备,安装相关依赖   pip install langchain sentence_transformers chromadb  

本地数据加载

这个例子使用了保罗·格雷厄姆(Paul Graham)的文章"What I Worked On"的文本。下载文本后,放置到"./data"目录下。Langchain 提供了很多文件加载器,包括 word、csv、PDF、GoogleDrive、Youtube等,使用方法也很简单。这里直接使用 TextLoader 加载txt文本。

from langchain.document_loaders import TextLoader      loader = TextLoader("./data/paul_graham_essay.txt")   documents = loader.load()  

文档分割(split_documents)

文档分割,借助 langchain 的字符分割器。代码中我们指定 chunk_size=500, chunk_overlap=10, 这样的意思就是我们每块的文档中是 500 个字符,chunk_overlap 表示字符重复的个数,这样可以避免语义被拆分后不完整。

# 文档分割   from langchain.text_splitter import CharacterTextSplitter      # 创建拆分器   text_splitter = CharacterTextSplitter(chunk_size=500, chunk_overlap=10)   # 拆分文档   documents = text_splitter.split_documents(documents)   

向量化(embedding)

接下来对分割后的数据进行 embedding,并写入数据库。LangChain 提供了许多嵌入模型的接口,例如 OpenAICohereHugging FaceWeaviate等,请参考 LangChain 官网。这里选用 m3e-base 作为 embedding 模型,向量数据库选用 Chroma。
python

from langchain.embeddings import HuggingFaceBgeEmbeddings   from langchain.vectorstores import Chroma      # embedding model: m3e-base   model_name = "moka-ai/m3e-base"   model_kwargs = {'device': 'cpu'}   encode_kwargs = {'normalize_embeddings': True}   embedding = HuggingFaceBgeEmbeddings(       model_name=model_name,       model_kwargs=model_kwargs,       encode_kwargs=encode_kwargs   )   

数据入库

将嵌入后的结果存储在 VectorDB 中,常见的 VectorDB包括 ChromaweaviateFAISS 等,这里使用 Chroma 来实现。ChromaLangChain 整合得很好,可以直接使用 LangChain 的接口进行操作。

# 指定 persist_directory 将会把嵌入存储到磁盘上。persist_directory = 'db'   db = Chroma.from_documents(documents, embedding, persist_directory=persist_directory)  

检索(Retrieve)

向量数据库被填充后,可以将其定义为检索器组件,该组件根据用户查询与嵌入式块之间的语义相似性获取附加上下文。

retriever = db.as_retriever()  

增强(Augment)

接下来,为了将附加上下文与提示一起使用,需要准备一个提示模板。如下所示,可以轻松地从提示模板自定义提示。

from langchain.prompts import ChatPromptTemplate      template = """You are an assistant for question-answering tasks.    Use the following pieces of retrieved context to answer the question.    If you don't know the answer, just say that you don't know.    Use three sentences maximum and keep the answer concise.   Question: {question}    Context: {context}    Answer:   """   prompt = ChatPromptTemplate.from_template(template)  

生成(Generate)

最后,可以构建一个 RAG 流水线的链,将检索器、提示模板和LLM连接在一起。一旦定义了 RAG 链,就可以调用它。本地通过 ollama 运行的 llama3 来作为 LLM 使用。如果不了解本地ollama部署模型的流程,可以参考这篇文章。

from langchain_community.chat_models import ChatOllama   from langchain.schema.runnable import RunnablePassthrough   from langchain.schema.output_parser import StrOutputParser      llm = ChatOllama(model='llama3')      rag_chain = (           {"context": retriever, "question": RunnablePassthrough()}           | prompt           | llm           | StrOutputParser()   )      query = "What did the author do growing up?"   response = rag_chain.invoke(query)   print(response) 

我这里的本地llama3环境下,输出为:

Before college, Paul Graham worked on writing and programming outside of school. He didn't write essays, but instead focused on writing short stories. His stories were not very good, having little plot and just characters with strong feelings.  

从这个输出中,可以看到已经将我们提供的文本中的相关信息检索出来,并由 LLM 总结回答我们的问题了。

RAG 与微调

上面都是介绍的 RAG ,在这里顺便对比一下微调(Fine-tuning)。在大语言模型的优化措施中, RAG 和微调都是一种重要的技术。

可以把 RAG 想象成给模型提供一本参考书,让它根据问题去查找信息然后回答问题。这种方法适用于模型需要解答具体问题或执行特定信息检索任务的情况。但 RAG 并不适合于教会模型理解广泛的领域或学习新的语言、格式或风格。

而微调更像是让学生通过广泛学习来吸收知识。当模型需要模仿特定的结构、风格或格式时,微调就显得非常有用。它可以提高未经微调的模型的表现,使交互更加高效。

微调特别适用于强化模型已有的知识、调整或定制模型的输出,以及给模型下达复杂的指令。然而,微调并不适合于向模型中添加新的知识,或者在需要快速迭代新场景的情况下使用。

RAG 和微调可以相互补充,而非相互排斥,从而在不同层次上增强模型的能力。在特定情况下,结合这两种方法可以达到模型性能的最佳状态。

还有一个形象的对比来介绍 RAG 和微调, RAG 就相当于是开卷考试,考试的时候可以翻书, 可以随时翻到某一页来查找对应的知识点去回答。微调相当于你一整个学期的学习,并在考试前进行了重点复习和记忆,考试时,凭借自己巩固的知识去答题。

总结

本文列举了LLM的问题。简单介绍了什么是 RAG ,以及 RAG 的流程。最后使用了一个简单的LangChain代码示例来展示 RAG 的使用。最后对比了 RAG 和微调的区别,方便大家选型。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?

  • 大模型是怎样获得「智能」的?

  • 用好 AI 的核心心法

  • 大模型应用业务架构

  • 大模型应用技术架构

  • 代码示例:向 GPT-3.5 灌入新知识

  • 提示工程的意义和核心思想

  • Prompt 典型构成

  • 指令调优方法论

  • 思维链和思维树

  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG

  • 搭建一个简单的 ChatPDF

  • 检索的基础概念

  • 什么是向量表示(Embeddings)

  • 向量数据库与向量检索

  • 基于向量检索的 RAG

  • 搭建 RAG 系统的扩展知识

  • 混合检索与 RAG-Fusion 简介

  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG

  • 什么是模型

  • 什么是模型训练

  • 求解器 & 损失函数简介

  • 小实验2:手写一个简单的神经网络并训练它

  • 什么是训练/预训练/微调/轻量化微调

  • Transformer结构简介

  • 轻量化微调

  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型

  • 带你了解全球大模型

  • 使用国产大模型服务

  • 搭建 OpenAI 代理

  • 热身:基于阿里云 PAI 部署 Stable Diffusion

  • 在本地计算机运行大模型

  • 大模型的私有化部署

  • 基于 vLLM 部署大模型

  • 案例:如何优雅地在阿里云私有部署开源大模型

  • 部署一套开源 LLM 项目

  • 内容安全

  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI学习资料我已经打包好,朋友们如果需要可以微信扫描下方二维码免费领取【保证100%免费

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2167017.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

css 中 ~ 符号的使用

直接看代码 <script setup> </script><template><div class"container"><p><a href"javascript:;">纪检委</a><a href"javascript:;">中介为</a><a href"javascript:;">…

Vxe UI vue 使用 vxe-form 表单实现简历模板

Vxe UI 使用 vxe-form 表单实现简历模板 查看 github <template><div><p>边框&#xff1a;<vxe-switch v-model"border"></vxe-switch>标题背景&#xff1a;<vxe-switch v-model"titleBackground"></vxe-switch&…

【GreenHills】使用“gsrec”命令生成二进制文件

【更多软件使用问题请点击亿道电子官方网站】 1、 文档目标 记录在GHS中修改工程命令&#xff0c;输出hex&#xff0c;bin文件等&#xff0c;对问题进行快速答疑&#xff0c;GHS编译器如何去使用”gsrec“生成不同的二进制文件。 2、 问题场景 客户想要生成hex&#xff0c;bi…

【每日一题】LeetCode 2306.公司命名(位运算、数组、哈希表、字符串、枚举)

【每日一题】LeetCode 2306.公司命名&#xff08;位运算、数组、哈希表、字符串、枚举&#xff09; 题目描述 给定一个字符串数组 ideas&#xff0c;表示在公司命名过程中使用的名字列表。我们需要从 ideas 中选择两个不同的名字&#xff0c;称为 ideaA 和 ideaB。然后交换 i…

深入探索Go语言反射机制:reflect包的高级用法和实战技巧

深入探索Go语言反射机制:reflect包的高级用法和实战技巧 引言reflect包的作用和重要性为什么reflect包对于Go语言开发者的重要性 reflect包的基础reflect包的导入和基本用法reflect的核心概念&#xff1a;类型&#xff08;Type&#xff09;和值&#xff08;Value&#xff09;使…

数字化TPM:从概念到实践的飞跃之旅

数字化TPM&#xff0c;顾名思义&#xff0c;是将传统TPM理念与现代信息技术深度融合的产物。它不仅仅关注设备维护的“全面性”和“预防性”&#xff0c;更强调通过大数据、云计算、物联网等先进技术&#xff0c;实现设备状态的实时监控、故障预警、智能决策及优化管理。这一转…

MyBatis 深层次 Map 自动嵌套:解锁数据映射新境界

在 Java 开发的征程中&#xff0c;MyBatis 以其强大的数据库映射功能而备受青睐。其中&#xff0c;深层次 Map 自动嵌套这一特性更是为开发者带来了诸多惊喜与便利。 前提&#xff1a;首先开启自动映射&#xff01; java和mysql命名规则不一样&#xff0c;每次在mybatis中起别…

【成功案例】解决浙江xx电子有限公司的勒索病毒

01 背景 当地时间 2020年5月18日&#xff0c;思而听网络科技有限公司&#xff08;以下简称思而听&#xff09;接到浙江xx电子有限公司&#xff08;以下简称xx电子&#xff09;的求救邮件&#xff0c;邮件中指出&#xff0c;xx电子的内部计算机收到了不明黑客的恶意勒索病毒攻击…

MySQL_聚合函数

课 程 推 荐我 的 个 人 主 页&#xff1a;&#x1f449;&#x1f449; 失心疯的个人主页 &#x1f448;&#x1f448;入 门 教 程 推 荐 &#xff1a;&#x1f449;&#x1f449; Python零基础入门教程合集 &#x1f448;&#x1f448;虚 拟 环 境 搭 建 &#xff1a;&#x1…

如何在算家云搭建text-generation-webui(文本生成)

一、text-generation-webui 简介 text-generation-webui 是一个流行的用于文本生成的 Gradio Web UI。支持 transformers、GPTQ、AWQ、EXL2、llama.cpp (GGUF)、Llama 模型。 它的特点如下&#xff0c; 3 种界面模式&#xff1a;default (two columns), notebook, chat支持多…

揭秘计算机内部奥秘:从CPU到操作系统,深入探索进程与线程的工作原理

&#x1f4c3;个人主页&#xff1a;island1314 ⛺️ 欢迎关注&#xff1a;&#x1f44d;点赞 &#x1f442;&#x1f3fd;留言 &#x1f60d;收藏 &#x1f49e; &#x1f49e; &#x1f49e; 引言 计算的需求在人类的历史中是广泛存在的&#xff0c;发展大体经历了从一般计…

视频融合共享平台LntonAIServer视频智能分析抖动检测算法和过亮过暗检测算法

LntonAIServer作为一款智能视频监控平台&#xff0c;集成了多种先进的视频质量诊断功能&#xff0c;其中包括抖动检测和过暗检测算法。这些算法对于提升视频监控系统的稳定性和图像质量具有重要意义。 以下是对抖动检测算法和过暗检测算法的应用场景及优势的详细介绍。 一、L…

电商必备的8个AI工具

让我们来谈谈电子商务的 AI 工具。 这篇文章旨在帮助你找到真正的 AI 电子商务软件&#xff0c;以协助你进行内容创建和管理、销售、客户服务自动化、营销策略审计、竞争情报等。 NSDT工具推荐&#xff1a; Three.js AI纹理开发包 - YOLO合成数据生成器 - GLTF/GLB在线编辑 - …

云和恩墨携手华为,发布zCloud数据库备份管理一体机并宣布共建数据保护生态...

为期三天的第九届华为全联接大会&#xff08;HUAWEI CONNECT 2024&#xff09;于9月19日在上海世博中心&展览馆盛大召开。20日下午&#xff0c;一场围绕“全场景数据保护&#xff0c;护航数智化时代”的专题论坛举办&#xff0c;云和恩墨受邀参加&#xff0c;并期待与华为合…

神舟笔记本安装Control Center无法打开

神舟笔记本安装Control Center无法打开 1.1 下载驱动 首先来到神舟笔记本官方&#xff0c;下载笔记本对应的驱动&#xff1a;http://archive.hasee.com/Chinese/download/computer.aspx?cid105001003001001 选择型号搜索&#xff08;例如笔者的时Z8-CT7NT&#xff09;&#…

UE4_Niagara基础实例—使用自定义模块

功能实现&#xff1a;用音频来触发粒子特效。 效果&#xff1a; 根据音量调节粒子大小 分析&#xff1a;我们想通过音量来控制Curl Noise Forc强度e的strength参数&#xff0c;但经过搜索会发现既没有这个参数&#xff0c;也没有这个模块&#xff0c;那么只能自定义这个模块。…

解决IDEA每次创建新项目时都要指定Maven仓库和Maven配置文件的问题

文章目录 0. 前言1. 打开新项目的设置2. 搜索 Maven 相关的配置3. 更改Maven主路径、配置文件、本地仓库4. 更改新项目的Maven配置后没生效 0. 前言 在 IDEA 中每次创建新项目时&#xff0c;使用的都是默认的 Maven 仓库和默认的配置文件&#xff0c;需要我们手动修改&#xf…

[uni-app]小兔鲜-03多端打包上线

小程序打包 打包上线流程 打包命令: pnpm build:mp-weixin效果预览: 把打包后的文件导入微信开发者工具 (dist\build\mp-weixin)代码上传: 点击微信开发者工具的上传按钮, 上传代码,审核发布: 登录微信公众平台, 提交审核, 审核后发布辅助工具: 有些团队会使用开发辅助工具 mi…

Redis缓存技术 基础第一篇(快速入门与安装部署)

文章目录 一、安装部署二、Redis 基础数据类型三、Redis通用命令四、String类型五、key的结构六、Hash类型七、List类型八、Set类型九、SortedSet类型 Redis是一个开源&#xff08;BSD许可&#xff09;&#xff0c;内存存储的数据结构服务器&#xff0c;可用作数据库&#xff0…

校园美食地图:Spring Boot实现的探索与分享平台

第1章 绪 论 1.1课题背景 2021年处于信息高速发展的大背景之下。在今天&#xff0c;缺少手机和电脑几乎已经成为不可能的事情&#xff0c;人们生活中已经难以离开手机和电脑。针对增加的成本管理和操作,商家非常有必要建立自己的网上校园周边美食探索及分享平台&#xff0c;这既…