LangChain:大模型框架的深度解析与应用探索

news2024/12/24 3:34:02

       在数字化的时代浪潮中,人工智能技术正以前所未有的速度蓬勃发展,而大模型作为其中的翘楚,以生成式对话技术逐渐成为推动行业乃至整个社会进步的核心力量。再往近一点来说,在公司,不少产品都戴上了人工智能的帽子,各种高大上人工对话界面,作为一个已经工作8年的老程序员来说,一种压力感扑面而来,这使得我不得不去接受新的东西,在学习和使用Prompt、function-call和Rag后发现了一个对AI初学者极其友好的框架——Langchain,帮助我更好更快的使用大模型。

        在接下来的文章里,我将带着大家来分析和感受LangChain的发展和应用。通过深入了解,我们可以更好地利用LangChain的优势和避免它的不足之处。

LangChain总结

面向大模型的开发框架(SDK)

        LangChain是一套被设计成易于使用的软件工具集,专门为程序员提供了使用大型模型的能力。它的主要目的是帮助程序员减少开发工作量,并且将底层的复杂和重复性工作封装起来。使用LangChain,你可以简单方便地利用这些封装好的功能来开发软件。这个框架的初衷就是让你能够更加高效地开发,并且更加轻松地使用大型模型的能力。

基于软件工程思维,要更关注接口变更

        使用这套框架确实需要一定的代码能力,因为这个框架的设计本质是基于软件工程思路的,对编程基础有一定要求。另外,大模型技术和辅助工具正处于一个初级阶段,发展时间并不长,大模型诞生也就好一年多的时间。因此,在学习这些工具时,我们最好不要过于专注于每个接口的具体用法,例如像前端框架vue对于这个功能怎么实现,这类工具不能这么学,因为大模型技术目前还处于初级阶段,未来仍会有很多变化。我们更应该关注这些框架的设计思路和模块结构,因为它们的模块大部分可能不会改变,只是接口可能会有一些细微的调整。更应该关注它的设计思路在你的实际工作中能否得到参考,通过这些思考我到底是直接拿它来用,还是参考它来设计,还是完全做一个更新的设计,这些都会在实际开发中大有裨益。

 AGI 时代软件工程的一个探索和原型,迭代速度快

        LangChain的迭代速度明显快于Semantic Kernel,几乎每天都有一个新版本发布。LangChain的发展是一个学习和探索的过程,在早期存在许多不成熟的接口,以及一些设计过于复杂的函数或流程。但是通过这么多次的迭代,几乎所有的问题都得到了修复,可以说它的成熟度是与日俱增的,目前来看,LangChain已经具备了一定的可用性的。一些模块在设计上非常成熟,具备拿来就用的,甚至在生产机使用时没问题的,而有些模块设计的还是很粗糙,例如第三方功能实现的一些模块,不建议使用的。还有一些模块在设计上没有问题,但在实际工作中可能并不是必需的,完全取决于你的需求。接下来我将带着大家来分析和感受。

与其他开发框架的对比

数据来源:GitHub Star History

        Github的平行树的对比,LangChain的欢迎程度明显还是遥遥领先的,之所以会形成这个情况,是因为LangChain最早期设计是比较简单易懂,不像Semantic-kernel是有一套宏大的理念导致整个抽象程度太高,导致它的可读性或感受上很晦涩。所以Langchain比较方便大家知道怎么用,拿来就知道好不好用,都能很直接的评估出来。

LangChain 的核心组件

模型 I/O 封装

  • LLMs:大语言模型,因为它对模型、检索都做了统一的封装,调用llama或其他大模型实现本地的Rag会更加简单。
  • Chat Models:一般基于 LLMs,但按对话结构重新封装,
  • PromptTemple:提示词模板,对提示词模板的操作给以了封装。
  • OutputParser:解析输出,模型的输出结果,给了不同的解析工具,这个是Semantic-kernel所没有的,也是它方便使用的功能之一。

数据连接封装

  • Document Loaders:如何加载各种格式文档,集结了各种格式文件的加载器。
  • Document Transformers:封装了对文档的常用操作工具,如:split, filter, translate, extract metadata, etc
  • Text Embedding Models:对不同的embedding模型做了统一的封装,不管你底层是什么,基本都是统一的接口都可以去使用。然后对各种各样的三方的向量数据库做了封装,也就是说你不用太关心,背后向量数据库到底是啥,通过Langchain的统一的接口去调用。文本向量化表示,用于检索等操作。
  • Verctorstores: (面向检索的)向量的存储,就是将向量数据库的封装后转成一个检索器
  • Retrievers: 向量的检索,一个用于检索的工具。

记忆封装

  • Memory:这里不是物理内存,从文本的角度,可以理解为“上文”、“历史记录”或者说“记忆力”的管理。对上下文的管理做了一层封装或赋予了一组工具。

架构封装

        最核心的是在架构上做了一层封装,包括了调用一系列组合的pipeline。

  • Chain:实现一个功能或者一系列顺序功能组合,pipeline顺序调用。
  • Agent:智能体架构的封装,根据用户输入,自动规划执行步骤,自动选择每步需要的工具,最终完成用户指定的功能
    • Tools:调用外部功能的函数,例如:调 google 搜索、文件 I/O、Linux Shell 等等
    • Toolkits:操作某软件的一组工具集,例如:操作 DB、操作 Gmail 等等

Callbacks

      他每个模块内部到底发生了什么,它都给了你一些Callback事件。具体可参考官网,里面有更为详细的讲解。

        可参考官网:Callbacks | 🦜️🔗 LangChain

主要用途

解决Chain的问题

        以一个Pipline (一种既定流程去调用不同组件) 的维度去看。核心解决的是一个查询(Query)进来后,可以将问题填充到提示词(Prompt)模板中去,然后通过Prompt去调用大语言模型(LLM)输出的模型结果,其结果(Json / List / Text / Code ...)可以通过Output Parser进行解析提取核心数据放到下个输入环节中,以填充新的Prompt模板,如此反复,不断提炼输出内容。

        在前面套流程之上还赋予了上下文管理(Memory)能力和连接外部数据(Retriever)能力及工具。连接外部数据最典型的方式就是以向量数据进行向量检索。核心利用了这几大模块,解决了和大模型打交道常见的功能,然后将这些功能做了统一的封装。做了统一封装的好处就是语言模型我可以换不同的模型的同时还不用该接口,整个代码不用变我就把这个大预言模型就给换了。

构成智能体(Agent)

        智能体就是经过自己反复思考,选择不同的工具,通过多步(调用工具 -> 拿到工具结果 ->分析结果 -> 选择工具)处理一个复杂任务,这样一个流程作为大模型诞生后的一个新的模式。而里面一个反复思考都是在调用大模型(LLM),这个调用流程其实就是用上面的Chain来进行封装组成的,而LangChain也对智能体架构也做了一个标准化的封装。

相关文档(以 Python 版为例)

        官方文档还是比较清晰的,Docs是LangChain自己提供的核心组件所有得文档和例子;Integrations是所有跟三方的服务和组件的连接,比如你要连接各种各种的语言模型Llama,或不同的向量数据等都在这里面可以找到;Use cases则是Langchain封装好的流程和功能,例如怎么实现Rag、怎么实现Sql查数据库、怎么实现checkout和怎么实现摘要这类的例子;更深一点比如说怎么做debugging、调试部署、评估这类相关的文档里没有的技巧和方法都在Guides里边。

主要几大核心文档

  • 功能模块:主要模块有Model I/O、Retrieval、Agents、Chains、Memory、Callbacks这类

 直通车:https://python.langchain.com/docs/get_started/introduction

  • API 文档:针对以上更细的内容,如每个函数、每个类,参数、响应的接口文档描述。

直通车:https://api.python.langchain.com/en/latest/langchain_api_reference.html

  • 三方组件集成:提供程序具有独立的langchain-{provider}包,用于改进版本控制、依赖关系管理和测试。

直通车:https://python.langchain.com/docs/integrations/platforms/

  • 官方应用案例:包含常见对接技术和例子

直通车:https://python.langchain.com/docs/use_cases

  • 调试部署等指导:https://python.langchain.com/docs/guides/debugging

小试牛刀

安装最新LangChain依赖

pip install --upgrade langchain
pip install --upgrade langchain-openai # v0.1.0新增的底包
pip install qianfan #安装文言千帆模型Api

OpenAI vs Langchain

        接下来会用以下这两个例子对比Langchain的优势。

多轮对话实现

OpenAI

        原生的Openai通过一个json数组,每一轮都一个任务一个content来去表示一个对话上下文。


# 加载 .env 文件到环境变量
from dotenv import load_dotenv, find_dotenv
from openai import OpenAI

_ = load_dotenv(find_dotenv())

# 初始化 OpenAI 服务。会自动从环境变量加载 OPENAI_API_KEY 和 OPENAI_BASE_URL
client = OpenAI()

# 消息格式
messages = [
    {
        "role": "system",
        "content": "你是AI助手小京。"
    },
    {
        "role": "human",
        "content": "我是Csdn的一名博主,我叫Muller"
    },
    {
        "role": "assistant",
        "content": "欢迎!"
    },
    {
        "role": "user",
        "content": "我是谁?"
    },

]

# 调用 GPT-3.5
chat_completion = client.chat.completions.create(
    model="gpt-3.5-turbo",
    messages=messages
)

# 输出回复
print(chat_completion.choices[0].message.content)
# 您自己告诉我您是CSDN的博主Muller。
Langchian

        那么在langchain的框架下,可以通过它定义的结构来去表示一个对话。然后呢我们还是把这个对话通过invoke接口来传给大模型。

# 加载 .env 到环境变量
from dotenv import load_dotenv, find_dotenv
_ = load_dotenv(find_dotenv())

from langchain_openai import ChatOpenAI

llm = ChatOpenAI()  # 默认是gpt-3.5-turbo

from langchain.schema import (
    AIMessage, #等价于OpenAI接口中的assistant role
    HumanMessage, #等价于OpenAI接口中的user role
    SystemMessage #等价于OpenAI接口中的system role
)
messages = [
    SystemMessage(content="从现在开始你叫AI助手-小京。"),
    HumanMessage(content="我是Csdn的一名博主,我叫Muller"),
    AIMessage(content="欢迎!"),
    HumanMessage(content="我是谁")
]
response = llm.invoke(messages)
print(response.content)

#你是Muller,一名CSDN的博主。

Langchains实现会更加的简洁,且可以轻松实现一个Pipline。

国产模型调用

OpenAi
import json
import requests
import os

# 通过鉴权接口获取 access token
def get_access_token():
    """
    使用 AK,SK 生成鉴权签名(Access Token)
    :return: access_token,或是None(如果错误)
    """
    url = "https://aip.baidubce.com/oauth/2.0/token"

    params = {
        "grant_type": "client_credentials",
        "client_id": "ERNIE_CLIENT_ID",
        "client_secret": "ERNIE_CLIENT_SECRET"
    }
    return str(requests.post(url, params=params).json().get("access_token"))


# 调用文心4.0对话接口
def get_completion_ernie(prompt):

    url = "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions_pro?access_token=" + get_access_token()
    payload = json.dumps({
        "messages": [
            {
                "role": "user",
                "content": prompt
            }
        ]
    })

    headers = {'Content-Type': 'application/json'}

    response = requests.request(
        "POST", url, headers=headers, data=payload).json()

    return response["result"]

class RAG_Bot:
    def __init__(self,  llm_api, n_results=2):
        self.llm_api = llm_api
        self.n_results = n_results

    def chat(self, user_query):

        # 3. 调用 LLM
        response = self.llm_api(user_query)
        return response

# 创建一个RAG机器人
new_bot = RAG_Bot(
    llm_api=get_completion_ernie
)


user_query = "你是谁?"

response = new_bot.chat(user_query)

print(response)
Langchain
# 其它模型分装在 langchain_community 底包中
from langchain_community.chat_models import QianfanChatEndpoint
from langchain_core.messages import HumanMessage
import os

llm = QianfanChatEndpoint(
    qianfan_ak=os.getenv('ERNIE_CLIENT_ID'),
    qianfan_sk=os.getenv('ERNIE_CLIENT_SECRET')
)

messages = [
    HumanMessage(content="你是谁")
]

ret = llm.invoke(messages)

print(ret.content)

通过模型封装,实现不同模型的统一接口调用

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1665925.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

如何更好地使用Kafka? - 运行监控篇

要确保Kafka在使用过程中的稳定性,需要从kafka在业务中的使用周期进行依次保障。主要可以分为:事先预防(通过规范的使用、开发,预防问题产生)、运行时监控(保障集群稳定,出问题能及时发现&#…

模拟无线音频传输实验

zkhengyang进数字音频系统研究开发交流答疑群(课题组) 一个单管调频无线话筒模块一台调频收音机,全部自己动手制作调试,无线话筒模块可以接话筒mic,人讲话,收音机接受到语音信号, 或者直接输入模拟音频音乐信号&#…

CentOS 8.5 安装配置 squid 6.9 代理服务器 Windows10 系统设置http代理 详细教程

1 下载地址: 官网下载 2 通过xftp等方式上传到服务器 #查看环境 [rootlocalhost ~]# cat /etc/redhat-release CentOS Stream release 8 [rootlocalhost ~]# uname -a Linux localhost.localdomain 4.18.0-552.el8.x86_64 #1 SMP Sun Apr 7 19:39:51 UTC 2024 x86_64 x86_6…

24寸2K显示器 - HKC G24H2

🔥🖥️ 嘿,大家好!今天,我要给大家介绍一款超棒的显示器——HKCG24H2!这款显示器可是个全能选手,无论你是工作狂人还是游戏迷,它都能满足你的需求! 😎&#x…

AWTK 开源串口屏开发(18) - 用 C 语言自定义命令

AWTK-HMI 内置了不少模型,利用这些模型开发应用程序,不需要编写代码即可实现常见的应用。但是,有时候我们需要自定义一些命令,以实现一些特殊的功能。 本文档介绍如何使用 C 语言自定义命令。 1. 实现 hmi_model_cmd_t 接口 1.1…

wordpress主题 7B2 PRO主题5.4.2免授权直接安装

内容目录 一、详细介绍二、效果展示1.部分代码2.效果图展示 三、学习资料下载 一、详细介绍 WordPress 资讯、资源、社交、商城、圈子、导航等多功能商用主题:B2 PRO 其设计风格专业且时尚,功能十分强大,包括多栏布局、自定义页面、强大的主…

250 基于matlab的5种时频分析方法((短时傅里叶变换)STFT

基于matlab的5种时频分析方法((短时傅里叶变换)STFT,Gabor展开和小波变换,Wigner-Ville(WVD),伪Wigner-Ville分布(PWVD),平滑伪Wigner-Ville分布(SPWVD),每条程序都有详细的说明,设置仿真信号进行时频输出。…

Netty核心组件介绍

Netty是一款用于创建高性能网络应用程序的高级框架。Netty的核心组件如下: Channel回调Future事件和ChannelHander Channel channel是Java NIO的一个基本构造。可以把Channel看作是传入或传出数据的载体。它可以被打开或关闭,连接或断开连接。 回调 …

JVM---垃圾回收

目录 一、C/C的内存管理 二、Java的内存管理 三、垃圾回收的对比 四、Java的内存管理和自动垃圾回收 五、方法区的回收 手动触发回收 六、堆回收 如何判断堆上的对象可以回收? 引用计数法 可达性分析算法 五种对象引用 软引用 软引用的使用场景-缓存 弱引用 虚…

window.location.href的介绍及使用

目录 介绍: 获取当前 URL 设置新的 URL URL 的组成部分 解析 URL 参数 什么是片段标识符的URL? 使用new URL: 输出的部分解释: 假如我们需要获取路径上的最后一级的路径名: 介绍: window.location.h…

vscode默认终端设置为cmd的方法

vscode默认终端是powershell,执行某些命令时会提示权限等问题,如果更习惯使用cmd终端的话,可以将默认终端配置为cmd。 方法一: 方法二: 如果你想更改默认的终端,可以通过以下步骤操作: 打开 VSCode。使用…

【QT学习】补充:qt使用已经存在的类

1.右键项目--》添加现有文件 注意:不是添加新文件!!! 2.添加配置

Ubuntu24安装搜狗输入法,修复闪屏问题

下载deb安装包:搜狗输入法linux-首页 安装:sudo dpkg -i 1.deb 搜狗输入法linux-安装指导 重启,但是完成后闪烁。按以下步骤更改桌面配置。 sudo gedit /etc/gdm3/custom.conf 取消WaylandEnable的注释即可

【免费Java系列】大家好 ,今天是学习面向对象高级的第十二天点赞收藏关注,持续更新作品 !

这是java进阶课面向对象第一天的课程可以坐传送去学习http://t.csdnimg.cn/Lq3io day10-多线程 一、多线程常用方法 下面我们演示一下getName()、setName(String name)、currentThread()、sleep(long time)这些方法的使用效果。 public class MyThread extends Thread{publi…

sklearn之线性回归——以上证红利指数为例

文章目录 线性回归概念使用sklearn实现上证中立指数预测内置数据集的加载与处理 外部数据集的加载和处理数据内容数据加载和处理 开始预测分割数据集导入线性回归模型查看线性回归模型的系数绘制预测结果预测效果评估 最终代码 线性回归 线性回归(Linear Regressio…

Linux·基本指令

从本节开始将新开一个关于Linux操作系统的板块,其实Linux也没什么太神秘的,就是一个操作系统(OS)嘛,跟Windows操作系统是一个概念,只不过Windows中的大部分操作都是用光标点击来进行人机交互,但是Linux是通过输入命令行…

AIGC、LLM 加持下的地图特征笔记内容生产系统架构设计

文章目录 背景构建自动化内容生产平台系统架构设计架构详细设计流程介绍笔记来源笔记抓取干预 笔记 AIGC 赋能笔记 Rule 改写笔记特征库构建 附录Bash Cron 定时任务Golang 与 Pyhon AIGC 实践 小结 背景 在大模型的浪潮下,ChatGPT、Sora、Gemini、文言一心 等新技…

LoRaWAN入门

1.文档资料 飞书云文档 (feishu.cn) G43室内LoRaWAN网关 - doc.alinkwise.com > LoRaWAN网关(基站) > G4x > G43室内LoRaWAN网关 2.简介 LoRa: 远距离无线电(long rang radio), 它最大特点就是在同样的功耗条件下比其他无线方式…

《构建合同中台系统:实现合同管理的集成化与智能化》

随着企业数字化转型的深入推进,合同管理作为企业日常运营的重要组成部分,也在不断演进与升级。传统的合同管理方式已经无法满足企业对于效率、合规性和智能化的需求,因此,构建合同中台系统成为了当下企业迫切需要解决的问题。 **1…

Vue中进行粘贴板粘贴数据(图片、文字等)

在页面中如果需要进行粘贴数据,那么就要读取系统粘贴板clipboard,通过此Api来进行粘贴板数据的操作。 目录: 一.封装相关函数1.示例代码:2.代码解释: 二.页面中进行粘贴1.代码示例:2.代码解释: 三.运行结果…