入门LLMs开发 — LangChain

news2024/9/29 13:18:06

像OpenAI的GPT-4这样的大型语言模型(LLMs)已经风靡全球。它们可以自动执行各种任务,如回答问题、翻译语言、分析文本等。LLMs是第一种真正感觉像“人工智能”的机器学习类型。

然而,在将LLMs应用于实际产品时仍然存在挑战。特别是其中一个最棘手和繁琐的挑战是LLM的管理。如果我们想要构建由LLMs驱动的应用程序,我们需要管理以下几个方面:

  • 不同类型的LLM —— OpenAI、Anthropic、开源等

  • 模型版本 —— 随着我们更新到最新版本

  • 提示版本 —— 随着不断调整和改进提示

  • 模型链接 —— 可能需要结合或链接多个LLM的输入和输出以获得最终结果

要独自完成所有这些工作将需要大量工作,这就是LangChain发挥作用的地方!

介绍LangChain

LangChain使构建由LLMs驱动的应用程序变得简单。它提供了极大简化上述所有挑战的工具。使用LangChain,我们可以在统一的界面中轻松与不同类型的LLMs进行交互,管理模型版本,管理提示版本,并将LLMs连接在一起。所有这些功能都打包在易于使用的API中,因此我们可以快速在应用程序中利用LLMs。

安装

开始使用LangChain很容易。我们可以使用pip进行安装,如下所示:

pip install langchain

或者使用conda:

conda install langchain -c conda-forge

最后,如果想要所有最新的功能,可以直接从其GitHub存储库构建该库。

设置

为了充分利用LangChain,将希望将其与不同的组件,如模型提供商和API,集成在一起。可以为希望连接到的每个提供商设置环境变量。例如,对于OpenAI,可以设置OpenAI API密钥:

export OPENAI_API_KEY="..."

或者,可以在使用LangChain的Python应用程序中启动后,在代码中设置变量:

from langchain.llms import OpenAI
llm = OpenAI(openai_api_key="...")

LangChain的关键部分

LangChain之所以伟大,是因为它灵活且模块化。它将语言处理分解为单独的部分,让开发者创建自定义工作流程。以下是它的关键部分:

  • 组件和链:执行语言处理特定任务的模块。链将这些组件连接起来,形成自定义工作流程

  • 提示模板:可重复使用的提示,可以更改其中的特定值。例如,一个询问用户姓名的提示可以被个性化

  • 向量存储:通过文档的数字意义来保存和搜索信息

  • 索引和检索器:存储和查找有关模型训练数据的详细信息,以获得更好的响应

  • 输出解析器:管理和精炼模型的响应,使其更有结构

  • 示例选择器:从模型的训练数据中选择正确的例子,提高响应准确性

  • 代理:具有特定任务的唯一实例,如聊天机器人或移动应用程序

在LangChain中构建一个由LLM驱动的应用程序

LangChain的LLM类连接到不同的语言模型提供商,如OpenAI和Hugging Face。我们可以轻松使用LangChain构建一个带有提示的应用程序,并得到输出。例如:

import os
from langchain.llms import OpenAI
llm = OpenAI(model_name="gpt-3.5-turbo",
openai_api_key=os.environ["OPENAI_API_KEY"])
print(llm("Tell me a joke about pizza!"))

这可能会得到类似这样的输出:

Why did the pizza maker go to art school?
Because they wanted to get a "pizza" the creative action!
Hahahaha….. so funny Mr. gpt-3.5-turbo….

如果我们想要切换模型,只需在代码中更改一些细节即可。

在LangChain中管理LLMs的提示

LLMs需要正确的提示才能得到正确的输出。LangChain中的PromptTemplate通过使用模板生成提示,帮助生成提示。可以在保持主结构的同时轻松更改值。例如:

from langchain.llms import OpenAI
from langchain import PromptTemplate
import os
USER_INPUT = "chocolate cake"
llm = OpenAI(model_name="gpt-3.5-turbo",
openai_api_key=os.environ["OPENAI_API_KEY"])
template = """I'm interested in making {dish}. Can you provide me with a simple recipe for it, including the main ingredients and basic instructions?"""
prompt = PromptTemplate(input_variables=["dish"], template=template)
final_prompt = prompt.format(dish=USER_INPUT)
print(f"LLM Output: {llm(final_prompt)}")

这使得管理所有提示并处理动态输入变得非常容易。

在多步骤工作流中结合LLMs和提示

在LangChain中进行链接意味着将LLMs与其他元素组合用于应用程序。我们可以:

  • 使用一个LLM的输出作为另一个LLM的输入。

  • 将LLMs与模板结合使用。

  • 将LLMs与外部数据或聊天历史结合使用。

例如:

from langchain.llms import OpenAI
from langchain.chains import LLMChain, SimpleSequentialChain
from langchain import PromptTemplate
import os
llm = OpenAI(model_name="gpt-3.5-turbo",
openai_api_key=os.environ["OPENAI_API_KEY"])
# 链中的第一步
template = "Can you provide a brief summary of the movie {movie_title}? Please keep it concise."
first_prompt = PromptTemplate(input_variables=["movie_title"],
template=template)
chain_one = LLMChain(llm=llm, prompt=first_prompt)
# 链中的第二步
second_prompt = PromptTemplate(input_variables=["actor"],
template="Can you list three movies featuring {actor}?")
chain_two = LLMChain(llm=
llm, prompt=second_prompt)
# 结合第一和第二链
overall_chain = SimpleSequentialChain(chains=[chain_one, chain_two], verbose=True)
final_answer = overall_chain.run("Inception")

此示例构建了一个两步链,用于查找有关城市的旅游信息。

深入学习

LangChain是一个Python框架,让我们可以使用LLMs构建应用程序。它与各种模型连接,使与LLM和提示管理有关的一切变得简单。要了解更多信息,请查看精彩的LangChain文档,其中包含有关各种功能和示例的信息。

·  END  ·

HAPPY LIFE

4f15ffd407bc4460f670c12a346b2d57.png

本文仅供学习交流使用,如有侵权请联系作者删除

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1491557.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

2 月 27 日算法练习-动态规划

思路&#xff1a;没用完全背包优化的动态规划只能O(n^3)只能过 40% #include<bits/stdc.h> using namespace std; const int N 5e37; const int mod 1e97; string s; int len; int num[N],dp[N][N];int solve(int need,int flag){memset(num, 0, sizeof(num));memset(…

C打印内存16进制

下面是一段C代码打印16进制 void print_hex(const char *msg, void *addr, int len) {uint8_t *p (uint8_t *)addr;printf("%s ,stat:%0x8, len:%d\n", msg, addr, len);for (int i 0; i < len / 16; i) {printf("0x%08x: ", p i * 16);for (int j …

微服务:Feign篇

1.什么是Feign Feign是一种声明式、模板化的HTTP客户端&#xff0c;可用于调用HTTP API实现微服务之间的远程服务调用。它的特点是使用少量的配置定义服务客户端接口&#xff0c;可以实现简单和可重用的RPC调用。 先来看我们以前利用RestTemplate发起远程调用的代码&#xff…

30天JS挑战(第十二天)------输入序列验证

第十二天挑战(输入序列验证) 地址&#xff1a;https://javascript30.com/ 所有内容均上传至gitee&#xff0c;答案不唯一&#xff0c;仅代表本人思路 中文详解&#xff1a;https://github.com/soyaine/JavaScript30 该详解是Soyaine及其团队整理编撰的&#xff0c;是对源代…

Golang 开发实战day02 - Print Formatting

Golang 教程02 - Print&#xff0c;Formatting Strings Go语言提供了丰富的格式化字符串功能&#xff0c;用于将数据格式化为特定格式的字符串。本课程将详细介绍Go语言中Print和Formatting Strings的用法&#xff0c;并提供代码示例供大家参考。 Print 类型及使用 1.Print …

ruoyi-vue-plus4.X版本实现内嵌swagger文档(简单解决方法)

1.在common模块中添加pom依赖 <dependency><groupId>org.webjars</groupId><artifactId>swagger-ui</artifactId><version>4.15.5</version></dependency>结果如下&#xff1a; 2.在ResourcesConfig配置类的addResourceHandl…

【前端】Vite打包页面简单部署到GitHub上

创建仓库---->上传代码---->设置 注意点已经打上箭头,代码我传到的是test分支 vite打包的配置如图&#xff0c;base是仓库名称&#xff0c;docs是build后生成的打包目录。 上传到GitHub就自动部署了 访问就是第一张图里的一串地址&#xff0c;这种方式比较方便吧

「项目实践」如何实现导购推荐“千人千面”

前言 在电商背景下&#xff0c;为用户提供精准的导购推荐不仅能极大提升购物体验&#xff0c;也成为推动业务增长的关键驱动力。随着人工智能和数据科学的快速发展&#xff0c;实现“千人千面”的个性化推荐已不再是无法触及的梦想。如何在众多商品中准确捕捉用户的偏好&#…

计算机网络-第3章 数据链路层

主要内容&#xff1a;两个信道及对应的协议&#xff1a;点对点信道和广播信道&#xff0c;扩展以太网和高速以太网 本章的分组转发为局域网内的转发&#xff0c;不经过路由&#xff0c;网络层分组转为为网络与网络之间的转发&#xff0c;经过路由。局域网属于网络链路层的范围…

maven打包失败 Cannot create resource output directory[已解决]

文章目录 前言1.打开资源管理器&#xff08;ctrlAltdelete打开任务管理器&#xff09;2. 选择性能&#xff0c;再选择打开资源监视器3. 搜索“target”4. 我这里示范操作输入的perfmon&#xff0c;显示perfmon.exe占用的&#xff0c;右键结束这个进程 。5.然后重新用package打包…

什么是物联网?物联网如何工作?

物联网到底是什么&#xff1f; 物联网(Internet of Things&#xff0c;IoT)的概念最早于1999年被提出&#xff0c;官方解释为“万物相连的互联网”&#xff0c;是在互联网基础上延伸和扩展&#xff0c;将各种信息传感设备与网络结合起来而形成的一个巨大网络&#xff0c;可以实…

Crossover24新版发布!搭载Wine9提升Mac游戏体验!

2024年2月28日&#xff0c;著名的软件Crossover正式推出了2024年的首个全新版本Crossover24。Crossover 24版本的更新带来了许多功能优化和游戏优化&#xff0c;使用户能够更好地在Mac系统上运行各种软件和游戏&#xff0c;并且支持32位旧版软件的兼容运行。 Crossover24最新版…

【论文笔记】Gemma: Open Models Based on Gemini Research and Technology

Gemma 日期: March 5, 2024 平台: CSDN, 知乎 状态: Writing Gemma: Open Models Based on Gemini Research and Technology 谷歌最近放出的Gemma模型【模型名字来源于拉丁文gemma&#xff0c;意为宝石】采用的是与先前Gemini相同的架构。这次谷歌开源了两个规模的模型&…

python--产品篇--游戏-坦克1

文章目录 准备代码效果 准备 下载 代码 5# coding: utf-8# 游戏运行主程序 import sys import pygame import scene import bullet import food import tanks import home from pygame.locals import *# 开始界面显示 def show_start_interface(screen, width, height):tfo…

leetcode10正则表达式匹配

leetcode10正则表达式匹配 思路python 思路 难点1 如何理解特殊字符 ’ * ’ 的作用&#xff1f; 如何正确的利用特殊字符 ’ . ’ 和 ’ * ’ &#xff1f; * 匹配零个或多个前面的那一个元素 "a*" 可表示的字符为不同数目的 a&#xff0c;包括&#xff1a; "…

漫画手绘视频教程分享

下载地址&#xff1a; 漫画手绘教程: https://url83.ctfile.com/d/45573183-60305653-039aed?p7526 (访问密码: 7526)

Doris实战——银联商务实时数仓构建

目录 前言 一、应用场景 二、OLAP选型 三、实时数仓构建 四、实时数仓体系的建设与实践 4.1 数仓分层的合理规划 4.2 分桶分区策略的合理设置 4.3 多源数据迁移方案 4.4 全量与增量数据的同步 4.5 离线数据加工任务迁移 五、金融级数仓稳定性最佳实践 5.1 多租户资…

DQL语言学习(2024/3/5)one

1.基础查询&#xff1a; select 查询列表 from 表名&#xff1b; 查询列表可以是&#xff1a;①表中的字段、②常量值、③表达式、④函数 ①查询表中的单个字段&#xff0c;多个字段&#xff0c;所有字段 select *from 表名&#xff1b; ③查询表达式: select 100*98; ④…

pip 安装

1、下载pip安装包 pip PyPI-python 2.7的版本 2、解压安装包 在文件路径中输入cmd进行安装配置到第三步骤 3、用python setup.py install 进行命令行安装 显示如下为安装成功 4、安装成功后需要在环境变量进行配置pip的路径 C:\Python27\Scripts 5、测试pip安装是否成功

nginx 根据参数动态代理

一、问题描述 nginx反向代理配置一般都是配置静态地址&#xff0c;比如&#xff1a; server {listen 80;location / {proxy_pass http://myapp1;proxy_set_header Host $host;proxy_set_header X-Real-IP $remote_addr;}} 这个反向代理表示访问80端口跳转到 http://myapp1 …