LLM 中什么是Prompts?如何使用LangChain 快速实现Prompts 一

news2024/11/23 20:06:57

LLM 中什么是Prompts?如何使用LangChain 快速实现Prompts 一

Prompt是一种基于自然语言处理的交互方式,它通过机器对自然语言的解析,实现用户与机器之间的沟通。 Prompt主要实现方式是通过建立相应的语料库和语义解析模型,来将自然语言转换为机器可识别的指令。 Prompt是一种计算机编程语言,它被广泛用于自然语言处理(NLP)和人工智能(AI)领域。

image.png

Prompt templage 是用于生成语言模型提示的预定义方案。

模板可以包括说明、少量示例以及适合给定任务的特定上下文和问题。

LangChain 提供了创建和使用提示模板的工具。

LangChain 致力于创建与模型无关的模板,以便能够轻松地跨不同语言模型重用现有模板。

通常LLM 期望提示是字符串或聊天消息列表。

PromptTemplate

用于PromptTemplate创建字符串提示的模板。

默认情况下,PromptTemplate使用 Python 的 str.format 语法进行模板化。

该模板支持任意数量的变量,包括无变量:

python复制代码 from langchain.prompts import PromptTemplate
 
 prompt_template = PromptTemplate.from_template(
     "Tell me a {adjective} joke about {content}."
 )
 prompt_template.format(adjective="funny", content="chickens")
 
 # > 'Tell me a funny joke about chickens.'
python复制代码 # 无变量
 prompt_template = PromptTemplate.from_template("Tell me a joke")
 prompt_template.format()
 # > 'Tell me a joke'

PromptTemplate 一般使用在单轮对话中。不需要历史记忆的场景.
😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓

## `ChatPromptTemplate`

ChatPromptTemplate 聊天消息列表,每条聊天消息都与内容以及附加参数相关联role。例如聊天消息可以与 AI 助手、人类或系统角色相关联。

创建一个这样的聊天提示模板:

python复制代码 from langchain_core.prompts import ChatPromptTemplate
 
 chat_template = ChatPromptTemplate.from_messages(
     [
         ("system", "You are a helpful AI bot. Your name is {name}."),
         ("human", "Hello, how are you doing?"),
         ("ai", "I'm doing well, thanks!"),
         ("human", "{user_input}"),
     ]
 )
 
 messages = chat_template.format_messages(name="Bob", user_input="What is your name?")

ChatPromptTemplate.from_messages接受各种消息表示形式。

例如除了使用上面使用的 (type, content) 的二元组表示之外,我们还可以传入 MessagePromptTemplate的实例BaseMessage

python复制代码 chat_template = ChatPromptTemplate.from_messages(
     [
        # 这里跟上面的 system 的作用是一致的
         SystemMessage(
             content=(
                 "You are a helpful assistant that re-writes the user's text to "
                 "sound more upbeat."
             )
         ),
         HumanMessagePromptTemplate.from_template("{text}"),
     ]
 )
 messages = chat_template.format_messages(text="I don't like eating tasty things")
 print(messages)

这样为我们构建聊天提示的方式提供了很大的灵活性。

LECL 方式

PromptTemplateChatPromptTemplate都实现Runnable接口。这意味着它们支持invokeainvokestreamastreambatchabatchastream_log 函数的调用。

PromptTemplate接受(提示变量的)字典并返回一个StringPromptValue. ChatPromptTemplate接受一个字典并返回一个ChatPromptValue

python复制代码 prompt_val = prompt_template.invoke({"adjective": "funny", "content": "chickens"})
 # StringPromptValue(text='Tell me a funny joke about chickens.')
 prompt_val.to_string()
 # > Tell me a funny joke about chickens.
 
 prompt_val.to_messages()
 #> [HumanMessage(content='Tell me a joke')]
 

另一个例子

python复制代码 chat_val = chat_template.invoke({"text": "i dont like eating tasty things."})
 chat_val.to_messages()
 
 #> [SystemMessage(content="You are a helpful assistant that re-writes the user's text to sound more upbeat."),HumanMessage(content='i dont like eating tasty things.')]
 
 # 转换为字符串
 chat_val.to_string()
 
 #> "System: You are a helpful assistant that re-writes the user's text to sound more upbeat.\nHuman: i dont like eating tasty things."

使用类型消息

聊天提示由消息列表组成。纯粹为了创建这些提示方便我们开发人员添加的一种的便捷方法。在此管道中,每个新元素都是最终提示中的一条新消息。

python

复制代码 from langchain_core.messages import AIMessage, HumanMessage, SystemMessage

首先,让我们使用系统消息初始化基本 ChatPromptTemplate。不一定要从系统开始,但这通常是比较好的做法。

python

复制代码 prompt = SystemMessage(content="You are a nice pirate")

然后我们可以轻松创建将其与其他消息或消息模板相结合的管道 。

当没有要格式化的变量时使用Message,当有要格式化的变量时使用MessageTemplate。还可以仅使用一个字符串(注意:这将自动推断为 HumanMessagePromptTemplate

python复制代码 new_prompt = (
     prompt + HumanMessage(content="hi") + AIMessage(content="what?") + "{input}"
 )

这样LangChain会创建 ChatPromptTemplate 类的一个实例,因此我们可以像以前一样使用它!

python复制代码 new_prompt.format_messages(input="i said hi")
 
 # 输出
 [SystemMessage(content='You are a nice pirate', additional_kwargs={}),
  HumanMessage(content='hi', additional_kwargs={}, example=False),
  AIMessage(content='what?', additional_kwargs={}, example=False),
  HumanMessage(content='i said hi', additional_kwargs={}, example=False)]

也可以在LLMChain一样在使用它。

python复制代码 from langchain.chains import LLMChain
 from langchain_openai import ChatOpenAI
 llm = ChatOpenAI()
 chain = LLMChain(prompt=new_prompt, llm=llm)
 chain.run("I said HI!")

选择器

名称描述
相似 similarity使用输入和示例之间的语义相似性来决定选择哪些示例。
MMR使用输入和示例之间的最大边际相关性来决定选择哪些示例。
length_based根据一定长度内可以容纳的数量来选择示例
Ngram使用输入和示例之间的 ngram 重叠来决定选择哪些示例。

长度选择

长度选择器根据长度选择要使用的示例。当我们担心构建的提示会超过上下文窗口的长度时,这非常有用。对于较长的输入,它将选择较少的示例来包含,而对于较短的输入,它将选择更多的示例。

python复制代码 from langchain.prompts import FewShotPromptTemplate, PromptTemplate
 from langchain.prompts.example_selector import LengthBasedExampleSelector
 
 # 制作反义词的任务示例。
 examples = [
     {"input": "happy", "output": "sad"},
     {"input": "tall", "output": "short"},
     {"input": "energetic", "output": "lethargic"},
     {"input": "sunny", "output": "gloomy"},
     {"input": "windy", "output": "calm"},
 ]
 
 example_prompt = PromptTemplate(
     input_variables=["input", "output"],
     template="Input: {input}\nOutput: {output}",
 )
 example_selector = LengthBasedExampleSelector(
     # 可供选择的示例。
     examples=examples,
     #用于格式化示例的PromptTemplate。
     example_prompt=example_prompt,
     # 格式化示例的最大长度。长度由下面的get_text_length函数来衡量。
     max_length=25,
     # 用于获取字符串长度的函数,用于确定要包含哪些示例。因为如果未指定,默认值将会提供。
     # get_text_length: Callable[[str], int] = lambda x: len(re.split("\n| ", x))
 )
 dynamic_prompt = FewShotPromptTemplate(
     # 我们提供一个示例选择器
     example_selector=example_selector,
     example_prompt=example_prompt,
     prefix="Give the antonym of every input",
     suffix="Input: {adjective}\nOutput:",
     input_variables=["adjective"],
 )
python

复制代码 print(dynamic_prompt.format(adjective="big"))
python复制代码 Give the antonym of every input
 
 Input: happy
 Output: sad
 
 Input: tall
 Output: short
 
 Input: energetic
 Output: lethargic
 
 Input: sunny
 Output: gloomy
 
 Input: windy
 Output: calm
 
 Input: big
 Output:

一个包含长输入的示例,所以它只选择了一个示例。

python复制代码 long_string = "big and huge and massive and large and gigantic and tall and much much much much much bigger than everything else"
 print(dynamic_prompt.format(adjective=long_string))
yaml复制代码 Give the antonym of every input
 
 Input: happy
 Output: sad
 
 Input: big and huge and massive and large and gigantic and tall and much much much much much bigger than everything else
 Output:

(MMR) 选择

MaxMarginalRelevanceExampleSelector根据与输入最相似的示例的组合来选择示例,同时还针对多样性进行优化。它通过查找与输入具有最大余弦相似度的嵌入示例来实现这一点,然后迭代地添加它们,同时排除它们与已选择示例的接近程度。

看个例子:
python复制代码 from langchain.prompts import FewShotPromptTemplate, PromptTemplate
 from langchain.prompts.example_selector import (
     MaxMarginalRelevanceExampleSelector,
     SemanticSimilarityExampleSelector,
 )
 from langchain_community.vectorstores import FAISS
 from langchain_openai import OpenAIEmbeddings
 
 example_prompt = PromptTemplate(
     input_variables=["input", "output"],
     template="Input: {input}\nOutput: {output}",
 )
 
 #创建反义词的假装任务的示例。
 examples = [
     {"input": "happy", "output": "sad"},
     {"input": "tall", "output": "short"},
     {"input": "energetic", "output": "lethargic"},
     {"input": "sunny", "output": "gloomy"},
     {"input": "windy", "output": "calm"},
 ]
python复制代码 example_selector = MaxMarginalRelevanceExampleSelector.from_examples(
     # 可以选择的示例列表。
     examples,
     # 用于生成嵌入的嵌入类,用于衡量语义相似性。
     OpenAIEmbeddings(),
     # 用于存储嵌入并进行相似度搜索的VectorStore类。
     FAISS,
     # 需要生成的示例数量。
     k=2,
 )
 mmr_prompt = FewShotPromptTemplate(
     #我们提供 ExampleSelector
     example_selector=example_selector,
     example_prompt=example_prompt,
     prefix="Give the antonym of every input",
     suffix="Input: {adjective}\nOutput:",
     input_variables=["adjective"],
 )

输入worried 是一种感觉类的词汇,所以应该选择愉快/悲伤的例子作为第一个。

ini

复制代码 print(mmr_prompt.format(adjective="worried"))
python复制代码 # 让我们将这与仅仅基于相似性得到的结果进行比较。请使用SemanticSimilarityExampleSelector代替MaxMarginalRelevanceExampleSelector。
 example_selector = SemanticSimilarityExampleSelector.from_examples(
     # 可供选择的示例列表。
     examples,
     #向量相似性检索
     OpenAIEmbeddings(),
     #用于存储嵌入并进行相似性搜索的 VectorStore 类。
     FAISS,
     k=2,
 )
 similar_prompt = FewShotPromptTemplate(
     # 供了一个示例选择器,而不仅仅是具体的示例。
     example_selector=example_selector,
     example_prompt=example_prompt,
     prefix="Give the antonym of every input",
     suffix="Input: {adjective}\nOutput:",
     input_variables=["adjective"],
 )
 print(similar_prompt.format(adjective="worried"))

Ngram重叠选择

NGramOverlapExampleSelector根据 ngram 重叠分数,根据与输入最相似的示例来选择示例并对其进行排序。ngram 重叠分数是 0.0 到 1.0 之间的浮点数(含 0.0 和 1.0)。

选择器允许设置阈值分数。ngram 重叠分数小于或等于阈值的示例被排除。默认情况下,阈值设置为 -1.0,因此不会排除任何示例,只会对它们重新排序。将阈值设置为 0.0 将排除与输入没有 ngram 重叠的示例。

python复制代码 from langchain.prompts import FewShotPromptTemplate, PromptTemplate
 from langchain.prompts.example_selector.ngram_overlap import NGramOverlapExampleSelector
 
 example_prompt = PromptTemplate(
     input_variables=["input", "output"],
     template="Input: {input}\nOutput: {output}",
 )
 
 # 翻译任务的示例
 examples = [
     {"input": "See Spot run.", "output": "Ver correr a Spot."},
     {"input": "My dog barks.", "output": "Mi perro ladra."},
     {"input": "Spot can run.", "output": "Spot puede correr."},
 ]
python复制代码 example_selector = NGramOverlapExampleSelector(
     # 可以选择的示例。
     examples=examples,
     # 正在使用的 PromptTemplate 用于格式化示例。
     example_prompt=example_prompt,
     # 选择器停止的阈值。默认是 -1.0
     threshold=-1.0,
 )
 dynamic_prompt = FewShotPromptTemplate(
     #  我们提供一个示例选择器。
     example_selector=example_selector,
     example_prompt=example_prompt,
     prefix="Give the Spanish translation of every input",
     suffix="Input: {sentence}\nOutput:",
     input_variables=["sentence"],
 )

对于负阈值:Selector按ngram重叠分数对示例进行排序,不排除任何示例。对于大于1.0的阈值:选择器排除所有示例,并返回一个空列表。对于等于0.0的阈值:Selector根据ngram重叠分数对示例进行排序,并且排除与输入没有ngram重叠的那些。

similarity 选择器

该对象根据与输入的相似性来选择示例。它通过查找与输入具有最大余弦相似度的嵌入示例来实现这一点。

python复制代码 from langchain.prompts import FewShotPromptTemplate, PromptTemplate
 from langchain.prompts.example_selector import SemanticSimilarityExampleSelector
 from langchain_community.vectorstores import Chroma
 from langchain_openai import OpenAIEmbeddings
 
 example_prompt = PromptTemplate(
     input_variables=["input", "output"],
     template="Input: {input}\nOutput: {output}",
 )
 
 #创建反义词的任务的示例。
 examples = [
     {"input": "happy", "output": "sad"},
     {"input": "tall", "output": "short"},
     {"input": "energetic", "output": "lethargic"},
     {"input": "sunny", "output": "gloomy"},
     {"input": "windy", "output": "calm"},
 ]
python复制代码 example_selector = SemanticSimilarityExampleSelector.from_examples(
     # 可供选择的示例列表。
     examples,
     # 用于生成嵌入的嵌入类,这些嵌入类用于衡量语义相似性。
     OpenAIEmbeddings(),
     #用于存储嵌入并进行相似度搜索的VectorStore类。
     Chroma,
     k=1,
 )
 similar_prompt = FewShotPromptTemplate(
     # 我们提供一个 ExampleSelector
     example_selector=example_selector,
     example_prompt=example_prompt,
     prefix="Give the antonym of every input",
     suffix="Input: {adjective}\nOutput:",
     input_variables=["adjective"],
 )

总结:

本篇文章我们主要介绍了一下内容:

  • 什么是 promptprompt template
  • Langchain 中 构建 prompt template 的方式以及类型:PromptTemplateChatPromptTemplate
  • 使用 langchain 构建消息类型。
  • prompt 选择器的类型,以及为什么需要选择器。

那么,我们该如何学习大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一、大模型全套的学习路线

学习大型人工智能模型,如GPT-3、BERT或任何其他先进的神经网络模型,需要系统的方法和持续的努力。既然要系统的学习大模型,那么学习路线是必不可少的,下面的这份路线能帮助你快速梳理知识,形成自己的体系。

L1级别:AI大模型时代的华丽登场

L2级别:AI大模型API应用开发工程

L3级别:大模型应用架构进阶实践

L4级别:大模型微调与私有化部署

一般掌握到第四个级别,市场上大多数岗位都是可以胜任,但要还不是天花板,天花板级别要求更加严格,对于算法和实战是非常苛刻的。建议普通人掌握到L4级别即可。

以上的AI大模型学习路线,不知道为什么发出来就有点糊,高清版可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1821710.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

对于毕业季拨穗礼上的奇怪举动与表情包,您怎么看?

对于毕业季拨穗礼上的奇怪举动与表情包,您怎么看? 拨穗代表稻穗或麦穗成熟。什么叫拨穗礼?就是把你头上学士帽的流苏从右边换到左边的动作。它象征着你已学有所成,可以展翅高飞了。 又到毕业季,各大高校的校园里弥漫着别离与期待…

评论员稿:逯伟军,年轻人为何为这样的“新中式”买单?

继老钱风、美拉德、Y2K等流行趋势之后,“新中式”毫无争议地荣登当下最为热门的穿搭趋势之列。 不管是出于对传统文化的热爱,还是仅仅被中式美学的设计所吸引,总之从明星到时尚博主,再到普通消费者,新中式风格在社交平…

Talk|新加坡国立大学贾鑫宇:适用于高自由度机器人的运动控制器

本期为TechBeat人工智能社区第600期线上Talk。 北京时间6月13日(周四)20:00,新加坡国立大学博士生—贾鑫宇的Talk已经准时在TechBeat人工智能社区开播! 他与大家分享的主题是: “适用于高自由度机器人的运动控制器”,向大家系统地介绍了如何通…

期货到底难在哪里?

第一难:使用杠杠,杠杠放大的其实是你性格、天赋和技能上的弱点,同时相应缩小你这三个方面的优点;第二难:双向交易。如果只能做多,理论上你每次交易将有50%的概率盈利。现在既能做多又能做空,只剩…

最前端|还在焦虑网页内容无法保存?一文教你轻松给网页拍照

目录 一、需求背景 二、实现策略 三、基础实现 四、功能完善 五、效果演示 六、总结 一、需求背景 网页作为一种关键的信息传递媒介,承载着丰富多样的内容形态,包括但不限于文本、图像、表格及多媒体元素。然而,网页内容的动态性和不稳定…

郑州企业资信评价资质:工程咨询单位专业资信申报材料清单

在郑州企业申请工程咨询单位专业资信评价资质时,需要准备一系列详细的申报材料。以下是根据参考文章中的相关数字和信息,清晰、分点表示和归纳的工程咨询单位专业资信申报材料清单: 一、基础材料 企业法人营业执照:提供企业法人营…

微信小程序投票系统(包含微信小程序端)

📱微信投票小程序:轻松发起,快速统计 一、引言 在数字化时代,微信作为我们日常生活中不可或缺的社交工具,不仅为我们提供了沟通交流的平台,还衍生出了许多实用的小程序。其中,微信投票小程序凭…

《现代通信原理与技术》--数字信号的最佳接收实验报告

《现代通信原理与技术》 数字信号的最佳接收实验报告 实 验:数字信号的最佳接收实验报告 目录 摘要......................................................................................................3 引言........................................…

嵌入式系统复习(一)

第一章 嵌入式系统的定义、特点 嵌入式系统是以应用为中心,以计算机技术为基础,软件硬件可裁剪,适应应用系统对功能、可靠性、成本、体积、功耗严格要求的专用计算机系统。 特点:嵌入性 专用性 计算机系统 嵌入式系统典型组成…

线代老师大PK,这四位胜出!

说实话,线代真的别乱跟老师 因为每个老师讲课适用的人群不一样,比如都说李永乐老师线代讲的好,但是我去听完发现,李永乐老师的线代讲的虽然好,但是对于零基础或者基础不好的考生来说,真的有点不友好&#…

Python开发者必备:Python多平台消息推送工具

文章目录 📖 介绍 📖🏡 演示环境 🏡📒 文章内容 📒🚀 安装📝 使用方法📝 同步发送消息📝 异步发送消息📝 使用配置文件发送消息📝 示例配置文件⚓️ 相关链接 ⚓️📖 介绍 📖 你是否需要一个强大且灵活的工具来实现多平台消息推送?那么你一定不能…

手机直播不用麦克风可以吗?一文看懂无线麦克风哪个好

市面上对于无线麦克风的需求有增无减,原因是直播、短视频行业火爆,许多人都开始加入这一行业,不过对于麦克风这类产品的疑问也越来越多。例如:无线麦克风怎么选?实不实用?手机直播不用麦克风可以吗&#xf…

服务器数据恢复—EMC Isilon存储中被误删的虚拟机数据恢复案例

服务器存储数据恢复环境: EMC Isilon S200集群存储,共三个节点,每节点配置12块SATA硬盘。 服务器存储故障: 工作人员误操作删除虚拟机,虚拟机中数据包括数据库、MP4、AS、TS类型的视频文件等。需要恢复数据的虚拟机通…

雪球产品学习,大雪球vs小雪球

part1 大雪球 一、 雪球产品的要素 1.1 定义:固收+期权的结合 具备敲入,敲出的Barrier put (看跌=认沽) 期权的买方:产品发行方 期权的卖方:雪球产品购买者 1.2 七要素 挂钩标的,锁定期,敲入价格,敲出价格,产品期限,观察频率,产品报价 1.3 挂钩标的 个股or指…

AI类人工智能产品经理的丛林法则

AI是大家都很关注的领域,然而对于大部分想要入行的同学来讲,AI的算法技术门槛相对较高,让很多空有热血但是缺少数学背景的同学望而却步。不知道什么时候,可能是“人人都是产品经理”这个论调的影响,产品经理这个岗位逐…

剖析框架代码结构的系统方法(下)

当面对Dubbo、Spring Cloud、Mybatis等开源框架时,我们可以采用一定的系统性的方法来快速把握它们的代码结构。这些系统方法包括对架构演进过程、核心执行流程、基础架构组成和可扩展性设计等维度的讨论。 在上一讲中,我们已经讨论了架构演进过程和核心执行流程这两个系统方法…

【实践功能记录6】表格列悬浮展示tooltip信息

需求描述&#xff1a; 鼠标悬浮在表格的IP字段上时&#xff0c;使用tooltip展示IP信息&#xff0c;如图&#xff1a; 1.封装根据IP展示信息的组件 请求接口获取IP信息&#xff0c;注意请求接口时防抖 <!-- 根据IP展示资产信息 --> <template><div><el-…

vue-i18n使用步骤详解(含完整操作步骤)

开篇 下面是从创建vue项目开始&#xff0c;完整使用i18n实现国际化功能的步骤&#xff0c;希望对您有所帮助。 完整步骤 创建项目 创建项目&#xff0c;并在创建项目的时候选择vuex,router 选择3.x版本 后面随意选即可&#xff0c;下面是完整的代码结构 安装vue-i18n,并封装…

队列——Acwing.829模拟队列

队列 定义 队列是一种特殊的线性表&#xff0c;遵循先进先出&#xff08;First In First Out&#xff0c;FIFO&#xff09;的原则。可以进行入队&#xff08;在队尾添加元素&#xff09;和出队&#xff08;从队首移除元素&#xff09;操作。 运用情况 任务调度&#xff1a;…

vue3和ant-design 实现前端多种验证密码规则,最全的前端验证密码规则

1、小眼睛可以显示/隐藏明文密码&#xff08;无法用input typepassword&#xff0c;用css样式实现切换明文&#xff09; 2、输入长度统计&#xff08;不是自带的&#xff0c;用div写的&#xff0c;然后定位到框内的&#xff09; 3、每输入一个字符分别验证每一项规则&#xf…