langchian 批次调用 prompt

news2024/11/16 15:55:29

目录

基础不使用批次

batch

批次调用


关于 langchian 额一些应用,可以查看案例:

GitHub - 5zjk5/prompt-engineering: prompt 工程项目案例

基础不使用批次

from dotenv import load_dotenv
import time
import os
from langchain_core.prompts import PromptTemplate
from langchain.chains import LLMChain

load_dotenv('key.env')

from langchain_community.llms import Tongyi
def tongyi_qwen_plus(temperature=1):
    # 通义 qwen_plus
    model = Tongyi(temperature=temperature, model_name='qwen-plus', dashscope_api_key=os.getenv('DASHSCOPE_API_KEY'))
    return model
llm = tongyi_qwen_plus()


prompt = [
    '说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
]
start = time.time()


def base_llm_chain(model, prompt, **kwargs):
    """
    https://python.langchain.com/docs/modules/model_io/prompts/composition/#string-prompt-composition
    基础链,带有变量的 prompt ,model 两个组成链
    :param model: llm
    :param prompt: prompt 其中的变量是用 {} 括起来的
    :param kwargs: prompt 中的变量
    :return:
    """
    prompt = PromptTemplate.from_template(prompt)
    chain = LLMChain(llm=model, prompt=prompt)
    res = chain.run(kwargs)
    return res
res = []
for p in prompt:
    _ = base_llm_chain(llm, p)
    res.append(_)
end = time.time()
t = end - start
print(t)



batch

Quickstart | 🦜️🔗 LangChain

from dotenv import load_dotenv
import time
import os
from langchain_core.prompts import PromptTemplate
from langchain.chains import LLMChain

load_dotenv('key.env')

from langchain_community.llms import Tongyi
def tongyi_qwen_plus(temperature=1):
    # 通义 qwen_plus
    model = Tongyi(temperature=temperature, model_name='qwen-plus', dashscope_api_key=os.getenv('DASHSCOPE_API_KEY'))
    return model
llm = tongyi_qwen_plus()


prompt = [
    '说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
]
start = time.time()
def batch_base_llm_chain_no_var(model, prompt):
    """
    基础链,批次调用
    不带变量的,传入的 prompt 是一个列表
    这种方式经过测试,没有用,测试了通义,智谱,这应该是专门为 openai 设计的接口
    需要真正批次调用使用 batch_base_llm_chain 方法,经测试有用
    """
    res = model.batch(prompt)
    return res
# res = Chain.batch_base_llm_chain(llm, '{prompt_string}', max_concurrency=16, prompt_string=prompt)
res = batch_base_llm_chain_no_var(llm, prompt)
end = time.time()
t = end - start
print(t)



跑几次都是 22s 左右,跟一条一条调用没有区别,测试了通义,智谱都一样,这应该是专门为 openai 设计的接口。

批次调用

下面这个方法才有用

from dotenv import load_dotenv
import time
import os
from langchain_core.prompts import PromptTemplate
from langchain.chains import LLMChain

load_dotenv('key.env')

from langchain_community.llms import Tongyi
def tongyi_qwen_plus(temperature=1):
    # 通义 qwen_plus
    model = Tongyi(temperature=temperature, model_name='qwen-plus', dashscope_api_key=os.getenv('DASHSCOPE_API_KEY'))
    return model
llm = tongyi_qwen_plus()


prompt = [
    '说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
]
start = time.time()


def batch_base_llm_chain(model, prompt, max_concurrency=5, **kwargs):
    """
    https://python.langchain.com/docs/modules/model_io/prompts/composition/#string-prompt-composition
    基础链,带有变量的 prompt ,与不带变量的都可以用,model 两个组成链,批次调用
    :param model: llm
    :param prompt: prompt 其中的变量是用 {} 括起来的
    :param kwargs: prompt 中的变量
    :param max_concurrency: 并发请求数
    e.g: 带变量的调用
        prompt = 'tell me a joke about {other} and {topic2}'
        other = ['bear', 'dog']
        topic2 = ['cat', 'monkey']
        Chain.batch_base_llm_chain(llm, prompt, other=other, topic2=topic2)

        传进来后的 kwargs: kwargs = {'topic1': ['bear', 'dog'], 'topic2': ['cat', 'monkey']}
        处理后 batch_list: batch_list = [{"topic1": "bears", "topic2": "cat"}, {"topic1": "dog", "topic2": "monkey"}]

    e.g: 不带变量的调用
        prompt = '{prompt_string}'
        prompt_lst = ['xxx', 'xxx'...]
        Chain.batch_base_llm_chain(llm, '{prompt_string}', max_concurrency=16, prompt_string=prompt_lst)

    :return:
    """
    prompt = PromptTemplate.from_template(prompt)
    chain = LLMChain(llm=model, prompt=prompt)

    # 确保所有列表长度相同,构造批次列表
    keys = list(kwargs.keys())
    first_list_length = len(kwargs[keys[0]])
    if all(len(kwargs[key]) == first_list_length for key in keys):
        # 使用zip函数将所有值配对
        paired_values = zip(*[kwargs[key] for key in keys])
        # 遍历配对后的值,构造新的字典列表
        batch_list = [dict(zip(keys, values)) for values in paired_values]
    else:
        print("批次对应列表长度不一致,无法转换。")
        return None

    res = chain.batch(batch_list, config={"max_concurrency": max_concurrency})
    return res
res = batch_base_llm_chain(llm, '{prompt_string}', max_concurrency=16, prompt_string=prompt)
end = time.time()
t = end - start
print(t)



快了 2-3 倍

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2053043.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【JUC】07-死锁

1. 死锁 死锁指的是两个或以上的线程在执行过程中,因争夺资源而造成的一种互相等待的现象。 // 死锁代码 public class DeadLockDemo {public static void main(String[] args) {final Object objectA new Object();final Object objectB new Object();new Threa…

【Linux 驱动】IMX6ULL gpio驱动

1. 概述 如果 pinctrl子系统将一个 PIN 复用为 GPIO 的话,那么接下来要用到 gpio 子系统了。gpio 子系统顾名思义,就是用于初始化 GPIO 并且提供相应的 API 函数,比如设置 GPIO为输入输出,设置读取 GPIO 的值等。 gpio 子系统的主…

kettle-spoon界面空白

点击spoon的connect、save、打开资源库等等,出现以下界面空白,已排查IE11的问题。 解决办法:清除kettle的配置文件,包括:Data Integration/.kettle、C:\Users\XXX.kettle等所有配置文件。

【机器学习】YOLO 关闭控制台推理日志

问题背景 使用 YOLO v8 推理时,每次推理都会在控制台输出日志,大批量推理时会把自己打印的日志给冲掉,现想关闭 YOLO v8 的推理日志。 解决方案 方案一: 在预测接口的参数列表里加上 verboseFalse 即可关闭控制台输出日志。 m…

全志 HDMI 显示亮度低

一、问题描述 全志T527在适配HDMI,让HDMI作为主显示时,出现亮度太低的问题 二、解决办法 1、调整uboot参数,显示720P画面 vi device/config/chips/t527/configs/sany_v7/uboot-board.dts 在T527中有显示相关的接口,enhance 该接口用于设置图像的亮度/对比度/饱和度/边缘…

有关软件开发中的项目管理:关键性问题解答(二)

继上篇内容《有关软件开发中的项目管理:关键性问题解答(一)》,咱们继续讲解没讲解完的项目管理问题。 瀑布式与敏捷项目管理之间存在着哪些显著的差异呢? 下面,我们将以更加详尽深入的视角来对比瀑布式与敏…

XSS游戏

目录 XSS游戏-WarmupsMa Spaghet!JefffUgandan KnucklesRicardo MilosAh Thats HawtLigmaMafiaOk, BoomerWW3 XSS游戏-Warmups Ma Spaghet! 1. 尝试注入&#xff0c;输入aaaaaaaa 2. 显示在<h2>标签内3. 输入标签&#xff0c;添加onmouseover属性值为alert(1337)&…

cloudcompare制作点云分割数据集

本文使用一个植物的数据集&#xff0c;进行标注从而能用于深度学习点云目标检测和分割任务 论文出处 Soybean-MVS: Annotated Three-Dimensional Model Dataset of Whole Growth Period Soybeans for 3D Plant Organ Segmentation 其中主要解决问题 如何使用网格mesh和点云进行…

番茄插件(Visual Assist)运行安装无反应的问题

1、运行安装无反应 直接双击运行没有反应&#xff0c;右键点击“以管理员方式运行”也没有反应。 &#xff08;只是蓝水的小圆圈转了一下后&#xff0c;就没有反应了&#xff09; 2、 则必须对程序的兼容性进行设置 3、安装程序就可以运行了 如下图&#xff1a;

【机器学习】CNN的基本架构模块

&#x1f308;个人主页: 鑫宝Code &#x1f525;热门专栏: 闲话杂谈&#xff5c; 炫酷HTML | JavaScript基础 ​&#x1f4ab;个人格言: "如无必要&#xff0c;勿增实体" 文章目录 CNN的基本架构模块1. 引言2. 卷积层2.1 基本原理2.2 卷积层的特性2.3 卷积层的超…

科三预约考试,为什么我场次排名在前,后面排名又变了

什么时候知道是否预约成功 系统确认考试预约结果的时间一般为考试前5-7个工作日&#xff0c;同时根据预约人数系统会自行判断提前1-2日或延长1-2日公示预约结果&#xff0c;学员至少考试前三天会收到预约成功短信通知。 如果预约失败了怎么办&#xff1f;会计入考试次数吗&am…

免费下载:1982-2020年全国逐月土壤湿度数据集(附下载方法)

欧洲空间局&#xff08;英文&#xff1a;European Space Agency&#xff09;&#xff0c;简称欧空局或ESA&#xff0c;成立于1975年&#xff0c;是一个致力于探索太空的政府间组织&#xff0c;拥有22个成员国&#xff0c;总部设在法国巴黎。欧洲航天局的太空飞行计划包括载人航…

【轻松拿捏】Java中ArrayList 和 LinkedList 的区别是什么?

ArrayList 和 LinkedList 的区别是什么&#xff1f; 1. ArrayList 2. LinkedList 3.总结 &#x1f388;边走、边悟&#x1f388;迟早会好 ArrayList 和 LinkedList 都是 Java 中常用的 List 接口的实现类&#xff0c;但它们在内部结构和操作性能上有所不同。 1. ArrayLis…

13. 雷达图

13. 雷达图 13.1 填充雷达图 self.add_heading("雷达图", level1)self.add_heading(填充雷达图, level2)self.add_space()# 传入个性化数据修改QuickFilledRadarChart方法的代码就好self.add_flowable(of_ex_quick_charts.QuickFilledRadarChart(width460, height18…

Threejs中的WebGPU实践(1-2)

更多精彩内容尽在 dt.sim3d.cn &#xff0c;关注公众号【sky的数孪技术】&#xff0c;技术交流、源码下载请添加VX&#xff1a;digital_twin123 此处接上文&#xff1a;Threejs中的WebGPU实践&#xff08;1-1&#xff09; 顶点着色器设置 现在我们已经对材质系统和 TSL 着色器…

《框架封装 · 优雅接口限流方案》

&#x1f4e2; 大家好&#xff0c;我是 【战神刘玉栋】&#xff0c;有10多年的研发经验&#xff0c;致力于前后端技术栈的知识沉淀和传播。 &#x1f497; &#x1f33b; CSDN入驻不久&#xff0c;希望大家多多支持&#xff0c;后续会继续提升文章质量&#xff0c;绝不滥竽充数…

权限审批也能这么人性化?没错,可道云teamOS让团队关系更和谐

作为一位企业管理者&#xff0c;我深知权限审批在企业管理中的重要性。它不仅仅是一个简单的流程&#xff0c;更是保障企业信息安全、提升团队协作效率的关键环节。 然而&#xff0c;过去我们常常面临权限审批流程繁琐、效率低下的问题&#xff0c;这不仅影响了我们的工作效率…

如何在 Odoo 16 Studio 模块中自定义视图和报告

为了有效地运营公司&#xff0c;需要定制的软件系统。Odoo 平台提供针对单个应用程序量身定制的管理解决方案和用户友好的界面&#xff0c;以便开发应用程序&#xff0c;而无需更复杂的后端功能。该平台支持使用简单的拖放功能和内置工具创建和修改更多定制的 Odoo 应用程序。企…

ubuntu如何监控Xvfb虚拟显示器

在Ubuntu中监控Xvfb显示器主要涉及到使用VNC服务器来远程访问这个环境。以下是一些基本步骤&#xff1a; 安装Xvfb和相关工具: 使用apt安装Xvfb和x11vnc&#xff0c;x11vnc是一个VNC服务器&#xff0c;可以远程访问Xvfb创建的虚拟桌面环境。 sudo apt-get install xvfb sudo ap…