LLM应用开发与落地:流式响应

news2025/1/18 1:53:34

图片

一、背景

最近智能客服产品给到一个游戏客户那边,客户那边的客服负责人体验后认为我们产品回答的准确率是还是比较高的。同时,他反馈了几个需要改进的地方,其中一个就是机器人回复慢。机器人回复慢有很多原因,也有优化方式,其中一个就是流式响应。

二、原理

我们在微信需要发送比较长一段文字的时候,我们需要花比较长的时间去写,跟你聊天的人那边的感触就是要有一段时间的等待。如果我们每写好一句话就先发送过去,对方的等待的感觉就会弱一点。推到极致就是,我们每写一个字就发送过去,这样对方的等待感是最弱的。当然,人不可能这么做 ,因为我们要检查和改动我们写的内容。但是LLM可以,因为LLM也是一个一个token生成,而且不需要检查和改动。

LLM应用要实现流式响应,其实需要三个点都支持流式响应。

首先,LLM生成响应的时候,每生成一部分要先提前返回。百度的ernie-bot-4 是支持流式响应的,只需要请求body中带上参数 stream=True。

其次,应用服务器跟LLM服务器间的数据通道需要支持流式响应,一般http接口的封装都有这个参数,比如python request包的post方法的stream参数。

最后,应用服务器返回给前端的数据通道,以及前端展示要支持流式响应。gradio的chatbot也是支持流式响应的。

三、实践

万事俱备,就等coding。

LLM和数据通道这块都只是加个参数,这个改动不大。我们来看下gradio的流式怎么实现。

如果我们要用gradio实现一个回显的demo(就是我们发送什么,服务器就返回什么),我们会这么实现

import random
import gradio as gr

def echo_response(message, history):
    return "你输入:" + message
    
gr.ChatInterface(echo_response).launch()

输出效果如下:

图片

实现一个流式响应的也很简单,区别就是把响应函数变成一个生成器,每次返回最新的消息:


import time
import gradio as gr

def echo_response(message, history):
    for i in range(len(message)):
        time.sleep(0.3)
        yield "你输入: " + message[: i+1]

gr.ChatInterface(echo_response).launch()

为了看到回显消息一个字一个字出来,故意每增加输出一个字延迟0.3秒。看的的效果就是“你输入:”后边的字一个一个显示出来。

接下来就是把LLM的流式响应参数和http通道的流式响应的参数设置为True,然后把gradio的响应函数改成生成器即可。

使用百度 ernie-bot 和 gradio 写了个demo,把全流程串起来验证了下,log中可以看到ernie-bot的分批返回:


{'id': 'as-gxfvpsrx35', 'object': 'chat.completion', 'created': 1707351331, 'sentence_id': 0, 'is_end': False, 'is_truncated': False, 'result': '我是百度公司', 'need_clear_history': False, 'finish_reason': 'normal', 'usage': {'prompt_tokens': 2, 'completion_tokens': 0, 'total_tokens': 2}}
stream result:我是百度公司
{'id': 'as-gxfvpsrx35', 'object': 'chat.completion', 'created': 1707351334, 'sentence_id': 1, 'is_end': False, 'is_truncated': False, 'result': '开发的人工智能语言模型,我的中文名是文心一言,英文名是ERNIE Bot,我可以为人类提供信息解决问题,比如回答问题,提供定义、解释', 'need_clear_history': False, 'finish_reason': 'normal', 'usage': {'prompt_tokens': 2, 'completion_tokens': 0, 'total_tokens': 2}}
stream result:开发的人工智能语言模型,我的中文名是文心一言,英文名是ERNIE Bot,我可以为人类提供信息解决问题,比如回答问题,提供定义、解释
{'id': 'as-gxfvpsrx35', 'object': 'chat.completion', 'created': 1707351336, 'sentence_id': 2, 'is_end': False, 'is_truncated': False, 'result': '和建议,也可以辅助人类进行创作产生新的内容,如文本生成与创作、文本改写等。', 'need_clear_history': False, 'finish_reason': 'normal', 'usage': {'prompt_tokens': 2, 'completion_tokens': 0, 'total_tokens': 2}}
stream result:和建议,也可以辅助人类进行创作产生新的内容,如文本生成与创作、文本改写等。
{'id': 'as-gxfvpsrx35', 'object': 'chat.completion', 'created': 1707351337, 'sentence_id': 3, 'is_end': False, 'is_truncated': False, 'result': '如果您有任何问题,请随时向我提问。', 'need_clear_history': False, 'finish_reason': 'normal', 'usage': {'prompt_tokens': 2, 'completion_tokens': 0, 'total_tokens': 2}}
stream result:如果您有任何问题,请随时向我提问。
{'id': 'as-gxfvpsrx35', 'object': 'chat.completion', 'created': 1707351337, 'sentence_id': 4, 'is_end': True, 'is_truncated': False, 'result': '', 'need_clear_history': False, 'finish_reason': 'normal', 'usage': {'prompt_tokens': 2, 'completion_tokens': 62, 'total_tokens': 64}}
stream result:

文章的最后有demo代码,感兴趣的可以自己验证下。

四、感悟

demo好写,但是发现在智能机器人项目支持这个还是有点改动,从agent framework 到具体agent的实现,整个返回的线路都要改成生成器模式。

最近感悟就是,简单的RAG也好,让人惊喜的AGI也好,都非常容易实现,但是真正要落地到企业中,非常多的坑和需要探索解决的东西,无论是准确率、响应速度、成本,以及使用人的接受度等等。这也是很大一部分人短暂接触LLM后放弃的原因。

最近跟一些在做LLM应用的人聊,大家其实真的还是需要信仰去支持调prompt,去探索新的方法。毕竟,这真的是没有现成的技术方案可以参考,就跟20年前怎么实现服务器高并发一样。那时候,C10K 问题都是会专门讨论的(C10K problem: http://www.kegel.com/c10k.html)。要做开拓者,先行者,这些都是必然会遇到的。

我正在开发一款基于自研的LLM agent framework 的智能客服产品,它具有私有知识问答,意图引导、信息收集、情绪安抚、内部系统融合、LUI与GUI 融合、人工接管、数据分析与洞察、异常监控等功能。

欢迎对prompt编写、LLM应用开发与落地、智能客服产品等等感兴趣的朋友加我微信,一起交流,共同前行。

今天是2024年的除夕了,在这里顺祝大家新年快乐!2023年大环境不好,很多人不容易,但是要相信这都是暂时的,只要保持前行,总有希望!


# LLM 流式响应demo
import gradio as gr
import random
import time
import requests
import json
from extension.llm import llm_baidu
API_KEY = "your_ai_key"
SECRET_KEY = "your_secret_key"

def baidu_llm_respond():
    url = "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions_pro?access_token=" + get_access_token()
    playload_obj = llm_baidu.LlmBaiduMsg(role="user", content="你是谁?").__dict__
    msgs = [playload_obj]
    payload = json.dumps(
    {
        "messages": msgs,
        "temperature": 0.99,
        # "system": "this is system",
        "disable_search": False,
        "enable_citation": False,
        "stream": True,
    })
    print(payload)

    headers = {
        'Content-Type': 'application/json'
    }

    response = requests.request("POST", url, headers=headers, data=payload, stream=True)
    obj_list = fetch_stream(response)
    for obj in obj_list:
        print(obj)
        print(f'stream result:{obj["result"]}')
        yield obj["result"]

def fetch_stream(response):
    for line in response.iter_lines():
        if not line.startswith(b"data: "):
            continue
        json_data = line[6:] # 只要json
        dict_obj = json.loads(json_data)
        yield dict_obj

def get_access_token():
    url = "https://aip.baidubce.com/oauth/2.0/token"
    params = {"grant_type": "client_credentials", "client_id": API_KEY, "client_secret": SECRET_KEY}
    return str(requests.post(url, params=params).json().get("access_token"))

with gr.Blocks() as demo:
    chatbot = gr.Chatbot()
    msg = gr.Textbox()
    clear = gr.Button("Clear")

    def user_input_handler(user_message, history):
        print(f"user() user_message:{user_message}")
        return "", history + [[user_message, None]]

    def respond(history):
        print(f"bot() history={history}")
        bot_message_list = baidu_llm_respond()
        history[-1][1] = ""
        for msg in bot_message_list:
            for character in msg:
                history[-1][1] += character
                time.sleep(0.2)
                yield history

    msg.submit(user_input_handler, [msg, chatbot], [msg, chatbot], queue=False).then(
        respond, chatbot, chatbot
    )
    clear.click(lambda: None, None, chatbot, queue=False)
    
demo.queue()
demo.launch()

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1442119.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

2019 年全国职业院校技能大赛高职组 “信息安全管理与评估”赛项任务书(笔记详解)

1. 网络拓扑图 2. IP 地址规划表 3. 设备初始化信息 阶段一 任务 1:网络平台搭建 1、根据网络拓扑图所示,按照 IP 地址参数表,对 DCFW 的名称、各接口IP 地址进行配置。 2、根据网络拓扑图所示,按照 IP 地址参数表,对 DCRS 的名称进行配置,创建 VLAN 并将相应接口划入 …

C#,雷卡曼数(Recamán Number)的算法与源代码

1 雷卡曼数(Recamn Number) 雷卡曼数(Recamn Number),即Recaman序列被定义如下: (1) a[0]0; (2) 如果a[m-1]-m>0并且这个值在序列中不存在,则a[m]a[m-1]-m; (3) 否则a[m]a[m-1]m; 雷卡曼序…

[UI5 常用控件] 08.Wizard,NavContainer

文章目录 前言1. Wizard1.1 基本结构1.2 属性1.2.1 Wizard:complete1.2.2 Wizard:finishButtonText1.2.3 Wizard:currentStep1.2.4 Wizard:backgroundDesign1.2.5 Wizard:enableBranching1.2.6 WizardStep:…

【Linux】vim的基本操作与配置(下)

Hello everybody!今天我们继续讲解vim的操作与配置,希望大家在看过这篇文章与上篇文章后都能够轻松上手vim! 1.补充 在上一篇文章中我们说过了,在底行模式下set nu可以显示行号。今天补充一条:set nonu可以取消行号。这两条命令大家看看就可…

LeetCode-第28题-找出字符串中第一个匹配项的下标

1.题目描述 给你两个字符串 haystack 和 needle ,请你在 haystack 字符串中找出 needle 字符串的第一个匹配项的下标(下标从 0 开始)。如果 needle 不是 haystack 的一部分,则返回 -1 。 2.样例描述 3.思路描述 可以让字符串 …

SpringBoot源码解读与原理分析(二十)IOC容器的刷新(一)

文章目录 7 IOC容器的刷新7.1 初始化前的预处理7.1.1 初始化属性配置7.1.2 初始化早期事件的集合 7.2 初始化BeanFactory7.2.1 注解驱动的refreshBeanFactory7.2.2 XML驱动的refreshBeanFactory7.2.3 获取BeanFactory 7.3 BeanFactory的预处理配置7.3.1 ApplicationContextAwar…

自然语言学习nlp 六

https://www.bilibili.com/video/BV1UG411p7zv?p118 Delta Tuning,尤其是在自然语言处理(NLP)和机器学习领域中,通常指的是对预训练模型进行微调的一种策略。这种策略不是直接更新整个预训练模型的权重,而是仅针对模型…

vue3+vite+ts 配置commit强制码提交规范配置 commitlint

配置 git 提交时的 commit 信息,统一提交 git 提交规范 安装命令: npm install -g commitizen npm i cz-customizable npm i commitlint/config-conventional commitlint/cli -D 文件配置 根路径创建文件 commitlint.config.js module.exports {// 继承的规…

【开源】基于JAVA+Vue+SpringBoot的假日旅社管理系统

目录 一、摘要1.1 项目介绍1.2 项目录屏 二、功能模块2.1 系统介绍2.2 QA 问答 三、系统展示四、核心代码4.1 查询民宿4.2 新增民宿评论4.3 查询民宿新闻4.4 新建民宿预订单4.5 查询我的民宿预订单 五、免责说明 一、摘要 1.1 项目介绍 基于JAVAVueSpringBootMySQL的假日旅社…

STL之list容器的介绍与模拟实现+适配器

STL之list容器的介绍与模拟实现适配器 1. list的介绍2. list容器的使用2.1 list的定义2.2 list iterator的使用2.3 list capacity2.4 list element access2.5 list modifiers2.6 list的迭代器失效 3. list的模拟实现3.1 架构搭建3.2 迭代器3.2.1 正向迭代器3.2.2反向迭代器适配…

鸿蒙开发(六)布局概述

迄今为止,我还没有正式提到布局的概念。但其实我之前的demo里面,已经默认使用到了一种布局,那就是线性布局(Row、Column),这也是DevEco创建项目默认页面里面默认采用的布局。那么本篇,带着大家一…

PyTorch 2.2 中文官方教程(十)

使用整体追踪分析的追踪差异 原文:pytorch.org/tutorials/beginner/hta_trace_diff_tutorial.html 译者:飞龙 协议:CC BY-NC-SA 4.0 作者: Anupam Bhatnagar 有时,用户需要识别由代码更改导致的 PyTorch 操作符和 CUDA 内核的变化…

python 动态数据 展示 ,数据是由51单片机发送过来的,温度传感器。

import tkinter as tk import randomimport seriallis[] for i in range(50):lis.append(i1) # 打开串行端口 ser serial.Serial(COM3, 9600) # 9600为波特率,根据实际情况进行调整# 初始化数据 lis [random.randint(15, 35) for _ in range(50)]def update_data…

【深度学习:Bard】我们 AI 之旅的重要下一步

【深度学习:AI 之旅】我们 AI 之旅的重要下一步 Bard简介将 AI 的优势带入我们的日常产品中帮助开发人员利用 AI 进行创新大胆负责 人工智能是我们今天正在研究的最深刻的技术。无论是帮助医生更早地发现疾病,还是使人们能够用自己的语言获取信息&#x…

2024年10 个好用的AI简历工具盘点推荐

在职场竞争激烈的今天,一份出色的简历就像是你的秘密武器,能帮你在众多候选人中脱颖而出,赢得面试宝座。随着 ChatGPT 引领的 AI 浪潮席卷而来,各式各样的 AI 简历工具如雨后春笋般涌现。面对这样的背景,神器集今天为大…

立面效果图为何要用云渲染100?渲染100邀请码1a12

建筑设计是一门艺术,而立面效果图是艺术的展现,它在设计中非常重要。 1、立面效果图的重要性 立面效果图能用来展示建筑物的风格、材质、色彩以及环境等因素,通过它,设计师可以检验项目质量,评估效果是否达到预期&…

【开源】基于JAVA+Vue+SpringBoot的课程案例资源库系统

目录 一、摘要1.1 项目介绍1.2 项目录屏 二、功能模块2.1 管理员需求分析2.2 用户需求分析 三、系统设计3.1 业务流程设计3.1.1 管理员业务流程设计3.1.2 用户业务流程设计3.1.3 首页功能模块及业务流程分析3.1.4 案例资源中心功能模块及业务流程分析3.1.5 用户信息中心功能模块…

C语言笔试题之求出二叉树的最大深度(递归解决)

实例要求: 1、给定一个二叉树 root ,返回其最大深度;2、二叉树的 最大深度 是指从根节点到最远叶子节点的最长路径上的节点数; 案例展示: 实例分析: 1、判断根节点是否为空;2、分别递归处理左…

Python环境下基于指数退化模型和LSTM自编码器的轴承剩余寿命预测

滚动轴承是机械设备中关键的零部件之一,其可靠性直接影响了设备的性能,所以对滚动轴承的剩余使用寿命(RUL)进行预测是十分必要的。目前,如何准确地对滚动轴承剩余使用寿命进行预测,仍是一个具有挑战的课题。对滚动轴承剩余寿命评估…

C语言中的数据类型-强转

强制类型转换 概念:将某种类型的数据转化我们需要的数据类型,注意强制类型转化是临时强转,不会改变本身的数据类型。 强转又分为显式强转和隐式转化 显示强转是按照我们的要求进行转化 格式:(需要转化数据类型)变量名 #inclu…