搭建简单的chatbot并部署到HuggingFace上

news2024/9/30 1:28:48

调用ChatGPT接口完成聊天任务

下面的代码调用ChatGPT的ChatCompletion接口实现聊天任务,生成的结果如下图打印的信息所示。而且,在封装Conversation class中,message一直使用append进行追加,即每次调用ChatCompletion接口时都传入了聊天的上下文信息,这里为了节省tokens的消耗,设置了只记住最近的三轮问题。所以在问第一个问题“what is first question I asked?”,chatgpt能准确回答出第一个问的问题。

import openai
import os
from dotenv import load_dotenv

load_dotenv()
openai.api_key = os.environ.get("OPENAI_API_KEY")

class Conversation2:
    def __init__(self, prompt, num_of_round):
        self.prompt = prompt
        self.num_of_round = num_of_round
        self.messages = []
        self.messages.append({"role": "system", "content": self.prompt})

    def ask(self, question):
        try:
            self.messages.append({"role": "user", "content": question})
            response = openai.ChatCompletion.create(
                model="gpt-3.5-turbo",
                messages=self.messages,
                temperature=0.5,
                max_tokens=2048,
                top_p=1,
            )
        except Exception as e:
            print(e)
            return e

        message = response["choices"][0]["message"]["content"]
        num_of_tokens = response['usage']['total_tokens']
        self.messages.append({"role": "assistant", "content": message})

        if len(self.messages) > self.num_of_round*2 + 1:
            del self.messages[1:3]
        return message, num_of_tokens

prompt = """you are a ai assistor"""
conv2 = Conversation2(prompt, 2)
question1 = "who are you? "
print("User : %s" % question1)
answer, num_of_token = conv2.ask(question1)
print("Assistant: {%s} 消耗的token数量是 : %d" % (answer, num_of_token))

question2 = "how are you? "
print("User : %s" % question2)
answer, num_of_token = conv2.ask(question2)
print("Assistant: {%s} 消耗的token数量是 : %d" % (answer, num_of_token))

question3 = "where are you from? "
print("User : %s" % question3)
answer, num_of_token = conv2.ask(question3)
print("Assistant: {%s} 消耗的token数量是 : %d" % (answer, num_of_token))

question4 = "what is first question I asked? "
print("User : %s" % question4)
answer, num_of_token = conv2.ask(question4)
print("Assistant: {%s} 消耗的token数量是 : %d" % (answer, num_of_token))

在上面的代码中,调用接口时传入了model,messages,temperature,max_tokens,top_p几个参数,其中message的格式是:{"role":"xxx","content":"xxxx"},接口调用demo如下所示:

role总共有三类,system,assistant,user,当role=system时,表示给ChatGPT一个指令,例如指令是“你现在是一个测试专家,你需要给我设计测试用例”,给出指令后,设计具体问题时,可以用user或者assistant两个role中的任意一个即可。另外,上面的代码中还返回了消耗的tokens个数,ChatCompletion接口的response body中可直接获取到消耗的tokens个数。除了从接口返回的response中获取,还可以调用python的tiktoken库来提前计算需要消耗的tokens个数。

Tiktoken计算消耗的tokens数量

tiktoken 是一个用于文本处理的 Python 包,提供了一些对文本进行编码和解码的函数,包括 Byte Pair Encoding (BPE) 和 SentencePiece 等方法。使用这些函数可以帮助将文本转换为模型可以处理的向量表示形式。下面的代码使用tiktoken的包,将文字编码成了向量的表现形式。当然编码后,还可以通过decode进行解码,计算一段文字的tokens数量,即计算len(encode_text)即可。

import tiktoken

encoding = tiktoken.get_encoding("cl100k_base")
encode_text = encoding.encode('how are you? where are you from?')
print(encode_text)
print("the tokens is : %d" % (len(encode_text)))
print(encoding.decode(encode_text))

需要注意一点,如果调用gpt-3.5-turbo模型,那么传入的encoding名称是cl100k_base,如果使用其他模型,需要传入正确的encoding name,如下图映射所示:

Gradio简要介绍

   Gradio是一个用于构建交互式应用程序的开源Python库。使用Gradio,您可以快速创建具有自定义输入和输出接口的应用程序,使您可以在Web应用程序上运行训练的模型。Gradio支持多种输入和输出类型,例如文本,图像,音频和视频。它还提供了预处理选项,可以在模型中使用,并支持多种模型类型,包括机器学习模型和深度学习模型。

  下面的代码中调用了上面代码中封装的Conversation class中的方法,引入gradio,利用gradio提供的Blocks模块,实现一个简单的chatbot的UI。

prompt = """you are a ai assistor"""
conv2 = Conversation2(prompt, 2)

def predict(input, history=[]):
    history.append(input)
    response = conv2.ask(input)
    history.append(response)
    responses = [(u, b) for u, b in zip(history[::2], history[1::2])]
    return responses, history


with gr.Blocks(css="#chatbot{height:350px} .overflow-y-auto{height:500px}") as demo:
    chatbot = gr.Chatbot(elem_id="chatbot")
    state = gr.State([])

    with gr.Row():
        txt = gr.Textbox(show_label=False, placeholder="Enter text and press enter").style(
            container=False)

    txt.submit(predict, [txt, state], [chatbot, state])

demo.launch()

执行上面的代码,本地访问http://127.0.0.1:7086,即可开始进行对话,对话的结果如下图所示:

上面的代码中使用到了Blocks模块,实际Gradio包括interfaceblocks两大模块,这两个模块都用于创建用户界面的模块,但它们的主要功能不同。interface模块提供了一系列高级函数,用于创建自定义的、交互式的用户界面,这些函数包括gradio.Interface()gradio.Interface.load()gradio.Interface.launch()。用户可以使用这些函数创建自己的用户界面,并将其与自己的机器学习模型集成。blocks模块则提供了一组预先构建的、可重复使用的UI组件,用于创建常见的输入和输出组件,如文本输入框、下拉框、图像上传、图表和文本输出。这些组件可以直接在interface模块中使用,以快速创建交互式的用户界面。同时,用户也可以通过组合和配置这些组件来创建自己的自定义界面。

import gradio as gr
import random
import time

with gr.Blocks() as demo:
    chatbot = gr.Chatbot()
    msg = gr.Textbox()
    clear = gr.Button("Clear")

    def respond(message, chat_history):
        bot_message = random.choice(
            ["How are you?", "I love you", "I'm very hungry"])
        chat_history.append((message, bot_message))
        time.sleep(1)
        return "", chat_history

    msg.submit(respond, [msg, chatbot], [msg, chatbot])
    clear.click(lambda: None, None, chatbot, queue=False)

demo.launch()

 上面的代码是gradio官网给出了创建一个chatbot聊天机器人的code,输入信息后,chatbot会从random.choice(xxx)中随机抽取一段文字作为回答。可以看到,通过Blocks模块预定义好的Chatbot组件,可以很快实现一个聊天机器人界面 。上面的code中使用到了msg.submit(respond,[msg,chatbot],[msg,chatbot])。

  msg.submit() 函数是 gradio 模块的一个方法,用于将当前文本框中输入的文本内容 message 作为参数传递给指定的回调函数 respond() 进行处理,同时传递一个聊天记录列表 chat_history 作为输入。这里 submit() 的第二个参数 [msg, chatbot] 表示将 msg 文本框和 chatbot 对象作为参数传递给 respond() 函数,其中 msg 表示当前的输入文本框,而 chatbot 是一个 gradio 中预先定义好的聊天机器人。在 respond() 函数中,通过随机选择一条预定义好的回答来作为机器人的回复,并将用户输入的 message 和机器人回答 bot_message 保存到 chat_history 列表中,然后返回一个空字符串和更新后的聊天记录列表 chat_history。msg.submit() 函数最后一个参数 [msg, chatbot] 用于告诉 gradio 需要更新哪些组件,这里 msg 和 chatbot 都需要更新,因为它们的状态已被修改。

将应用部署到HuggingFace上

将应用部署到HuggingFace上非常简单,首先,在HuggingFace上注册账号,创建space,这里可以选择free的硬件,SDK选择Gradio.

创建namespace后,HuggingFace有默认的指导内容,指导如何部署应用。总结而言有3个步骤

步骤一 :git clone代码,space创建成功后会生成一个用space名称的clone地址,下载的代码只有一个README.md文件。

步骤二:本地编写自己的代码,主要包含app.py文件,requirement.txt文件管理python的依赖。

步骤三:git命令上传代码,上传后刷新refresh space,HuggingFace即可开始自动构建部署应用。

部署成功后入下图所示:

部署起来的界面和本地启动的界面相似,需要注意一点是聊天机器人代码中需要读取环境变量"OPENAI_API_KEY",在HuggingFace的Setting/Repository secret中可以配置该环境变量的值。配置后,restart space,即可开始和机器人聊天了。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/804108.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【C++入门到精通】C++入门 —— 类和对象(构造函数、析构函数)

目录 一、类的6个默认成员函数 二、构造函数 ⭕构造函数概念 ⭕构造函数的特点 ⭕常见构造函数的几种类型 三、析构函数 ⭕析构函数概念 ⭕析构函数的特点 ⭕常见析构函数的几种类型 四、温馨提示 前言 这一篇文章是上一篇的续集(这里有上篇链接)…

qt服务器 网络聊天室

widget.cpp #include "widget.h" #include "ui_widget.h"Widget::Widget(QWidget *parent): QWidget(parent), ui(new Ui::Widget) {ui->setupUi(this);//给服务器指针实例化空间server new QTcpServer(this); }Widget::~Widget() {delete ui; }//启动…

C++ malloc/free和new/delete

1.malloc和free malloc是开辟内存单元的库函数&#xff1b; malloc不会调用构造函数&#xff1b; free只是释放malloc所开辟的空间&#xff1b; free不会调用析构函数。 #include <iostream> using namespace std; class A { public:A(int i0) { cout << "A&…

BUG分析以及BUG定位

一般来说bug大多数存在于3个模块&#xff1a; 1、前台界面&#xff0c;包括界面的显示&#xff0c;兼容性&#xff0c;数据提交的判断&#xff0c;页面的跳转等等&#xff0c;这些bug基本都是一眼可见的&#xff0c;不太需要定位&#xff0c;当然也不排除一些特殊情况&#xf…

25.6 matlab里面的10中优化方法介绍—— 遗传算法(matlab程序)

1.简述 遗传算法&#xff08;Genetic Algorithm, GA&#xff09;是模拟达尔文生物进化论的自然选择和遗传学机理的生物进化过程的计算模型&#xff0c;是一种通过模拟自然进化过程搜索最优解&#xff08;所找到的解是全局最优解&#xff09;的方法。 参数编码、初始群体的设定…

「乐天世界」VoxEdit 创作大赛

&#x1f389;参加激动人心的乐天世界 VoxEdit 大赛&#xff01;&#x1f3a8; 召集所有体素艺术家和韩国文化爱好者&#xff01;您准备好展示自己的体素设计技能&#xff0c;用自己的独特风格为乐天世界心爱的吉祥物 Lotty 赋予生命了吗&#xff1f;让我们看看您的想象力和设计…

Acwing.91 最短Hamilton路径(动态规划)

题目 给定一张n个点的带权无向图&#xff0c;点从0~n-1标号&#xff0c;求起点0到终点n-1的最短Hamilton路径。Hamilton路径的定义是从0到n-1不重不漏地经过每个点恰好一次。 输入格式 第—行输入整数n。 接下来n行每行n个整数&#xff0c;其中第i行第j个整数表示点i到j的距…

使用go与智能合约交互之abi调用

上一篇文章&#xff0c;我们讲解了go如何使用函数选择器的方式进行智能合约的调用&#xff0c;接下来让我们一起学习一下如何使用abi的方式进行智能合约的调用 本系列课程&#xff1a; 第一节&#xff1a;使用go与智能合约交互之函数选择器调用 第二节&#xff1a;使用go与智能…

堆喷射的小例子

引自&#xff1a;https://blog.csdn.net/lixiangminghate/article/details/53413863 照着作者的意思&#xff0c;自己的测试代码&#xff1a; #include <iostream> #include <windows.h> #include <stdio.h>class base {char m_buf[8]; public:virtual int…

上传图片到腾讯云对象存储桶cos

1、首先登录腾讯云官网控制台 进入对象存储页面 2、找到跨越访问CIRS设置 配置规则 点击添加规则 填写信息 3、书写代码 这里用VUE3书写 <template><div><input type"file" change"handleFileChange" /></div> </template&g…

JS学习之ES6

一、ES简介 ES6是一个泛指&#xff0c;指EDMAJavaScript之后的版本。它是JS的语言标准。 Nodejs 简介&#xff1a;它是一个工具&#xff0c;主攻服务器&#xff0c;使得利用JS也可以完成服务器代码的编写。 安装&#xff1a; 安装Nodejs的同时&#xff0c;会附带一个npm命令…

QT--day4(定时器事件、鼠标事件、键盘事件、绘制事件、实现画板、QT实现TCP服务器)

QT实现tcpf服务器代码&#xff1a;&#xff08;源文件&#xff09; #include "widget.h" #include "ui_widget.h"Widget::Widget(QWidget *parent): QWidget(parent), ui(new Ui::Widget) {ui->setupUi(this);//给服务器指针实例化空间server new QTc…

无涯教程-jQuery - show( )方法函数

show()方法仅显示匹配元素中的每个元素(如果隐藏)。此方法还有另一种形式&#xff0c;可以控制动画的速度。 show( ) - 语法 selector.show( ); show( ) - 示例 以下是一个简单的示例&#xff0c;简单说明了此方法的用法- <html><head><title>The jQuer…

PostgreSQL-Centos7源码安装

卸载服务器上的pg13 本来是想删除原来的postgis重新源码安装就行,但是yum安装的PostgreSQL不能直接使用,会提示以下问题: 之前服务是用yum安装的,现在需要删除 -- 删除数据的postgis插件 drop extension postgis; drop extension postgis cascade;删除相关安装包 # 查询…

Ubuntu Server版 之 apache系列 常用配置 以及 隐藏 版本号 IP、Port 搭建服务案例

查看版本 旧的 用 httpd -v 新的 用 apache2 -v 配置检测 旧的 httpd -t 新的 apachectl configtest window用的apache 是 httpd -t Linux 中 apachectl configtest 主配置文件 之前旧版apache 是httpd 现在都改成 apache2 /etc/apache2/apache2.conf window中 httpd.con…

leetcode 2141. Maximum Running Time of N Computers(N台计算机的最大运行时间)

有n台电脑&#xff0c;数组batteries代表每块电池的电量。 每台电脑每次只能放入一块电池&#xff0c;然后电池可以任意交换&#xff0c;但电池不能充电。 所有电脑必须同时运行。 问n台电脑最多可以同时运行几分钟。 思路&#xff1a; 乍一看很复杂&#xff0c;复杂的电池交…

使用Feign出现空指针异常

说明&#xff1a;本文记录一次偶然出现的空指针异常&#xff0c;在微服务架构中&#xff0c;一个服务在调用另一个服务时&#xff0c;出现了空指针异常。 业务描述&#xff1a;在做订单超时功能时&#xff0c;大家都知道&#xff0c;可以使用RabbitMQ延迟队列&#xff0c;下单…

【视觉SLAM入门】4.3. (非线性最小二乘问题)优化算法实现-ceres和g2o, 图优化理论

"天道不争而善胜" 1. Ceres库1.1 名词解释1.2 具体例子1.3 C实现1. 定义代价函数2. 构建最小二乘问题3. 配置求解器&#xff0c;开始优化4. 优化完毕&#xff0c;查看结果 2. G2O(General Graphic Optimization)2.1 图优化2.2 具体例子2.3 C实现1. 定义顶点2. 定义边…

Redis实战(3)——缓存模型与缓存更新策略

1 什么是缓存? 缓存就是数据交换的缓冲区&#xff0c; 是存贮数据的临时区&#xff0c;一般读写性能较高 \textcolor{red}{是存贮数据的临时区&#xff0c;一般读写性能较高} 是存贮数据的临时区&#xff0c;一般读写性能较高。缓存可在多个场景下使用 以一次 w e b 请求为例…

论文总结《Neural Collaborative Filtering(NCF)》

原文链接 Neural Collaborative Filtering(NCF) Motivation 传统的矩阵分解通过latent features的内积来估计user与item的交互&#xff0c;而内积仅仅只能表示latent features的线性关系 contributions 引入MLP来替代latent features的内积&#xff0c;从而增加矩阵分解的非…