【书生3.3】LMDeploy 量化部署进阶实践

news2024/12/26 9:23:13

LMDeploy 量化部署进阶实践

    • 1、环境准备
      • 1.1 创建模型软链接
      • 1.2 LMdeploy部署验证
    • 2、api接口服务
      • 2.1 启动API服务器
        • 2.1.1 以命令行形式连接API服务器
        • 2.1.2 以Gradio网页形式连接API服务器
      • 2.2 LMDeploy Lite
        • 2.2.1 不设置kv
        • 2.2.2 设置kv
        • 2.2.3 设置**在线** kv cache int4/int8 量化
      • 2.3 W4A16 模型量化和部署
      • 2.4 kv缓存+W4A16 量化同时设置
    • 3 LMDeploy与InternVL2
    • 4. LMDeploy之FastAPI与Function call
      • 4.1 API开发
      • 4.2 Function call

1、环境准备

【30% A100的开发机】

conda create -n lmdeploy  python=3.10 -y
conda activate lmdeploy
conda install pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=12.1 -c pytorch -c nvidia -y
pip install timm==1.0.8 openai==1.40.3 lmdeploy[all]==0.5.3

环境安装卡半天?

在这里插入图片描述

安装比较慢,耐心等待

1.1 创建模型软链接

mkdir /root/models
ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm2_5-7b-chat /root/models
ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm2_5-1_8b-chat /root/models
ln -s /root/share/new_models/OpenGVLab/InternVL2-26B /root/models

在这里插入图片描述

1.2 LMdeploy部署验证

lmdeploy chat /root/models/internlm2_5-7b-chat

在这里插入图片描述

GPU使用率

在这里插入图片描述

2、api接口服务

如果gpu内存不足,有可能是1.2的服务没有正常关闭,找到kill,释放gpu,如下图:

在这里插入图片描述

2.1 启动API服务器

conda activate lmdeploy
lmdeploy serve api_server \
    /root/models/internlm2_5-7b-chat \
    --model-format hf \
    --quant-policy 0 \
    --server-name 0.0.0.0 \
    --server-port 23333 \
    --tp 1

命令解释:

  1. lmdeploy serve api_server:这个命令用于启动API服务器。
  2. /root/models/internlm2_5-7b-chat:这是模型的路径。
  3. --model-format hf:这个参数指定了模型的格式。hf代表“Hugging Face”格式。
  4. --quant-policy 0:这个参数指定了量化策略。
  5. --server-name 0.0.0.0:这个参数指定了服务器的名称。在这里,0.0.0.0是一个特殊的IP地址,它表示所有网络接口。
  6. --server-port 23333:这个参数指定了服务器的端口号。在这里,23333是服务器将监听的端口号。
  7. --tp 1:这个参数表示并行数量(GPU数量)。
 # 本地cmd:
 ssh -CNg -L 23333:127.0.0.1:23333 root@ssh.intern-ai.org.cn -p 你的ssh端口号

然后打开浏览器,访问http://127.0.0.1:23333看到如下界面即代表部署成功。

在这里插入图片描述

2.1.1 以命令行形式连接API服务器
conda activate lmdeploy
lmdeploy serve api_client http://localhost:23333

在这里插入图片描述

2.1.2 以Gradio网页形式连接API服务器
# 开发机
lmdeploy serve gradio http://localhost:23333 \
    --server-name 0.0.0.0 \
    --server-port 6006
    
# 本地
ssh -CNg -L 6006:127.0.0.1:6006 root@ssh.intern-ai.org.cn -p <你的ssh端口号>

打开浏览器,访问地址http://127.0.0.1:6006,然后就可以与模型尽情对话了。

在这里插入图片描述

2.2 LMDeploy Lite

随着模型变得越来越大,我们需要一些大模型压缩技术来降低模型部署的成本,并提升模型的推理性能。LMDeploy 提供了权重量化和 k/v cache两种策略。

kv cache是一种缓存技术,通过存储键值对的形式来复用计算结果,以达到提高性能和降低内存消耗的目的。在大规模训练和推理中,kv cache可以显著减少重复计算量,从而提升模型的推理速度。理想情况下,kv cache全部存储于显存,以加快访存速度。

模型在运行时,占用的显存可大致分为三部分:模型参数本身占用的显存、kv cache占用的显存,以及中间运算结果占用的显存。LMDeploy的kv cache管理器可以通过设置--cache-max-entry-count参数,控制kv缓存占用剩余显存的最大比例。默认的比例为0.8。

2.2.1 不设置kv

参见1.2

在这里插入图片描述

2.2.2 设置kv
lmdeploy chat /root/models/internlm2_5-7b-chat --cache-max-entry-count 0.4

在这里插入图片描述

2.2.3 设置在线 kv cache int4/int8 量化
lmdeploy serve api_server \
    /root/models/internlm2_5-7b-chat \
    --model-format hf \
    --quant-policy 4 \
    --cache-max-entry-count 0.4\
    --server-name 0.0.0.0 \
    --server-port 23333 \
    --tp 1

2.3 W4A16 模型量化和部署

准确说,模型量化是一种优化技术,旨在减少机器学习模型的大小并提高其推理速度。量化通过将模型的权重和激活从高精度(如16位浮点数)转换为低精度(如8位整数、4位整数、甚至二值网络)来实现。

那么标题中的W4A16又是什么意思呢?

  • W4:这通常表示权重量化为4位整数(int4)。这意味着模型中的权重参数将从它们原始的浮点表示(例如FP32、BF16或FP16,Internlm2.5精度为BF16)转换为4位的整数表示。这样做可以显著减少模型的大小。
  • A16:这表示激活(或输入/输出)仍然保持在16位浮点数(例如FP16或BF16)。激活是在神经网络中传播的数据,通常在每层运算之后产生。

因此,W4A16的量化配置意味着:

  • 权重被量化为4位整数。
  • 激活保持为16位浮点数。
lmdeploy lite auto_awq \
   /root/models/internlm2_5-1_8b-chat \
  --calib-dataset 'ptb' \
  --calib-samples 128 \
  --calib-seqlen 2048 \
  --w-bits 4 \
  --w-group-size 128 \
  --batch-size 1 \
  --search-scale False \
  --work-dir /root/models/internlm2_5-1_8b-chat-w4a16-4bit

命令解释:

  1. lmdeploy lite auto_awq: lite这是LMDeploy的命令,用于启动量化过程,而auto_awq代表自动权重量化(auto-weight-quantization)。
  2. /root/models/internlm2_5-7b-chat: 模型文件的路径。
  3. --calib-dataset 'ptb': 这个参数指定了一个校准数据集,这里使用的是’ptb’(Penn Treebank,一个常用的语言模型数据集)。
  4. --calib-samples 128: 这指定了用于校准的样本数量—128个样本
  5. --calib-seqlen 2048: 这指定了校准过程中使用的序列长度—2048
  6. --w-bits 4: 这表示权重(weights)的位数将被量化为4位。
  7. --work-dir /root/models/internlm2_5-7b-chat-w4a16-4bit: 这是工作目录的路径,用于存储量化后的模型和中间结果。

报错:

在这里插入图片描述

临时解决:

vi /root/.conda/envs/lmdeploy/lib/python3.10/site-packages/datasets/load.py

在这里插入图片描述

解决

在这里插入图片描述

等待一段时间1-2个小时;

  • 模型大小对比

在这里插入图片描述

  • 推理内存占用对比

    lmdeploy chat /root/models/internlm2_5-1_8b-chat-w4a16-4bit/ --model-format awq
    

    在这里插入图片描述

    量化前:

    conda activate lmdeploy
    lmdeploy chat /root/models/internlm2_5-1_8b-chat
    

    在这里插入图片描述

  • 量化前:20616MiB

  • 量化后:20196MiB

2.4 kv缓存+W4A16 量化同时设置

lmdeploy serve api_server \
    /root/models/internlm2_5-1_8b-chat-w4a16-4bit/ \
    --model-format awq \
    --quant-policy 4 \
    --cache-max-entry-count 0.4\
    --server-name 0.0.0.0 \
    --server-port 23333 \
    --tp 1
    
    
# 本地
 ssh -CNg -L 6006:127.0.0.1:6006 root@ssh.intern-ai.org.cn -p 你的ssh端口号

在这里插入图片描述

3 LMDeploy与InternVL2

省略(InternLM2.5在操作上并无本质区别)

4. LMDeploy之FastAPI与Function call

4.1 API开发

  • 启动模型服务
# 2.4操作未关闭,可跳过
conda activate lmdeploy
lmdeploy serve api_server \
    /root/models/internlm2_5-1_8b-chat-w4a16-4bit \
    --model-format awq \
    --cache-max-entry-count 0.4 \
    --quant-policy 4 \
    --server-name 0.0.0.0 \
    --server-port 23333 \
    --tp 1
    
  • api开发(代码调用)

    可能出现的问题:

    在这里插入图片描述

    解决方案:base_url=“http://0.0.0.0:23333/v1” 改为base_url=“http://127.0.0.1:23333/v1”

# 另启客户端
touch /root/internlm2_5.py
vi /root/internlm2_5.py

# internlm2_5.py
# 导入openai模块中的OpenAI类,这个类用于与OpenAI API进行交互
from openai import OpenAI


# 创建一个OpenAI的客户端实例,需要传入API密钥和API的基础URL
client = OpenAI(
    api_key='YOUR_API_KEY',  
    # 替换为你的OpenAI API密钥,由于我们使用的本地API,无需密钥,任意填写即可
    #base_url="http://0.0.0.0:23333/v1"  
    base_url="http://127.0.0.1:23333/v1"
    # 指定API的基础URL,这里使用了本地地址和端口
)

# 调用client.models.list()方法获取所有可用的模型,并选择第一个模型的ID
# models.list()返回一个模型列表,每个模型都有一个id属性
model_name = client.models.list().data[0].id

# 使用client.chat.completions.create()方法创建一个聊天补全请求
# 这个方法需要传入多个参数来指定请求的细节
response = client.chat.completions.create(
  model=model_name,  
  # 指定要使用的模型ID
  messages=[  
  # 定义消息列表,列表中的每个字典代表一个消息
    {"role": "system", "content": "你是一个友好的小助手,负责解决问题."},  
    # 系统消息,定义助手的行为
    {"role": "user", "content": "帮我讲述一个关于狐狸和西瓜的小故事"},  
    # 用户消息,询问时间管理的建议
  ],
    temperature=0.8,  
    # 控制生成文本的随机性,值越高生成的文本越随机
    top_p=0.8  
    # 控制生成文本的多样性,值越高生成的文本越多样
)

# 打印出API的响应结果
print(response.choices[0].message.content)
  • 运行代码
conda activate lmdeploy
python /root/internlm2_5.py
  • 输出结果

在这里插入图片描述

4.2 Function call

  • 启动7b, 1.8b的会报错(1.8b的可能不支持funtion)

在这里插入图片描述

# 启动7b, 1.8b的会报错
conda activate lmdeploy
lmdeploy serve api_server \
    /root/models/internlm2_5-7b-chat \
    --model-format hf \
    --quant-policy 0 \
    --server-name 0.0.0.0 \
    --server-port 23333 \
    --tp 1
  • 代码编制
touch /root/internlm2_5_func.py
vi /root/internlm2_5_func.py
#internlm2_5_func.py
from openai import OpenAI


def add(a: int, b: int):
    return a + b


def mul(a: int, b: int):
    return a * b


tools = [{
    'type': 'function',
    'function': {
        'name': 'add',
        'description': 'Compute the sum of two numbers',
        'parameters': {
            'type': 'object',
            'properties': {
                'a': {
                    'type': 'int',
                    'description': 'A number',
                },
                'b': {
                    'type': 'int',
                    'description': 'A number',
                },
            },
            'required': ['a', 'b'],
        },
    }
}, {
    'type': 'function',
    'function': {
        'name': 'mul',
        'description': 'Calculate the product of two numbers',
        'parameters': {
            'type': 'object',
            'properties': {
                'a': {
                    'type': 'int',
                    'description': 'A number',
                },
                'b': {
                    'type': 'int',
                    'description': 'A number',
                },
            },
            'required': ['a', 'b'],
        },
    }
}]
messages = [{'role': 'user', 'content': 'Compute (3+5)*2'}]

client = OpenAI(api_key='YOUR_API_KEY', base_url='http://0.0.0.0:23333/v1')
model_name = client.models.list().data[0].id
response = client.chat.completions.create(
    model=model_name,
    messages=messages,
    temperature=0.8,
    top_p=0.8,
    stream=False,
    tools=tools)
print(response)
func1_name = response.choices[0].message.tool_calls[0].function.name
func1_args = response.choices[0].message.tool_calls[0].function.arguments
func1_out = eval(f'{func1_name}(**{func1_args})')
print(func1_out)

messages.append({
    'role': 'assistant',
    'content': response.choices[0].message.content
})
messages.append({
    'role': 'environment',
    'content': f'3+5={func1_out}',
    'name': 'plugin'
})
response = client.chat.completions.create(
    model=model_name,
    messages=messages,
    temperature=0.8,
    top_p=0.8,
    stream=False,
    tools=tools)
print(response)
func2_name = response.choices[0].message.tool_calls[0].function.name
func2_args = response.choices[0].message.tool_calls[0].function.arguments
func2_out = eval(f'{func2_name}(**{func2_args})')
print(func2_out)
  • 运行代码
python /root/internlm2_5_func.py
  • 结果展示

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2103677.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

深度学习与电网信号故障诊断:基于卷积神经网络和残差网络的应用

在本文中&#xff0c;我们将探讨如何使用深度学习方法&#xff0c;特别是卷积神经网络&#xff08;CNN&#xff09;和残差网络&#xff08;ResNet&#xff09;&#xff0c;来进行信号故障诊断。通过实践&#xff0c;我们将逐步演示如何加载数据、处理数据、建立模型并进行训练和…

axios设置responseType: ‘blob‘,获取接口返回的错误信息

在axios的请求中当后端接口返回的是文件流的情况下&#xff0c;我们需要在请求参数里面设置responseType: blob&#xff0c;如果接口报错&#xff0c;默认前端无法获取后端返回的错误信息。 解决方法&#xff1a;通过FileReader获取错误信息 async handleFetch() {const res aw…

59.以太网数据回环实验(2)硬件资源梳理及系统框图

硬件资源梳理介绍&#xff1a; 升腾开发板使用的以太网PHY芯片型号为RTL8211F&#xff0c;是低功耗10-BASE/100-BASE/1000-BASE全双工以太网PHY层芯片&#xff0c;支持 10Mbps、100Mbps 和 1000Mbps以太网通信。I/O 引脚电压可变&#xff0c;符合 IEEE802.3-2005 标准&#xff…

2024.09.04【读书笔记】|如何使用Tombo进行Nanopore Direct RNA-seq(DRS)分析

文章目录 Tombo快速使用介绍模型介绍RNA修饰分析步骤特异性替代碱基检测&#xff08;推荐&#xff09;De novo canonical model comparison ONT全长转录组分析步骤疑难解答Minimap2在比对nanopore直接RNA-seq数据时的最佳实践和参数设置有哪些&#xff1f;featureCounts在进行R…

--- 数据结构 栈 --- java

栈 只允许在一个方向上进行数据的插入和删除操作&#xff0c;进行删除和插入操作的一端叫做栈顶&#xff0c;另一端叫做栈尾 压栈 将数据插入到栈当中&#xff0c;入数据的位置是栈顶 出栈 将数据从栈中弹出&#xff08;删除&#xff09;&#xff0c;弹出的方向是在栈顶 栈…

【持续更新】Adobe Audition 2024 (v24.4.1.003)最新免费修改版

Adobe Audition是一款专为录音、编辑和掌握音频素材设计的专业解决方案。此编辑器支持从MP3、AAC到AIFF等多种重要格式&#xff0c;并能从CD中导入音轨。 其多轨编辑功能使您可以在任意数量的轨道上混合音乐、语音和声音片段&#xff0c;运用丰富的工作室动态效果&#xff0c;如…

光盘安全隔离与信息单向导入系统-信刻

信刻从用户需求出发&#xff0c;为更多用户提供安全可靠的跨网数据单向导入/导出光盘摆渡系统解决方案&#xff0c;解决内外网数据交换的问题&#xff0c;确保数据交换过程的安全性。 公司所研发出的光盘安全隔离与信息单向导入系统依托软硬件相结合的技术&#xff0c;集策略摆…

实训day39(8.29)

一、harbor私有仓库管理 是python的包管理工具&#xff0c;和yum对redhat的关系是一样的 yum -y install epel-release yum -y install python2-pip pip install --upgrade pip pip list pip 8x pip install --upgrade pip pip install --upgrade pip20.3 -i https://mirr…

HTTP 之 消息结构(二十二)

HTTP&#xff08;超文本传输协议&#xff09;是一种用于传输超媒体文档的协议&#xff0c;它定义了客户端和服务器之间请求和响应的消息结构。HTTP消息由一系列标准头部字段、一个空行和可选的消息体组成。 客户端请求消息 请求消息包括以下格式&#xff1a;请求行&#xff08;…

视频合并在线工具哪个好?好用的视频合并工具推荐

当我们手握一堆零散却各有千秋的视频片段时&#xff0c;是否曾幻想过它们能像魔法般合并成一部完整、流畅的故事&#xff1f; 别担心&#xff0c;今天咱们就来一场“视频合并大冒险”&#xff0c;揭秘几款视频合并软件手机免费工具&#xff0c;帮助你在指尖上实现创意无限的视…

进来一起把【数据结构】的【栈与队列】狠狠玩弄,痛快到大汗淋漓

1前言&#xff1a;顾名思义&#xff0c;栈与队列是两个东西&#xff0c;栈和队列&#xff01;对的&#xff0c;栈和队列&#xff01;&#xff01;&#xff0c;没错&#xff0c;在念一遍&#xff0c;【栈】 和 【队列】&#xff01;&#xff01;&#xff01;但是本质都是差…

Docker 部署 Mysql (图文并茂超详细)

部署 MYSQL ( Docker ) [Step 1] : 拉取 MYSQL 镜像 docker pull mysql:8.0.33[Step 2] : 创建 MYSQL 相关目录 ➡️ 启动 MYSQL 容器 ➡️ 拷贝文件 ➡️ 授权文件夹 ➡️ 删除容器 # 创建 MYSQL 相关目录 mkdir -p /data/mysql/{conf,log,data}# 启动 MYSQL 容器 docker r…

MES系统:优化生产流程,产品质量与追溯性

MES系统&#xff08;Manufacturing Execution System&#xff0c;制造执行系统&#xff09;在实现产品质量管理方面发挥着重要作用。它通过集成生产过程的各种数据和功能&#xff0c;帮助企业提升产品质量、降低不良率&#xff0c;并确保生产过程的稳定性和一致性。以下是万界星…

开源云原生数据库PolarDB PostgreSQL 15兼容版本正式发布

开源云原生数据库PolarDB PostgreSQL 15兼容版正式发布上线&#xff0c;该版本100%兼容开源PostgreSQL 15。PolarDB是阿里云自研云原生关系型数据库&#xff0c;基于共享存储的存算分离架构使其具备灵活弹性和高性价比的特性&#xff0c;在开源PostgreSQL很好的性能表现的基础上…

AI绘画界的赛博佛祖,开源最强SD3它来了!(整合包)

前言 全网期待已久的SD3终于和大家见面了。这款以Stable Diffusion为基础&#xff0c;进一步优化和升级的模型&#xff0c;无疑将会深刻地又又又一次改变AI绘画界&#xff01; 这次发布的是Medium版本&#xff0c;在多个方面展现出惊人的能力和效率&#xff0c;堪称开源最强&…

多线程篇(可见性 原子性 有序性(有序性))(持续更新迭代)

目录 一、指令重排序&#xff08;并发编程之美&#xff09; 二、指令重排序&#xff08;百度&#xff09; 1. 为什么需要指令重排序 2. 什么是指令重排序 3. 指令重排序分类 3.1. 编译器优化重排序 3.2. 指令级并行的重排序 3.3. 内存系统的重排 4. 指令重排序规范 4…

【AI工作流】未来的我将何去何从?亲身感受!

在这个瞬息万变的科技时代&#xff0c;人工智能&#xff08;AI&#xff09;已经成为推动各行各业变革的核心动力。随着AI技术的不断进步&#xff0c;工作流程的智能化正在悄然改变我们的生活和工作方式。那么&#xff0c;未来的我将何去何从&#xff1f;这是一个值得深思的问题…

揭秘!焦虑症背后的隐形推手:气血不足,你了解多少?

在这个快节奏、高压力的时代&#xff0c;焦虑症似乎成了许多人心头挥之不去的阴霾。失眠、心悸、易怒、持续担忧……这些症状不仅影响着我们的生活质量&#xff0c;更在无形中侵蚀着我们的身心健康。然而&#xff0c;你是否知道&#xff0c;这些看似心理层面的困扰&#xff0c;…

springboot高校实验室教学管理系统的设计和实现

基于springbootvue高校实验室教学管理系统的设计和实现(源码L文ppt)4-045 4 系统总体设计 此次高校实验室教学管理系统通过springboot框架。springboot适合快速构建Web应用。springboot将B/S设计模式中的视图分成了View模块和Template模块两部分&#xff0c;将动态的逻辑处理…

如何获取本地时区名称:JavaScript 实用技巧

如何获取本地时区名称&#xff1a;JavaScript 实用技巧 在现代 web 开发中&#xff0c;处理日期和时间是一个常见的需求。尤其是在涉及到用户的本地时间时&#xff0c;正确获取时区信息显得尤为重要。在这篇博客中&#xff0c;我们将探讨如何使用 JavaScript 获取本地时区名称…