docker torcherve打包mar包并部署模型

news2025/4/2 10:06:38

使用Docker打包深度网络模型mar包到服务端

参考链接:Docker torchserve 部署模型流程——以WSL部署YOLO-FaceV2为例_class myhandler(basehandler): def initialize(self,-CSDN博客

1、docker拉取环境镜像命令

docker images

在这里插入图片描述

在这里插入图片描述

出现此提示为没有权限取执行命令,此时修改命令为

sudo docker images

出现类似如下界面即为成功
在这里插入图片描述

**注意:**如果没有所需镜像,那么则需要去网上的镜像网站取拉镜像。命令为

docker pull registry.cn-shanghai.aliyuncs.com/jhinno/torch-serve:v6.1
docker pull 镜像

2、启动docker并进行打包

2、1启动docker服务

systemctl start docker
docker run --rm -it -p 8080:8080 -p 8081:8081 -v /home/lxz-2/lyw/class_eval/model_store:/home/model-server/model-store registry.cn-shanghai.aliyuncs.com/jhinno/torch-serve:v6.1

–rm 表示使用完立刻清空内存。

–it 表示交互式容器,会有一个伪终端,可以理解为docker容器的终端,我个人认为docker容器就是一个虚拟机,能更加方便人们去运行代码。

-p端口映射, -p 8080:8080 表示将本地8080端口映射到虚拟机8080端口

-v路径映射: -v /home/lxz-2/lyw/class_eval/model_store:/home/model-server/model-store将 /home/lxz-2/lyw/class_eval/model_store映射/home/model-server/model-store

registry.cn-shanghai.aliyuncs.com/jhinno/torch-serve:v6.1 :所使用的环境

在这里插入图片描述

输入完上述命令后进入docker容器的伪终端,此时所使用的环境为 registry.cn-shanghai.aliyuncs.com/jhinno/torch-serve:v6.1

在这里插入图片描述

2、2 编写handler文件

handler文件,是加载模型 预处理 推理 后处理的过程的函数,可以理解为跑通模型从前到后的步骤,比如加载模型,加载好后需要对数据进行预处理,进行预处理然后进行推理,将得到的加过进行后处理,应用到实际中,最后返回。

load_model、initialize第一个是下载模型用的,第二个是初始化,例如是不是用GPU啊等参数设置的,preprocess,此时这个函数的传参data就是用户在调用接口传递数据,preprocess返回的data会进入到inference的data,同时inference返回的data会进入到postprocess,最后通过接口返回给用户

在这里插入图片描述

import datetime
import os
import pickle
import sys
import zipfile
import numpy as np
import logging

logger = logging.getLogger(__name__)
import base64
import torch
import io
from PIL import Image
from sklearn.preprocessing import StandardScaler, MinMaxScaler
from ts.torch_handler.base_handler import BaseHandler
import ast


class FaceDetectHandler(BaseHandler):
    def __init__(self):
        super().__init__()

        # Define your scalers for normalization and standardization
        self.scaler = StandardScaler()  # For standardization
        self.minmax_scaler = MinMaxScaler()  # For min-max scaling
        self.args = 14
        self.order = ['ATTENDANCE_RATE','HEAD_UP_RATE', 'FRONT_RATE','FRONT_SEAT_RATE','TVOTELOG','TPREAMPANSWERLOG','TDISCUSSLOG', 'TSURVEYLOG', 'TCHOOSESOMEONELOG', 'TWORKLOG','VOTELOG','PREAMPANSWERLOG','WORKLOG','CHOOSESOMEONELOG',]
        self.count = ['VOTELOG', 'WORKLOG', 'PREAMPANSWERLOG', 'CHOOSESOMEONELOG', 'JOBFINISH']


    def load_model(self, model_path):
        from model import MyModel
        print('loading model...')
        model = MyModel(1,4,1)
        # if not os.path.exists(model_path):
        #     print("Checkpoint not found: " + model_path)
        #     return
        # print("Resuming from " + model_path)
        states = torch.load(
            model_path, map_location=self.device)
        model.load_state_dict(states, strict=False)
        model = model.to(device=self.device)
        # print("Resumed from " + model_path)
        self.model = model.eval()

    def initialize(self, context):
        properties = context.system_properties
        logger.info(f"Cuda available: {torch.cuda.is_available()}")
        logger.info(f"GPU available: {torch.cuda.device_count()}")
        use_cuda = torch.cuda.is_available() and torch.cuda.device_count() > 0
        self.map_location = 'cuda' if use_cuda else 'cpu'
        self.device = torch.device(self.map_location + ':' +
                                   str(properties.get('gpu_id')
                                       ) if use_cuda else 'cpu')
        self.manifest = context.manifest
        model_dir = properties.get('model_dir')
        logger.info("==================model_dir==========================="
                    " %s loaded successfully", model_dir)
        self.model_pt_path = None
        self.model_path = None
        # 读取pth和模型
        if "serializedFile" in self.manifest["model"]:
            serialized_file = self.manifest["model"]["serializedFile"]
            self.model_pt_path = os.path.join(model_dir, serialized_file)
        model_file = self.manifest['model']['modelFile']
        # if "modelFile" in self.manifest["model"]:
        #     model_file = self.manifest['model']['modelFile']
        #     self.model_path = os.path.join(model_dir, model_file)
        # logger.info("Model file %s loaded successfully", self.model_pt_path)

        # with zipfile.ZipFile(model_dir + '/models.zip', 'r') as zip_ref:
        #     zip_ref.extractall(model_dir)
        self.load_model(self.model_pt_path)
        logger.info("Model file %s loaded successfully", self.model_pt_path)
    def preprocess(self, data):
        logger.info("preprocess ing~~~~~")
        logger.info(data)
        data_dict = data[0]['body']
        keys = data_dict.keys()
        if 'ATTENDANCE_RATE' not in keys or 'HEAD_UP_RATE' not in  keys or 'FRONT_RATE' not in keys or 'FRONT_SEAT_RATE' not in keys:
            return "参数不足"
        values_array = [data_dict[feature] for feature in self.order]
        MASK = [1 if value!=0 else 0 for value in values_array]
        MASK = np.array(MASK, dtype=np.float32).reshape(1, self.args)
        # 使用 StandardScaler 标准化特征数据
        # 将 MASK 转换为 PyTorch 张量
        MASK_tensor = torch.tensor(MASK, dtype=torch.float32).to(self.device)
        values_array = np.array(values_array, dtype=np.float32).reshape(1,self.args, 1)
        values_tensor = torch.tensor(values_array, dtype=torch.float32).to(self.device)
        logger.info(values_tensor)
        data = {"values_tensor":values_tensor,"MASK_tensor":MASK_tensor}
        return data
    def inference(self, data):
        logger.info("inference ing~~~~~")
        logging.info(data)
        if data=="参数不足":
            return "参数不足"
        model = self.model
        logger.info("model  loaded")
        prediction = model(data['values_tensor'],data['MASK_tensor'])
        logging.info(prediction)
        return prediction
    def postprocess(self, data):
        logger.info("postprocess ing~~~~~")
        logging.info(data)
        if data == "参数不足":
            return [{"output": "参数不足"}]
        result = data.item()
        # results = data_reshape.tolist()
        return [{"output": result}]

可以本地编写个测试文件,看看是否能跑通


# 添加到 handler 文件的末尾

if __name__ == "__main__":
    import logging
    logging.basicConfig(level=logging.INFO)
    
    # 模拟 TorchServe 的上下文
    class MockContext:
        def __init__(self):
            self.system_properties = {
                "model_dir": "./model",  # 假设模型文件存放在 ./model 目录
                "gpu_id": 0              # 测试时使用 CPU
            }
            self.manifest = {
                "model": {
                    "serializedFile": "model.pth",  # 假设模型权重文件名
                    "modelFile": "model.py"        # 模型定义文件
                }
            }
    
    # 初始化 Handler
    handler = FaceDetectHandler()
    context = MockContext()
    
    # 确保模型目录存在
    os.makedirs(context.system_properties["model_dir"], exist_ok=True)
    
    # 创建一个虚拟模型文件(如果实际不存在)
    dummy_model_path = os.path.join(
        context.system_properties["model_dir"], 
        context.manifest["model"]["serializedFile"]
    )
    if not os.path.exists(dummy_model_path):
        torch.save(handler.model.state_dict(), dummy_model_path)
    
    # 初始化 Handler
    handler.initialize(context)
    
    # 构造测试数据(包含所有必要字段)
    test_data = [{
        "body": {
            "ATTENDANCE_RATE": 0.85,
            "HEAD_UP_RATE": 0.6,
            "FRONT_RATE": 0.75,
            "FRONT_SEAT_RATE": 0.5,
            "TVOTELOG": 1,
            "TPREAMPANSWERLOG": 2,
            "TDISCUSSLOG": 0,
            "TSURVEYLOG": 1,
            "TCHOOSESOMEONELOG": 0,
            "TWORKLOG": 3,
            "VOTELOG": 1,
            "PREAMPANSWERLOG": 2,
            "WORKLOG": 3,
            "CHOOSESOMEONELOG": 0,
            "LISTEN_CLASS": 0.9,
            "WRITE_NOTE": 0.3,
            "PLAY_PHONE": 0.1,
            "LIT_TABLE": 0.2
        }
    }]
    
    # 完整处理流程
    try:
        preprocessed = handler.preprocess(test_data)
        print("预处理结果:", preprocessed)
        
        if preprocessed != "参数不足":
            inference_result = handler.inference(preprocessed)
            print("推理结果:", inference_result)
            
            postprocessed = handler.postprocess(inference_result)
            print("最终输出:", postprocessed)
        else:
            print("错误:输入参数不完整")
    except Exception as e:
        print(f"处理出错: {str(e)}")

2.3打包

torch-model-archiver --model-name ml_regression_AICourseScoring_V2.2 --version 2.2 --model-file model.py --serialized-file test_model_loss0.2894_r20.9787_20250327_184525.pth --handler Myhandler.py

需要将参数文件、模型文件’handler文件同时放到一个文件夹下。

–model-name ml_regression_AICourseScoring_V2.2 模型的名字

–version 2.2 版本

–model-file model.py 模型文件

serialized-file test_model_loss0.2894_r20.9787_20250327_184525.pth 参数文件

–handler Myhandler.py handler文件

映射后的文件夹下的文件

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

执行完上述后命令会在当前文件下生成mar包,

在这里插入图片描述

我本地使用的是学校中台,只需上传mar包即可,本地测试参考

参考链接:Docker torchserve 部署模型流程——以WSL部署YOLO-FaceV2为例_class myhandler(basehandler): def initialize(self,-CSDN博客

第四点

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2323869.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【安当产品应用案例100集】042-基于安当KADP实现机密文件安全流转

一、客户需求 某集团公司客户,在系统业务流中,存在大量的内部文件流转的需求。内部业务文件有不同的安全密级,最初在文件流转时,公司内部规定点对点的文件传输,要使用加密工具加密后再发给需要的一方。这种方式虽然能…

附录C SLAC匹配过程命令定义与实际抓包

附录C SLAC匹配过程命令定义与实际抓包 ISO15118-3 附录A中规定了SLAC匹配过程中的请求命令及应答, 本文将会对比协议中的定义和实际抓包内容,以便读者获得直观的认识。 1 CM_SET_KEY.REQ 定义内容: 实际数据: 注意报文中的 08…

【QT】新建QT工程(详细步骤)

新建QT工程 1.方法(1)点击new project按钮,弹出对话框,新建即可,步骤如下:(2) 点击文件菜单,选择新建文件或者工程,后续步骤如上 2.QT工程文件介绍(1).pro文件 --》QT工程配置文件(2)main.cpp --》QT工程主…

安装Webpack并创建vue项目

1、新建一个工程目录 在E盘中进行新建项目 2、从命令行进入该目录,并执行NPM 的初始化命令 3、会看到目录中生成了一个“package.json”文件,它相当于NPM项目的说明书,里面记录了项目名称、版本、仓库地址等信息。 4、执行安装 Webpack 的命令 npm install webpac…

如何快速解决django存储session变量时出现的django.db.utils.DatabaseError错误

我们在学习django进行web编程的时候,有时需要将一些全局变量信息存储在session中,但使用过程中,却发现会引起数据库的报错。通过查看django源码信息,发现其对session信息进行了ORM映射,如果数据库中不存在对应的表信息…

04 单目标定实战示例

看文本文,您将获得以下技能: 1:使用opencv进行相机单目标定实战 2:标定结果参数含义和数值分析 3:Python绘制各标定板姿态,查看图像采集多样性 4:如果相机画幅旋转90,标定输入参数该如何设置? 5:图像尺寸缩放,标定结果输出有何影响? 6:单目标定结果应用类别…

极速全场景 MPP数据库starrocks介绍

目录 一、引子 二、起源 (一)前身 (二)定位 三、特点 (一)高性能架构 (二)实时分析 (三)高并发与扩展性 (四)兼容性与生态 …

RS232转Profinet网关技术,检漏仪新篇章!

RS232转Profinet网关技术,检漏仪新篇章! 在现代医疗监控系统中,RS232转PROFINET网关扮演着至关重要的角色。这种转换设备能够将传统的RS232串行通讯接口无缝转换为PROFINET以太网通信接口,确保老旧设备与现代自动化系统之间的顺畅…

Linux操作系统7- 线程同步与互斥7(RingQueue环形队列生产者消费者模型改进)

上篇文章:Linux操作系统7- 线程同步与互斥6(POSIX信号量与环形队列生产者消费者模型)-CSDN博客 本篇代码仓库:myLerningCode/l36 橘子真甜/Linux操作系统与网络编程学习 - 码云 - 开源中国 (gitee.com) 目录 一. 单生产单消费单保…

将 Markdown 表格结构转换为Excel 文件

在数据管理和文档编写过程中,我们经常使用 Markdown 来记录表格数据。然而,Markdown 格式的表格在实际应用中不如 Excel 方便,特别是需要进一步处理数据时。因此,我们开发了一个使用 wxPython 的 GUI 工具,将 Markdown…

微信小程序逆向开发

一.wxapkg文件 如何查看微信小程序包文件: 回退一级 点击进入这个目录 这个就是我们小程序对应的文件 .wxapkg概述 .wxapkg是微信小程序的包文件格式,且其具有独特的结构和加密方式。它不仅包含了小程序的源代码,还包括了图像和其他资源文…

Spring Data审计利器:@LastModifiedDate详解!!!

🕒 Spring Data审计利器:LastModifiedDate详解🔥 🌟 简介 在数据驱动的应用中,记录数据的最后修改时间是常见需求。Spring Data的LastModifiedDate注解让这一过程自动化成为可能!本篇带你掌握它的核心用法…

wms窗口/多窗口/自由窗口systemui侧边栏手势退出实战-学员作业

背景: 再学习了马哥的分屏自由窗口专题课程时候,有一个需求就是实现自由窗口置顶的功能,这个需求实现后,自由窗口就会一直处于顶端,不会因为打开其他Activity导致自由窗口退出。 不会因为打开了其他Activity而导致短…

服装零售行业数据分析方案

在数据洪流的时代,大数据分析已成为服装产业的强大引擎,助力企业飞速提升运营效率,削减成本,并优化资源配置。在服饰行业的生产运营链中,商业智能(BI)工具扮演着至关重要的角色,它们…

基于大模型的pc版语音对话问答

Vosk基础知识: Vosk 是一个强大的开源语音识别工具包,以下是对它的详细介绍: 特点 离线识别:Vosk 的显著特点是支持离线语音识别。这意味着在没有网络连接的情况下,也能进行语音识别操作,避免了因网络问…

深入理解 Linux 内核中的 GPU 子系统:从 DRM 到 NXP 驱动架构全解读

本文不仅为 GPU 子系统的深入复习笔记,更是一本面向 Linux 内核开发者、嵌入式图形系统开发人员的实践指南。本文围绕 drivers/gpu 展开,特别聚焦 NXP i.MX 系列平台的 GPU 架构和 Linux-imx 的实现方式,内容超 5000 字,适合收藏学…

Allegro界面颜色改变设置

概述:本文主要讲解如何改变allegro的背景颜色,改为自己喜欢的颜色 1、 打开Allegro文件 2、 Setup—User Preference—UI—General—Allegro_theme选择Light即可 改变前 改变后

ThreadLocal与Cookie + Session?

这篇文章主要在做 Echo 社区项目的时候写的,在保持用户登录态的这个需求下,为啥要用 ThreadLocal 存储用户信息,而不是采用常见的 Cookie Session。 Cookie Session 由于 HTTP 协议是无状态的,完成操作关闭浏览器后,…

【算法】二分查找(下)

一、山峰数组的峰顶索引 题目链接:852. 山脉数组的峰顶索引 - 力扣(LeetCode) 题目描述: 给定一个长度为 n 的整数 山脉 数组 arr ,其中的值递增到一个 峰值元素 然后递减。 返回峰值元素的下标。 你必须设计并实现时…

【动手学深度学习】#6 卷积神经网络

主要参考学习资料: 《动手学深度学习》阿斯顿张 等 著 【动手学深度学习 PyTorch版】哔哩哔哩跟李牧学AI 由于本系列一开始跳过了第一章引言部分,因此系列编号比书本章节编号提前。现改为和书本统一(因为之前自己的原始笔记也是按照书本章节编…