【OpenVINO】OpenVINO C# API 常用 API 详解与演示

news2024/11/25 22:24:39

OpenVINO C# API 常用 API 详解与演示

  • 1 安装OpenVINO C# API
    • 2 导入程序集
  • 3 初始化OpenVINO 运行时内核
  • 4 加载并获取模型信息
    • 4.1 加载模型
    • 4.2 获取模型信息
  • 5 编译模型并创建推理请求
  • 6 张量Tensor
    • 6.1 张量的获取与设置
    • 6.2 张量的信息获取与设置
  • 7 加载推理数据
    • 7.1 获取输入张量
    • 7.2 添加推理数据
  • 8 模型推理
  • 9 获取推理结果
  • 10 释放分配的内存
  • 11 Yolov8分类模型示例
  • 12 总结

  OpenVINO™ 工具套件可以加快深度学习视觉应用开发速度,帮助用户在从边缘到云的各种英特尔平台上,更加方便快捷的将 AI 模型部署到生产系统中。OpenVINO™ 2023.1 LTS 版本现已发布,可帮助你快速轻松地开发卓越的人工智能应用,并跨边缘和云端部署深度学习推理工作负载,无论你处于人工智能编程的什么阶段。
  C# 是由 C 和 C++ 衍生出来的一种安全的、稳定的、简单的、优雅的面向对象编程语言,它综合了 VB 简单的可视化操作和 C++ 的高运行效率,成为支持成为.NET 开发的首选语言。作为人工智能开发人员,如果你希望在 C# 端使用 OpenVINO™ ,OpenVINO C# API将是你的首选,并且制作了 NuGet 程序包,实现在 C# 端了一站式安装与使用 OpenVINO™ 。
  项目的首发网址:OpenVINO™ C# API 详解与演示 | 开发者实战。
  OpenVINO C# API在制作时参考了OpenVINO™ C++ API,因此对于之前使用过OpenVINO™ 的人十分友好。下面表格向我们展示了 C# 与 C++ API的对应关系

ClassC++ APIC# API说明
Core classov::CoreCoreOpenVINO运行时核心实体类
Model classov::ModelModel用户自定义模型类
CompiledModel classov::CompiledModelCompiledModel已编译的模型类
Output classov:: Output<ov::Node>Output节点输出的句柄类
Input classov:: Input<ov::Node>Input节点输入的句柄类
InferRequest classov::InferRequestov::InferRequest以异步或同步方式运行推断请求的类
Tensor classov::TensorTensor张量
Shape classov::ShapeShape张量的形状类

  在本文中,将会根据模型部署的一般步骤,演示从模型加载到推理的方法函数使用方式,并于C++ API 做对比。

1 安装OpenVINO C# API

  OpenVINO C# API 支持 NuGet 程序包安装方式,这与在C++中安装过程相比,较为简单,并且程序包中包含了最新版的 OpenVINO™ 2023.1 发行版本的 Release,可以通 过 NuGet 安装后直接使用。

  如果使用Visual Studio 编译该项目,则可以通过 NuGet 程序包管理功能直接安装即可:

在这里插入图片描述

  如果通过dotnet命令方式安装,通过下面语句进行安装即可:

dotnet add package OpenVINO.CSharp.win

2 导入程序集

  OpenVINO C# API 程序集全部在CSharp命名空间下,因此若要使用 OpenVINO C# API,需要先引入命名空间:

using OpenVinoSharp;

3 初始化OpenVINO 运行时内核

  Core类代表一个OpenVINO运行时核心实体,后续的读取模型、加载模型等方法都需要通过 Core 类进行创建,在封装C# API 时,为了与 C++ API 对应,也对 Core 类进行了封装,并封装了与 C++ API 中对应的方法

在C#中的初始化方式:

Core core = new Core();

在C++中的初始化方式:

ov::Core core;

4 加载并获取模型信息

4.1 加载模型

  OpenVINO™ 2022.1版本更新之后,加载,下面是所使用的 API 方法:

API作用
Core.read_model ()将模型从硬盘载入内存,并返回Model对象。

在C#中加载模型的方式:

Model model = core.read_model(model_path);

在C++中的初始化方式:

std::shared_ptr<ov::Model> model = core.read_model(model_path);

4.2 获取模型信息

  通过 Core.read_model ()方法获得的 Model 对象和通过 Core.compile_model ()方法获得的 CompiledModel 对象,都支持直接访问属性获取输入与输出层信息。以Model对象获取模型信息为例,下面是所使用的 API 方法:

API作用
Model.get_friendly_name()获取模型的friendly name。
Model.input()获取模型的输入层,并返回 Input对象。
Model.output()获取模型的输出层,并返回 Output对象。

  Input/Output 主要是封装了模型网络层,可以通过下面 API 实现获取模型的详细信息:

API作用
Output.get_any_name()获取模型网络层的名字。
Output.get_element_type()获取模型网络层的数据类型,并返回 OvType对象,OvType主要封装了网络的基本数据类型。
Output.get_shape()获取模型网络层的形状,并返回 Shape对象,Shape封装了网络层的形状数组。

  在 C# 中通过下方代码,可以直接获取模型的输入、输入层以及模型的friendly name:

string model_name = model.get_friendly_name();
Input input = model.input();
Output output = model.output();

  然后将模型具体信息打印到控制台页面:

Console.WriteLine("Model name: {0}", model_name);
Console.WriteLine("/------- [In] -------/");
Console.WriteLine("Input name: {0}", input.get_any_name());
Console.WriteLine("Input type: {0}", input.get_element_type().to_string());
Console.WriteLine("Input shape: {0}", input.get_shape().to_string());
Console.WriteLine("/------- [Out] -------/");
Console.WriteLine("Output name: {0}", output.get_any_name());
Console.WriteLine("Output type: {0}", output.get_element_type().to_string());
Console.WriteLine("Output shape: {0}", output.get_shape().to_string());

  获取模型网络层信息如下:

Model name: torch_jit
/------- [In] -------/
Input name: data
Input type: float
Input shape: [1,3,224,224]
/------- [Out] -------/
Output name: prob
Output type: float
Output shape: [1,1000]

  同样的输出信息,我们使用 C++ API 实现如下:

std::cout << "Model name: " << model->get_friendly_name() << std::endl;
ov::Output<ov::Node> input = model->input();
std::cout << "/------- [In] -------/" << std::endl;
std::cout << "Input name: " << input.get_any_name() << std::endl;
std::cout << "Input type: " << input.get_element_type().c_type_string() << std::endl;
std::cout << "Input shape: " << input.get_shape().to_string() << std::endl;
ov::Output<ov::Node> output = model->output();
std::cout << "/------- [Out] -------/" << std::endl;
std::cout << "Output name: " << output.get_any_name() << std::endl;
std::cout << "Output type: " << output.get_element_type().c_type_string() << std::endl;
std::cout << "Output shape: " << output.get_shape().to_string() << std::endl;

5 编译模型并创建推理请求

  在读取本地模型后,调用模型编译方法将模型编译为可以在目标设备上执行的 compile_model 对象,并通过该对象创建用于推断已编译模型的推断请求对象。下面是所使用的 API 方法:

API作用
Core.compile_model()将模型编译为可以在目标设备上执行的 compile_model 对象。
CompiledModel.create_infer_request()创建用于推断已编译模型的推断请求对象,创建的请求已经分配了输入和输出张量。

  在 C# 中编译模型并创建推理请求的方式:

CompiledModel compiled_model = core.compile_model(model, "AUTO");
InferRequest infer_request = compiled_model.create_infer_request();

  使用C++ API中编译模型并创建推理请求的方式:

CompiledModel compiled_model = core.compile_model(model, "AUTO");
InferRequest infer_request = compiled_model.create_infer_request();

6 张量Tensor

6.1 张量的获取与设置

  在创建推理请求后,系统会自动创建和分配输入和输出的张量,张量可以通过InferRequest 对象获得,并且可以自定义张量并加载到模型指定节点;可以根据张量的输入输出序号、名称以及模型节点Node对象获取和设置,主要C# API 如下:

API作用
InferRequest.set_tensor()设置要推断的输入/输出张量。
InferRequest.set_input_tensor()设置要推断的输入张量。
InferRequest.set_output_tensor()设置要推断的输出张量
InferRequest.get_tensor()获取用于推理的输入/输出张量。
InferRequest.get_input_tensor()获取用于推理的输入张量。
InferRequest.get_output_tensor()获取用于推理的输出张量。

6.2 张量的信息获取与设置

  张量中主要包含的信息有张量的形状(Shape)、张量的数据格式(OvType-> element.Type)以及张量中的内存数据。可以通过以下API方法操作张量的参数:

API作用
Tensor.set_shape ()给张量设置一个新的形状。
Tensor.get_shape()获取张量的形状。
Tensor.get_element_type()获取张量的数据类型。
Tensor.get_size()获取张量的数据长度。
Tensor.get_byte_size()获取张量的字节大小。
Tensor.data()获取张量的内存地址。
Tensor.set_data()将指定类型的数据加载到张量内存下。
Tensor.get_data()从张量中读取指定类型的数据。

  以上方法是对张量的一些基础操作,除了set_data、get_data是OpenVINO C# API独有的,其他接口都与C++API一致。

7 加载推理数据

7.1 获取输入张量

  对于单输入的模型可以直接通过get_input_tensor()方法获得,并调用Tensor的相关方法获取Tensor的相关信息,C# 代码如下所示:

Tensor input_tensor = infer_request.get_input_tensor();
Console.WriteLine("/------- [Input tensor] -------/");
Console.WriteLine("Input tensor type: {0}", input_tensor.get_element_type().to_string());
Console.WriteLine("Input tensor shape: {0}", input_tensor.get_shape().to_string());
Console.WriteLine("Input tensor size: {0}", input_tensor.get_size());

获取输出结果为:

/------- [Input tensor] -------/
Input tensor type: f32
Input tensor shape: Shape : {1, 3, 224, 224}
Input tensor size: 150528

对于上述的同样输出内容,我们也可以通过C++ API 实现,C++ 代码如下:

ov::Tensor input_tensor = infer_request.get_input_tensor();
std::cout << "/------- [Input tensor] -------/" << std::endl;
std::cout << "Input tensor type: " << input_tensor.get_element_type().c_type_string() << std::endl;
std::cout << "Input tensor shape: " << input_tensor.get_shape().to_string() << std::endl;
std::cout << "Input tensor size: " << input_tensor.get_size() << std::endl;

7.2 添加推理数据

  这一步主要是将处理好的图片数据加载到Tensor数据内存中,OpenVINO的API中提供了访问内存地址的接口,可以获取数据内存首地址,不过为了更好的加载推理数据,我们此处封装了set_data()方法,可以实现将处理后的图片数据加载到数据内存上。在C#中的代码为:

Mat input_mat = new Mat();
Shape input_shape = input_tensor.get_shape();
long channels = input_shape[1];
long height = input_shape[2];
long width = input_shape[3];
float[] input_data = new float[channels * height * width];
Marshal.Copy(input_mat.Ptr(0), input_data, 0, input_data.Length);
input_tensor.set_data(input_data);

下面是在C++中实现上述功能的代码:

cv::Mat input_mat;
float* input_data = input_tensor.data<float>();
ov::Shape input_shape = input_tensor.get_shape();
size_t channels = input_shape[1];
size_t height = input_shape[2];
size_t width = input_shape[3];
for (size_t c = 0; c < channels; ++c) {
  for (size_t h = 0; h < height; ++h) {
  	for (size_t w = 0; w < width; ++w) {
    	input_data[c * height * width + h * width + w] = input_mat.at<cv::Vec<float, 3>>(h, w)[c];
    }
  }
}

8 模型推理

  在加载完推理数据后,就可以调用模型推理的API方法推理当前数据,主要使用到的API方法为:

API作用
InferRequest.infer()在同步模式下推断指定的输入。

  调用该方法也较为简单,只需要调用该API接口即可,在C#中的代码为:

infer_request.infer();

C++中的代码与C++中一致。

9 获取推理结果

  对于单输出的模型可以直接通过get_output_tensor()方法获得,并调用Tensor的相关方法获取Tensor的相关信息,C# 代码如下所示:

Tensor output_tensor = infer_request.get_output_tensor();
Console.WriteLine("/------- [Output tensor] -------/");
Console.WriteLine("Output tensor type: {0}", output_tensor.get_element_type().to_string());
Console.WriteLine("Output tensor shape: {0}", output_tensor.get_shape().to_string());
Console.WriteLine("Output tensor size: {0}", output_tensor.get_size());

  获取输出output_tensor信息为:

/------- [Output tensor] -------/
Output tensor type: f32
Output tensor shape: Shape : {1, 1000}
Output tensor size: 1000

  对于输出Tensor,我们只需要读取输出内存上的数据即可,此处我们封装了get_data()方法,可以直接获取输出内存上的数据,在C#中的代码为:

float[] result = output_tensor.get_data<float>(1000);

同样获取推理结果,在C++中的代码为:

const float* output_data = output_tensor.data<const float>();
float result[1000];
for (int i = 0; i < 1000; ++i) {
    result[i] = *output_data;
    output_data++;
}

  在获取结果后,后续的处理需要根据模型的输出类型做相应的处理。

10 释放分配的内存

  由于C#在封装时采用的C API 接口实现的,因此在C#中会产生较多的 非托管内存,若该对象出现循环重复创建,会导致过多的内存未释放导致内存泄漏,因此对于临时创建的对象在使用后要即使销毁,销毁方式也较为简单,只需要调用对象的dispose()方法即可。

output_tensor.dispose();
input_shape.dispose();
infer_request.dispose();
compiled_model.dispose();
input.dispose();
output.dispose();
model.dispose();
core.dispose();

11 Yolov8分类模型示例

  下面代码展示了Yolov8分类模型使用OpenVINO C# API API方法部署模型的完整代码:

using OpenCvSharp;
using OpenCvSharp.Dnn;
using OpenVinoSharp;
using System.Data;
using System.Runtime.InteropServices;
namespace test_openvino_csharp_api
{
  internal class Program
  {
    static void Main(string[] args)
    {
      string model_path = "E:\\GitSpace\\ OpenVINO-CSharp-API \\model\\yolov8\\yolov8s-cls.xml";
      Core core = new Core(); // 初始化推理核心
      Model model = core.read_model(model_path); // 读取本地模型
      CompiledModel compiled_model = core.compile_model(model, "AUTO"); // 便哟模型到指定设备
      // 获取模型的输入输出信息
      Console.WriteLine("Model name: {0}", model.get_friendly_name());
      Input input = compiled_model.input();
      Console.WriteLine("/------- [In] -------/");
      Console.WriteLine("Input name: {0}", input.get_any_name());
      Console.WriteLine("Input type: {0}", input.get_element_type().to_string());
      Console.WriteLine("Input shape: {0}", input.get_shape().to_string());
      Output output = compiled_model.output();
      Console.WriteLine("/------- [Out] -------/");
      Console.WriteLine("Output name: {0}", output.get_any_name());
      Console.WriteLine("Output type: {0}", output.get_element_type().to_string());
      Console.WriteLine("Output shape: {0}", output.get_shape().to_string());
      // 创建推理请求
      InferRequest infer_request = compiled_model.create_infer_request();
      // 获取输入张量
      Tensor input_tensor = infer_request.get_input_tensor();
      Console.WriteLine("/------- [Input tensor] -------/");
      Console.WriteLine("Input tensor type: {0}", input_tensor.get_element_type().to_string());
      Console.WriteLine("Input tensor shape: {0}", input_tensor.get_shape().to_string());
      Console.WriteLine("Input tensor size: {0}", input_tensor.get_size());
      // 读取并处理输入数据
      Mat image = Cv2.ImRead(@"E:\GitSpace\ OpenVINO-CSharp-API \dataset\image\demo_7.jpg");
      Mat input_mat = new Mat();
      input_mat = CvDnn.BlobFromImage(image, 1.0 / 255.0, new Size(224, 224), 0, true, false);
      // 加载推理数据
      Shape input_shape = input_tensor.get_shape();
      long channels = input_shape[1];
      long height = input_shape[2];
      long width = input_shape[3];
      float[] input_data = new float[channels * height * width];
      Marshal.Copy(input_mat.Ptr(0), input_data, 0, input_data.Length);
      input_tensor.set_data(input_data);
      // 模型推理
      infer_request.infer(); 
      // 获取输出张量
      Tensor output_tensor = infer_request.get_output_tensor();
      Console.WriteLine("/------- [Output tensor] -------/");
      Console.WriteLine("Output tensor type: {0}", output_tensor.get_element_type().to_string());
      Console.WriteLine("Output tensor shape: {0}", output_tensor.get_shape().to_string());
      Console.WriteLine("Output tensor size: {0}", output_tensor.get_size());
       // 获取输出数据
      float[] result = output_tensor.get_data<float>(1000);
      List<float[]> new_list = new List<float[]> { };
      for (int i = 0; i < result.Length; i++)
      {
        new_list.Add(new float[] { (float)result[i], i });
      }
      new_list.Sort((a, b) => b[0].CompareTo(a[0]));
      KeyValuePair<int, float>[] cls = new KeyValuePair<int, float>[10];
      for (int i = 0; i < 10; ++i)
      {
        cls[i] = new KeyValuePair<int, float>((int)new_list[i][1], new_list[i][0]);
      }
      Console.WriteLine("\n Classification Top 10 result : \n");
      Console.WriteLine("classid probability");
      Console.WriteLine("------- -----------");
      for (int i = 0; i < 10; ++i)
      {
        Console.WriteLine("{0}   {1}", cls[i].Key.ToString("0"), cls[i].Value.ToString("0.000000"));
      }
      // 销毁非托管内存
      output_tensor.dispose();
      input_shape.dispose();
      infer_request.dispose();
      compiled_model.dispose();
      input.dispose();
      output.dispose();
      model.dispose();
      core.dispose();
    }
  }
}

12 总结

  在本文中我们基于模型推理流程,演示了OpenVINO C# API使用方法,并和OpenVINO C++API进行了对比,展示了OpenVINO C# API与C++API在使用的区别,这也对使用过C++ API的开发者十分友好,上手会十分容易。

  在本文中我们只展示了基础的模型推理流程代码,也对各个API进行了测试,针对其他比较高级的API方法,我们后续会继续进行测试其他API方法,向各位开发者展示其用法。

  总的来说,目前OpenVINO C# API已经完全支持在Windows环境下的安装使用,欢迎各位开发者安装使用,如有相关问题或优化方法,也欢迎大家提出意见与指导。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1097492.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

vue2 引用3D模型

一、首先安装对应的插件&#xff08;前往查看model-viewer&#xff09; # install peer dependency ThreeJS npm install three # install package npm install google/model-viewer二、页面直接引用组件&#xff08;例子&#xff09; <model-viewer style"width: 5…

Clion debug查看cv::Mat或多维数组的变量值

在使用Clion的debug模式查看变量的数据值时,一般在variable窗口下直接查看,比如: 可当变量为cv::Mat或其它类型的多维数组的,尤其当数组以指针或引用形式传递时,如cv::Mat& imgSrcL,在variable窗口下查看,会发现Clion只提供这个变量的维度和data的首个数据信息等,如…

科普向丨语音芯片烧录工艺的要求

语音芯片烧录工艺要求烧录精度、速度、内存容量、电源稳定性、兼容性和数据安全性。这些要素需优化和控制以保证生产高效、稳定、安全并烧录出高质量的语音芯片。不同厂家生产的语音芯片在烧录工艺上存在差异&#xff0c;需相应设计和研发以实现兼容。 一、烧录精度 语音芯片烧…

Nginx:URL重写(示意图+举例+配置讲解)

示意图&#xff1a; URL Rewrite URL Rewrite 是一种用于修改网站 URL 结构或改变 URL 路径的技术。它允许网站管理员修改 URL 的外观&#xff0c;使其更加友好、可读&#xff0c;并且有助于改善网站的搜索引擎优化&#xff08;SEO&#xff09;。通过 URL Rewrite&#xff0c;…

iCloud涨价不用慌!学会使用群晖生态将本地SSD“上云”

文章目录 前言本教程解决的问题是&#xff1a;按照本教程方法操作后&#xff0c;达到的效果是想使用群晖生态软件&#xff0c;就必须要在服务端安装群晖系统&#xff0c;具体如何安装群晖虚拟机请参考&#xff1a; 1. 安装并配置synology drive1.1 安装群辉drive套件1.2 在局域…

【应用程序代理对象ApplicationDelegate-应用程序启动过程介绍 Objective-C语言】

一、那我们接着昨天的内容,继续往下讲 1.有人对昨天最后这块儿内容有点儿晕,再捋一下吧, 1)我们刚开始的时候,是不是在Main.storyboard里面,放了一个按钮 2)我呢,想在点击按钮的时候,执行一些操作,对吧, 所以呢,我给它拖了一个事件, 拖到类实现里面, 3)那,首…

.NET Core/.NET6 使用DbContext 连接数据库,SqlServer

安装以下NuGet包 Microsoft.EntityFrameworkCore.SqlServer&#xff1a;SQL server 需要添加包 Microsoft.EntityFrameworkCore.Tools Newtonsoft.Json&#xff1a;用于Json格式转换 创建一个实体类来表示数据库表。在项目中创建一个名为Customer.cs的文件&#xff0c;并添加以…

国内原汁原味的免费sd训练工具--哩布哩布AI

作者简介&#xff1a;一名云计算网络运维人员、每天分享网络与运维的技术与干货。 公众号&#xff1a;网络豆云计算学堂 座右铭&#xff1a;低头赶路&#xff0c;敬事如仪 个人主页&#xff1a; 网络豆的主页​​​​​ 目录 写在前面 一.体验与操作 1.注册 2.为何可…

享搭低代码平台:加速企业应用开发,轻松搭建表单和报表

在当今快节奏的商业环境中&#xff0c;企业需要快速响应市场需求并提供高效的解决方案。然而&#xff0c;传统的应用开发过程繁琐、耗时&#xff0c;并且需要专业的编程技能。为了解决这些问题&#xff0c;享搭低代码平台应运而生。本文将详细介绍享搭低代码平台的特点和优势&a…

工信部新政策发布,算力基础设施建设即将提速!

前言&#xff1a;算力是集信息计算力、网络运载力、数据存储力于一体的新型生产力&#xff0c;主要通过算力基础设施向社会提供服务。算力基础设施对于实现数字化转型、培育未来产业&#xff0c;以及形成经济发展新动能等方面具有重要作用。 其中&#xff0c;提升算力的高效运载…

内网穿透的应用-轻松玩转群晖生态!使用内网穿透实现本地SSD数据云备份

文章目录 前言本教程解决的问题是&#xff1a;按照本教程方法操作后&#xff0c;达到的效果是想使用群晖生态软件&#xff0c;就必须要在服务端安装群晖系统&#xff0c;具体如何安装群晖虚拟机请参考&#xff1a; 1. 安装并配置synology drive1.1 安装群辉drive套件1.2 在局域…

Yolov安全帽佩戴检测 危险区域进入检测 - 深度学习 opencv 计算机竞赛

1 前言 &#x1f525; 优质竞赛项目系列&#xff0c;今天要分享的是 &#x1f6a9; Yolov安全帽佩戴检测 危险区域进入检测 &#x1f947;学长这里给一个题目综合评分(每项满分5分) 难度系数&#xff1a;3分工作量&#xff1a;3分创新点&#xff1a;4分 该项目较为新颖&am…

“地缘危机---通货紧缩风暴来袭,陷入深度困境!“

关于影响通胀动态的因素&#xff0c;我真正关注的是四个主要组成部分: 供应链 商品价格 工资 信用创造 “这些因素使我在2021年和2022年的通胀上升趋势以及2023年的下降趋势中保持正确的立场&#xff0c;因此我继续依赖它们作为未来通胀可能如何演变的指标。 ” …

js继承的几种方式(原型链继承、构造函数继承、组合式继承、寄生组合式继承、ES6的Class类继承)

1.原型链继承 实现原理&#xff1a;子类的原型指向父类实例。子类在自身实例上找不到属性和方法时去它父类实例&#xff08;父类实例和实例的原型对象&#xff09;上查找&#xff0c;从而实现对父类属性和方法的继承 缺点&#xff1a; 子类创建时不能传参&#xff08;即没有…

现货黄金滑点多少是正常的?

在大家熟悉的现货黄金交易软件MT4上&#xff0c;当订单被投放到市场之后&#xff0c;如果之前想要的价格已经不存在&#xff0c;订单就会以最接近其要求的价格执行&#xff0c;如果最终执行价比预期价格要高&#xff0c;则称为正向滑点&#xff0c;反之则为反向滑点。 从理论上…

【Docker】Docker网络及容器间通信详解

目录 背景 默认网络 1、bridge 网络模式 2、host 网络模式 3、none 网络模式 4、container 网络模式 自定义网络 容器间网络通信 IP通信 Docker DNS server Joined容器 前言 本实验通过docker DNS server和joined 容器两种方法实现Docker容器间的通信。Docker容器间…

12个VIM编辑器的高级玩法

vim 是一个很好用的编辑器&#xff0c;应用十分广泛。但关于 vim&#xff0c;总有一些你不知道的事情&#xff0c;我们需要持续不断的学习。 我经常使用 vim&#xff0c;也经常在各大社区、论坛看到 vim 专家用户分享经验&#xff0c;今天我们就总结其中常用的一部分&#xff…

语音识别whisper的介绍、安装、错误记录

介绍 Whisper是OpenAI于2022年9月份开源的通用的语音识别模型。它是在各种音频的大型数据集上训练的模型&#xff0c;也是一个可以执行多语言语音识别、语音翻译和语言识别的多任务模型。 论文链接&#xff1a;https://arxiv.org/abs/2212.04356 github链接&#xff1a;https:…

4d动感影院座椅5d动感影院体验馆大型7D互动影院

今天来讲一下市场上现在受欢迎的5d7d影院&#xff0c;组成部分&#xff0c;落地方案 5D影院的系统组成部分&#xff1a;1、动感座椅、2、投影幕(银幕)和投影机、3、音箱、4、各种的动感特效、5、5d影院眼镜&#xff0c;很简单的组成硬件&#xff0c;就可以组成一套的5d影院设备…

Windows工业三防平板全功能NFC近距离感应一维/二维扫描

Windows系统工业三防平板电脑是一种在智慧工厂仓储物流、MES数采、车载设备、设备检测、自动化控制等领域广泛应用的先进设备。此外&#xff0c;它还在公共服务领域&#xff0c;如高速交通、物流运输、电力检测、公务执法、银行金融、船舶装备、户外勘测、建筑工程、汽车检测、…