树莓派 AI 摄像头(Raspberry Pi AI Camera)教程

news2024/11/28 12:33:19

系列文章目录


前言

        人们使用 Raspberry Pi 产品构建人工智能项目的时间几乎与我们生产 Raspberry Pi 的时间一样长。随着我们发布功能越来越强大的设备,我们能够支持的原生应用范围也在不断扩大;但无论哪一代产品,总会有一些工作负载需要外部加速器,比如我们在 6 月份推出的 Raspberry Pi AI Kit。

        AI Kit 是一款功能强大的硬件,每秒可执行 13 万亿次运算。但它只与 Raspberry Pi 5 兼容,而且需要一个单独的摄像头模块来捕捉视觉数据。因此,我们非常高兴地宣布,我们的摄像头产品线又添新成员:Raspberry Pi AI 摄像头。

        AI 相机采用索尼 IMX500 图像传感器,并集成了 AI 加速器。它可以运行各种流行的神经网络模型,具有低功耗和低延迟的特点,让 Raspberry Pi 中的处理器可以执行其他任务。

Raspberry Pi AI 摄像头的主要功能包括

  • 12 MP 索尼 IMX500 智能视觉传感器
  • 传感器模式 4056×3040(10fps),2028×1520(30fps
  • 1.55 微米 × 1.55 微米单元尺寸
  • 78 度视场角,可手动调节焦距
  • 集成 RP2040,用于神经网络和固件管理

        AI 摄像头可使用我们的普通摄像头带状电缆连接到所有型号的 Raspberry Pi,包括 Raspberry Pi Zero。

 

        利用索尼的人工智能工具套件,可以将使用 TensorFlow 或 PyTorch 等框架的现有神经网络模型转换为可在人工智能相机上高效运行的模型。此外,还可以设计新的模型,以利用人工智能加速器的特定功能。

0.1 引擎盖下

        要使用集成的人工智能加速器,我们必须先上传一个模型。在较老的 Raspberry Pi 设备上,这一过程使用的是 I2C 协议,而在 Raspberry Pi 5 上,我们可以使用速度更快的定制双线协议。link 的摄像头端由板载 RP2040 微控制器管理;附加的 16MB 闪存设备会缓存最近使用过的模型,使我们在很多情况下可以跳过上传步骤。

        一旦传感器开始传输数据流,IMX500 就会像标准的拜耳图像传感器一样工作,就像 Raspberry Pi 摄像头模块 3 上的传感器一样。集成的图像信号处理器(ISP)对传感器帧执行基本的图像处理步骤(主要是贝叶到 RGB 的转换和裁剪/缩放),并将处理后的帧直接输入人工智能加速器。神经网络模型处理完帧后,其输出与拜耳帧一起通过 CSI-2 摄像头总线传输到主机 Raspberry Pi。 

0.2 与 Raspberry Pi libcamera 集成

        AI 摄像头的一个主要优势是与我们的 Raspberry Pi 摄像头软件栈无缝集成。在引擎盖下,libcamera 使用我们自己的 ISP 处理拜耳帧,就像处理任何传感器一样。

        我们还解析神经网络结果,生成输出张量,并将其与处理后的拜尔帧同步。这两个结果都会在 libcamera 的请求完成步骤中返回给应用程序。

        Raspberry Pi 相机框架(Picamera2 和 rpicam-apps)以及任何基于 libcamera 的应用程序都能检索输出张量,并与传感器帧正确同步。下面是一个在 rpicam-apps 下运行的物体检测神经网络模型(MobileNet SSD)的示例,该模型对 30fps 的 1080p 视频进行推理。

        该演示使用 rpicam-apps 中的后处理框架,从输出张量中生成对象边界框,并将其绘制到图像上。这一阶段的实现不超过 300 行代码。而使用 Python 和 Picamera2 构建的同等应用程序所需的代码行数要少得多。

        下面的另一个示例显示了姿势估计神经网络模型 (PoseNet) 以 30fps 的速度在 1080p 视频上执行推理。

        虽然这些示例是使用 Raspberry Pi 4 录制的,但它们在 Raspberry Pi Zero 上运行时也具有相同的推理性能!

        我们与索尼公司合作,在我们的模型动物园中发布了许多针对 AI 相机优化的流行视觉神经网络模型,以及使用 Picamera2 的可视化示例脚本。

0.3 我应该购买哪种产品?

        您应该购买 Raspberry Pi AI Kit 还是 Raspberry Pi AI Camera?AI 套件的理论性能比 AI 摄像头高,可支持更多型号,但只兼容 Raspberry Pi 5。AI 摄像头更小巧,如果您还没有摄像头,总成本更低,而且兼容所有型号的 Raspberry Pi。

        最终,这两款产品都能为普通型号提供出色的加速性能,而且都经过了优化,能与我们的相机软件堆栈顺利配合使用。

0.4 入门和更进一步

        查看我们的入门指南。在这里,您可以找到有关安装人工智能相机硬件、设置软件环境以及在我们的模型动物园中运行示例和神经网络的说明。

        索尼的 AITRIOS 开发者网站上有更多关于 IMX500 传感器的技术资源,特别是 IMX500 转换器和 IMX500 软件包文档,这对希望在 AI 相机上运行自定义训练网络的用户非常有用。

        您多年来使用 Raspberry Pi 构建的令人难以置信的人工智能项目给了我们很大的启发,您的辛勤工作和创造力鼓励我们投资工具,帮助您更进一步。先是 AI Kit,现在又是 AI Camera,它们的到来为高分辨率、高帧率、高质量的视觉 AI 开启了一个全新的世界:我们不知道你们会用它们构建出什么,但我们相信一定会很棒。


一、入门

        Raspberry Pi AI 摄像头使用索尼 IMX500 成像传感器,可为任何摄像头应用提供低延迟和高性能的 AI 功能。与 Raspberry Pi 的相机软件栈紧密集成后,用户只需花最少的精力就能部署自己的神经网络模型。

        本节演示了如何在相机上运行预装或自定义神经网络模型。此外,本节还包括在 rpicam-apps 和 Picamera2 中解释在 IMX500 上运行的神经网络生成的推理数据所需的步骤。

 1.1 前提条件

        这些说明假定您正在使用连接到 Raspberry Pi 4 Model B 或 Raspberry Pi 5 板上的 AI 摄像头。只要稍作改动,您就可以在其他带有摄像头连接器的 Raspberry Pi 型号上使用这些说明,包括 Raspberry Pi Zero 2 W 和 Raspberry Pi 3 Model B+。

        首先,确保你的 Raspberry Pi 运行最新的软件。运行以下命令更新:

sudo apt update && sudo apt full-upgrade

1.2 安装 IMX500 固件

        在启动过程中,AI 摄像机必须将运行时固件下载到 IMX500 传感器上。要将这些固件文件安装到 Raspberry Pi 上,请运行以下命令:

sudo apt install imx500-all

        该命令

  • 安装运行 IMX500 传感器所需的 /lib/firmware/imx500_loader.fpk 和 /lib/firmware/imx500_firmware.fpk 固件文件
  • 在 /usr/share/imx500-models/ 中放置大量神经网络模型固件文件
  • 在 rpicam-apps 中安装 IMX500 后期处理软件阶段
  • 安装索尼网络模型打包工具

注意事项
        IMX500 内核设备驱动程序会在相机启动时加载所有固件文件。如果神经网络模型固件之前没有缓存,这可能需要几分钟时间。下面的演示会在控制台上显示一个进度条,以显示固件加载进度。

1.3 重新启动

        现在您已经安装了先决条件,请重启您的 Raspberry Pi:

sudo reboot

二、运行示例应用程序

        一旦更新了所有系统软件包并安装了固件文件,我们就可以开始运行一些示例应用程序了。如前所述,Raspberry Pi AI 摄像头与 libcamera、rpicam-apps 和 Picamera2 完全集成。

2.1 rpicam-apps

        rpicam-apps 相机应用程序包括 IMX500 物体检测和姿态估计阶段,可在后处理管道中运行。有关后处理管道的更多信息,请参阅后处理文档。

        本页上的示例使用位于 /usr/share/rpicam-assets/ 的后处理 JSON 文件。

2.1.1 物体检测

        MobileNet SSD 神经网络执行基本的对象检测,为找到的每个对象提供边界框和置信度值。imx500_mobilenet_ssd.json 包含使用 MobileNet SSD 神经网络的 IMX500 对象检测后处理阶段的构型参数。

        imx500_mobilenet_ssd.json 声明了包含两个阶段的后处理管道:

        imx500_mobilenet_ssd,在输出张量中拾取神经网络生成的边界框和置信度值

        object_detect_draw_cv,在图像上绘制边框和标签

        MobileNet SSD 张量无需在 Raspberry Pi 上进行大量后处理即可生成边界框的最终输出。所有物体检测都直接在人工智能相机上运行。

        以下命令运行 rpicam-hello,并进行物体检测后处理:

rpicam-hello -t 0s --post-process-file /usr/share/rpi-camera-assets/imx500_mobilenet_ssd.json --viewfinder-width 1920 --viewfinder-height 1080 --framerate 30

        运行该命令后,你会看到一个取景器,在神经网络识别的对象上叠加了边界框:

        要录制带物体检测叠加的视频,请使用 rpicam-vid 代替。以下命令将运行带有物体检测后处理功能的 rpicam-hello:

rpicam-vid -t 10s -o output.264 --post-process-file /usr/share/rpi-camera-assets/imx500_mobilenet_ssd.json --width 1920 --height 1080 --framerate 30

        您可以通过多种方式配置 imx500_object_detection 阶段。

        例如,max_detections 定义了管道在任何给定时间内检测到的对象的最大数量,threshold 定义了管道将任何输入视为对象所需的最小置信度值。

        该网络的原始推理输出数据可能会有相当大的噪声,因此该阶段也会执行一些时间过滤并应用滞后。要禁用这种过滤,请移除 temporal_filter 配置块。

2.1.2 姿势估计

        PoseNet 神经网络执行姿态估计,标记身体上与关节和四肢相关的关键点。imx500_posenet.json 包含使用 PoseNet 神经网络的 IMX500 姿态估计后处理阶段的构型参数。

        imx500_posenet.json 声明了包含两个阶段的后处理流水线:

        imx500_posenet,从 PoseNet 神经网络获取原始输出张量

        plot_pose_cv,用于在图像上绘制线条叠加图

        人工智能相机可执行基本的检测,但输出张量需要在 Raspberry Pi 主机上进行额外的后处理,以产生最终输出。

        以下命令运行 rpicam-hello,并进行姿态估计后处理:

rpicam-hello -t 0s --post-process-file /usr/share/rpi-camera-assets/imx500_posenet.json --viewfinder-width 1920 --viewfinder-height 1080 --framerate 30

        您可以通过多种方式配置 imx500_posenet 阶段。

        例如,max_detections 定义了管道在任何给定时间内检测到的体的最大数量。 threshold 定义了管道将输入视为体所需的最小置信度值。

2.2 Picamera2

        有关使用 Picamera2 进行图像分类、物体检测、物体分割和姿态估计的示例,请参阅 picamera2 GitHub 存储库。

        大多数示例都使用 OpenCV 进行了一些额外处理。要安装运行 OpenCV 所需的依赖项,请运行以下命令:

sudo apt install python3-opencv python3-munkres

        现在下载 picamera2 软件源到你的 Raspberry Pi 上运行示例。您会在根目录下找到示例文件,其他信息请参见 README.md 文件。

        运行软件源中的以下脚本来运行 YOLOv8 对象检测:

python imx500_object_detection_demo.py --model /usr/share/imx500-models/imx500_network_yolov8n_pp.rpk --ignore-dash-labels -r

        要尝试在 Picamera2 中进行姿势估计,请运行软件源中的以下脚本:

python imx500_pose_estimation_higherhrnet_demo.py

三、引擎盖下

3.1 概述

        如下图所示,Raspberry Pi AI 摄像头的工作原理与传统的基于人工智能的摄像头图像处理系统不同:

        左侧展示了传统人工智能摄像头系统的架构。在这种系统中,摄像头向树莓派(Raspberry Pi)发送图像。Raspberry Pi 处理图像,然后执行人工智能推理。传统系统可能使用外部人工智能加速器(如图所示),也可能完全依赖于 CPU。

        右侧展示了使用 IMX500 的系统架构。摄像头模块包含一个小型图像信号处理器(ISP),可将原始摄像头图像数据转化为输入张量。摄像头模块将该张量直接发送到摄像头内的人工智能加速器,人工智能加速器产生一个包含推理结果的输出张量。人工智能加速器将该张量发送到 Raspberry Pi。无需外部加速器,Raspberry Pi 也无需在 CPU 上运行神经网络软件。

        要充分理解这个系统,请先熟悉以下概念:

  • 输入张量

        传感器图像中传递给人工智能引擎进行推理的部分。由一个小型板载 ISP 生成,它还会将摄像头图像裁剪并缩放至已加载的神经网络所期望的尺寸。输入张量通常不向应用程序提供,但可以为调试目的进行访问。

  • 感兴趣区域 (ROI)

        精确指定传感器图像在重新缩放为神经网络所需的尺寸之前被裁剪掉的部分。可由应用程序进行查询和设置。使用的单位始终是全分辨率传感器输出中的像素。默认 ROI 设置使用从传感器接收到的完整图像,不裁剪任何数据。

  • 输出张量

        神经网络执行推理的结果。输出的精确数量和形状取决于神经网络。应用代码必须了解如何处理张量。

3.2 系统架构

        下图显示了在我们的成像/推理用例中使用的各种相机软件组件(绿色)和 Raspberry Pi AI 相机模块硬件(红色):

        启动时,IMX500 传感器模块加载固件以运行特定的神经网络模型。在流式传输过程中,IMX500 会生成图像流和推理流。推理流包含神经网络模型的输入和输出,也称为输入/输出张量。

3.3 设备驱动程序

        在最底层,IMX500 传感器内核驱动程序通过 I2C 总线构型相机模块。CSI2 驱动程序(在 Pi 5 上为 CFE,在所有其他 Pi 平台上为 Unicam)设置接收器,将图像数据流写入帧缓冲区,同时将嵌入式数据和推理数据流写入内存中的另一个缓冲区。

        固件文件也通过 I2C 总线传输。大多数设备使用标准的 I2C 协议,但 Raspberry Pi 5 使用定制的高速协议。内核中的 RP2040 SPI 驱动程序负责处理固件文件传输,因为传输使用的是 RP2040 微控制器。微控制器通过 SPI 总线连接内核与 IMX500 之间的 I2C 传输。此外,RP2040 还将固件文件缓存在板载存储器中。这就避免了通过 I2C 总线传输整个固件包的需要,大大加快了已使用固件的加载速度。

3.3.1 libcamera

        libcamera 从内核中脱队图像和推理数据缓冲区后,IMX500 特定的 cam-helper 库(libcamera 中 Raspberry Pi IPA 的一部分)会解析推理缓冲区,以访问输入/输出张量。libcamera 返回以下控件:

ControlDescription

CnnOutputTensor

存储输出张量的浮点数组。

CnnInputTensor

存储输入张量的浮点数组。

CnnOutputTensorInfo

描述输出张量结构的网络特定参数:

struct OutputTensorInfo {
	uint32_t tensorDataNum;
	uint32_t numDimensions;
	uint16_t size[MaxNumDimensions];
};

struct CnnOutputTensorInfo {
	char networkName[NetworkNameLen];
	uint32_t numTensors;
	OutputTensorInfo info[MaxNumTensors];
};

CnnInputTensorInfo

描述输入张量结构的网络特定参数:

struct CnnInputTensorInfo {
	char networkName[NetworkNameLen];
	uint32_t width;
	uint32_t height;
	uint32_t numChannels;
};

3.3.2 rpicam-apps

        rpicam-apps 提供了一个 IMX500 后处理阶段基类,用于实现 IMX500 后处理阶段的帮助程序: IMX500PostProcessingStage。使用该基类可为在 IMX500 上运行的任何神经网络模型派生一个新的后处理阶段。有关示例,请参阅 imx500_mobilenet_ssd.cpp:

class ObjectInference : public IMX500PostProcessingStage
{
public:
	ObjectInference(RPiCamApp *app) : IMX500PostProcessingStage(app) {}

	char const *Name() const override;

	void Read(boost::property_tree::ptree const &params) override;

	void Configure() override;

	bool Process(CompletedRequestPtr &completed_request) override;
};

        对于应用程序接收到的每一帧,都会调用 Process() 函数(上述情况中为 ObjectInference::Process())。在该函数中,您可以提取输出张量,以便进一步处理或分析:

auto output = completed_request->metadata.get(controls::rpi::CnnOutputTensor);
if (!output)
{
  LOG_ERROR("No output tensor found in metadata!");
  return false;
}

std::vector<float> output_tensor(output->data(), output->data() + output->size());

        一旦完成,最终结果可以可视化或保存在元数据中,由另一个下游阶段或顶层应用程序本身使用。在对象推理案例中

if (objects.size())
  completed_request->post_process_metadata.Set("object_detect.results", objects);

        下游运行的 object_detect_draw_cv 后处理阶段会从元数据中获取这些结果,并在 ObjectDetectDrawCvStage::Process() 函数中将边界框绘制到图像上:

std::vector<Detection> detections;
completed_request->post_process_metadata.Get("object_detect.results", detections);

        下表包含 IMX500PostProcessingStage 提供的全部辅助函数:

FunctionDescription

Read()

该函数通常从 <Derived Class>::Read() 中调用,用于读取输入张量解析和保存的配置参数。该函数还读取神经网络模型文件字符串(“network_file”)并设置固件,以便在相机打开时加载。

Process()

该函数通常从 <Derived Class>::Process() 中调用,如果 JSON 配置文件需要,它将处理输入张量并将其保存到文件中。

SetInferenceRoiAbs()

设置传感器图像上的绝对感兴趣区域 (ROI) 裁剪矩形,用于 IMX500 的推断。

SetInferenceRoiAuto()

自动计算传感器图像上的感兴趣区域(ROI)裁剪矩形,以保持给定神经网络的输入张量宽高比。

ShowFwProgressBar()

在控制台上显示一个进度条,显示神经网络固件上传到 IMX500 的进度。

ConvertInferenceCoordinates()

从输入张量坐标空间转换到最终的 ISP 输出图像空间。从原始传感器图像到完全处理后的 ISP 输出图像,会发生许多缩放/裁剪/平移操作。该函数将输出张量提供的坐标转换为执行这些操作后的等效坐标。

3.3.3 Picamera2

        Picamera2 中的 IMX500 集成与 rpicam-apps 中的集成非常相似。Picamera2 有一个 IMX500 辅助类,提供与 rpicam-apps IMX500PostProcessingStage 基类相同的功能。该类可通过以下方式导入任何 python 脚本:

from picamera2.devices.imx500 import IMX500

# This must be called before instantiation of Picamera2
imx500 = IMX500(model_file)

        要检索输出张量,可从控件中获取。然后,您可以在 python 脚本中进行额外处理。

        例如,在 imx500_object_detection_demo.py 等对象推理用例中,会在 parse_detections() 中提取对象边框和置信度值,并在 draw_detections() 中在图像上绘制边框:

class Detection:
    def __init__(self, coords, category, conf, metadata):
        """Create a Detection object, recording the bounding box, category and confidence."""
        self.category = category
        self.conf = conf
        obj_scaled = imx500.convert_inference_coords(coords, metadata, picam2)
        self.box = (obj_scaled.x, obj_scaled.y, obj_scaled.width, obj_scaled.height)

def draw_detections(request, detections, stream="main"):
    """Draw the detections for this request onto the ISP output."""
    labels = get_labels()
    with MappedArray(request, stream) as m:
        for detection in detections:
            x, y, w, h = detection.box
            label = f"{labels[int(detection.category)]} ({detection.conf:.2f})"
            cv2.putText(m.array, label, (x + 5, y + 15), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 0, 255), 1)
            cv2.rectangle(m.array, (x, y), (x + w, y + h), (0, 0, 255, 0))
        if args.preserve_aspect_ratio:
            b = imx500.get_roi_scaled(request)
            cv2.putText(m.array, "ROI", (b.x + 5, b.y + 15), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (255, 0, 0), 1)
            cv2.rectangle(m.array, (b.x, b.y), (b.x + b.width, b.y + b.height), (255, 0, 0, 0))

def parse_detections(request, stream='main'):
    """Parse the output tensor into a number of detected objects, scaled to the ISP out."""
    outputs = imx500.get_outputs(request.get_metadata())
    boxes, scores, classes = outputs[0][0], outputs[1][0], outputs[2][0]
    detections = [ Detection(box, category, score, metadata)
                   for box, score, category in zip(boxes, scores, classes) if score > threshold]
    draw_detections(request, detections, stream)

        与 rpicam-apps 示例不同的是,本示例没有应用额外的滞后或时间滤波。

        Picamera2 中的 IMX500 类提供了以下辅助功能:

FunctionDescription

IMX500.get_full_sensor_resolution()

返回 IMX500 传感器的全分辨率。

IMX500.config

返回神经网络构型的字典。

IMX500.convert_inference_coords(coords, metadata, picamera2)

将坐标从输入张量坐标空间转换到最终的 ISP 输出图像空间。必须传递 Picamera2 的图像元数据和 Picamera2 对象。从原始传感器图像到完全处理后的 ISP 输出图像之间会发生许多缩放/剪切/平移操作。该函数将输出张量提供的坐标转换为执行这些操作后的等效坐标。

IMX500.show_network_fw_progress_bar()

在控制台上显示一个进度条,显示神经网络固件上传到 IMX500 的进度。

IMX500.get_roi_scaled(request)

返回 ISP 输出图像坐标空间中的感兴趣区域 (ROI)。

IMX500.get_isp_output_size(picamera2)

返回 ISP 输出图像大小。

IMX5000.get_input_size()

根据使用的神经网络模型返回输入张量大小。

IMX500.get_outputs(metadata)

从 Picamera2 图像元数据元数据返回输出张量。

IMX500.get_output_shapes(metadata)

根据所使用的神经网络模型,从 Picamera2 图像元数据中返回输出张量的形状。

IMX500.set_inference_roi_abs(rectangle)

设置感兴趣区域 (ROI) 裁剪矩形,该矩形决定传感器图像的哪一部分被转换为输入张量,用于 IMX500 的推理。兴趣区域应以传感器全分辨率下的像素为单位,指定为一个(x_offset、y_offset、width、height)元组。

IMX500.set_inference_aspect_ratio(aspect_ratio)

自动计算传感器图像上的感兴趣区域(ROI)裁剪矩形,以保持给定的长宽比。要使 ROI 长宽比与该网络的输入张量完全匹配,请使用 imx500.set_inference_aspect_ratio(imx500.get_input_size())。

IMX500.get_kpi_info(metadata)

返回 IMX500 针对给定图像元数据记录的帧级性能指标。

四、模型部署

        要在 Raspberry Pi AI 摄像头上部署新的神经网络模型,请完成以下步骤:

  1. 提供一个神经网络模型。
  2. 量化并压缩模型,使其能够使用 IMX500 摄像头模块上的可用资源运行。
  3. 将压缩后的模型转换为 IMX500 格式。
  4. 将模型打包成固件文件,以便在运行时加载到相机上。

        前三个步骤通常在台式机或服务器等功能更强大的计算机上执行。您必须在 Raspberry Pi 上运行最后的打包步骤。

4.1 创建模型

        神经网络模型的创建超出了本指南的范围。现有模型可以重复使用,也可以使用 TensorFlow 或 PyTorch 等流行框架创建新模型。

        更多信息,请参阅 AITRIOS 开发者官方网站。

4.2 量化和压缩

        使用索尼模型压缩工具包对模型进行量化和压缩。要安装该工具包,请运行以下命令:

pip install model_compression_toolkit

        更多信息,请参阅索尼模型优化 GitHub 代码库。

        模型压缩工具包以下列格式生成量化模型:

  • Keras (TensorFlow)
  • ONNX(PyTorch)

4.3 转换

        要转换模型,首先要安装转换工具:

pip install imx500-converter[tf]

提示
        始终使用与压缩模型时相同版本的 TensorFlow。

pip install imx500-converter[pt]

        如果需要安装这两个软件包,请使用两个独立的 Python 虚拟环境。这样可以防止 TensorFlow 和 PyTorch 相互冲突。

        接下来,转换模型:

imxconv-tf -i <compressed Keras model> -o <output folder>
imxconv-pt -i <compressed ONNX model> -o <output folder>

        这两个命令都会创建一个输出文件夹,其中包含一份内存使用报告和一个 packerOut.zip 文件。

        有关模型转换过程的更多信息,请参阅索尼 IMX500 转换器官方文档。

4.4 包装

重要事项
        必须在 Raspberry Pi 上运行此步骤。

        最后一步是将模型打包成 RPK 文件。运行神经网络模型时,我们将把该文件上传到 AI 相机。在继续之前,请运行以下命令安装必要的工具:

sudo apt install imx500-tools

        要将模型打包成 RPK 文件,请运行以下命令:

imx500-package.sh -i <path to packerOut.zip> -o <output folder>

        该命令将在输出文件夹中创建一个名为 network.rpk 的文件。你将把这个文件的名称传递给你的 IMX500 相机应用程序。

        有关更全面的说明和所用工具的更多细节,请参阅索尼 IMX500 Packager 文档。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2186737.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot介绍及整合Mybatis Plus

目录 SpringBoot背景及特点 SpringBoot整合Mybatis Plus SpringBoot背景及特点 SpringBoot的设计目是抛弃之前Spring、SpringMVC繁杂的配置过程&#xff0c;简化开发过程。之前的Spring框架需要大量的手动配置&#xff0c;包括XML配置文件或Java配置类&#xff0c;配置过程繁…

深入理解 Git 一个开发者的必备工具

深入理解 Git 一个开发者的必备工具 演示地址 演示地址 获取更多 获取更多 在现代软件开发中&#xff0c;版本控制系统扮演着至关重要的角色。其中&#xff0c;Git 是最流行的选择之一。无论你是新手还是有经验的开发者&#xff0c;了解 Git 的基本概念和使用方法都能大大提…

YOLO v11实时目标检测3:训练数据集格式说明

一、Yolov11简介 YOLOv11 是 YOLO 系列的最新版本&#xff0c;它不仅在目标检测方面表现出色&#xff0c;还引入了对象分割和多目标跟踪的功能。本文将介绍如何使用 YOLOv11 进行人流统计、车流统计以及跟踪的实际应用。 二、Yolo v11训练数据集格式说明 2.1 数据组织&#…

SAT分离轴定理的c++/python实现

分离轴定理的c/python实现 现在要对BEV模型检查出来的车辆做NMS&#xff0c;把3d框的平面属性获取到后&#xff0c;配合旋转角度投影到地面就是2D图形。 开始碰撞检测&#xff0c;判断是否重叠&#xff0c;保留置信度高的框就行。 原理 分离轴定理&#xff08;Separating A…

(C语言贪吃蛇)11.贪吃蛇方向移动和刷新界面一起实现面临的问题

目录 前言 实现效果 支持方向变换 修改默认效果 如何修改 总结 前言 我们上节实现了不需要按下右键就可以是贪吃蛇自发的向右移动&#xff0c;本节我们主要来解决贪吃蛇方向移动和刷新界面所遇到的问题。 实现效果 上图是我们希望实现的效果&#xff0c;我们可以自发地控…

Go 进阶:Go + gin 极速搭建 EcommerceSys 电商系统

Go 进阶:Go + gin 极速搭建 EcommerceSys 电商系统 前言 本章节适合有一定基础的 Golang 初学者,通过简单的项目实践来加深对 Golang 的基本语法和 Web 开发的理解。 具体请联系作者 项目结构 项目流程图 技术栈 项目结构 项目路由 4. 项目模型 项目初始化 初始化项目文…

归并排序【C语言版-笔记】

目录 一、概念二、排序流程理解三、代码实现3.1主调函数3.2 merge函数 四、性能分析 一、概念 归并是一种算法思想&#xff0c;是将两个或两个一上的有序表合并成一个长度较大的有序表。若一开始无序表中有n个元素&#xff0c;可以把n个元素看作n个有序表&#xff0c;把它们两…

Java中数据转换以及字符串的“+”操作

隐式转换&#xff08;自动类型转换&#xff09; 较小范围的数据类型转成较大范围的数据类型 强制转换&#xff08;显式转换&#xff09; 将数据范围大的数据类型转换为数据范围小的数据类型 基本数据类型之间的转换 当需要将一个较大的数据类型&#xff08;如float或double…

Linux:进程控制(一)

目录 一、写时拷贝 1.创建子进程 2.写时拷贝 二、进程终止 1.函数返回值 2.错误码 3.异常退出 4.exit 5._exit 一、写时拷贝 父子进程&#xff0c;代码共享&#xff0c;不作写入操作时&#xff0c;数据也是共享的&#xff0c;当任意一方试图写入&#xff0c;便通过写时拷…

影刀RPA实战:excel相关图片操作指令解

1.实战目标 excel是工作中必不缺少的工具&#xff0c;今天我们继续使用影刀RPA来实现excel操作的便利性&#xff0c;让影刀自动化来帮我们完成工作。 2.单元格填充图片 2.1 指令说明 功能&#xff1a;向 Excel 单元格插入本地图片或网络图片&#xff0c;支持Office和WPS&…

波阻抗,是电场矢量的模值/磁场矢量的模值

波阻抗是电场复振幅除以磁场复振幅&#xff0c;最后只与介质με有关 所以磁场可用电场强度表示&#xff08;利用波阻抗&#xff09; 问题&#xff0c;复振幅是矢量&#xff0c;波阻抗的定义是复振幅的比值&#xff1f;答案&#xff1a;不是&#xff0c;很明显&#xff0c;波阻…

Web3 游戏周报(9.22 - 9.28)

回顾上周的区块链游戏概况&#xff0c;查看 Footprint Analytics 与 ABGA 最新发布的数据报告。 【9.22-9.28】Web3 游戏行业动态&#xff1a; Axie Infinity 将 Fortune Slips 的冷却时间缩短至 24 小时&#xff0c;从而提高玩家的收入。 Web3 游戏开发商 Darkbright Studios…

Pikachu-Sql Inject-搜索型注入

MySQL的搜索语句&#xff1a; select * from table where column like %text%&#xff1b; 如&#xff1a;使用引号闭合左边的引号&#xff0c; or 11 把所有数据查询出来&#xff1b; # 注释掉后面的 引号等&#xff1b; test or 11# 查询出结果&#xff1a; 注入的核心点…

Cloneable接口(浅拷贝和深拷贝的区别)

前言 Object类中存在这一个clone方法&#xff0c;调用这个方法可以创建一个对象的“拷贝”。但是想要合法调用clone方法&#xff0c;必须要先实现Clonable接口&#xff0c;否则就会抛出CloneNotSupportedException异常。 1 Cloneable接口 //Cloneable接口声明 public interf…

CentOS 7文件系统

从centos7开始&#xff0c;默认的文件系统从ext4变成了XFS。随着虚拟化的应用越来越广泛&#xff0c;作为虚拟化磁盘来源的大文件&#xff08;单个文件几GB级别&#xff09;越来越常见。 1.XFS组成部分&#xff1a; XFS文件系统在数据的分布上主要划分为三部分&#xff1a;数据…

QT篇:QT介绍

一.QT概述 Qt 是一个跨平台的应用程序和用户界面框架&#xff0c;用于开发图形用户界面&#xff08;GUI&#xff09;应用程序以及命令行工 具。它最初由挪威的 Trolltech &#xff08;奇趣科技&#xff09;公司开发&#xff0c;现在由 Qt Company 维护&#xff0c;2020年12月8…

如何在网格中模拟腐烂扩散:如何使用广度优先搜索(BFS)解题

问题描述 你需要在一个二维的网格中处理橘子的腐烂扩散过程&#xff0c;网格中的每个单元格可以有三种状态&#xff1a; 0&#xff1a;表示空格&#xff0c;没有橘子。1&#xff1a;表示一个新鲜的橘子。2&#xff1a;表示一个腐烂的橘子&#xff0c;它可以在 1 分钟内让上下…

模拟算法(1)_替换所有的问号

个人主页&#xff1a;C忠实粉丝 欢迎 点赞&#x1f44d; 收藏✨ 留言✉ 加关注&#x1f493;本文由 C忠实粉丝 原创 模拟算法(1)_替换所有的问号 收录于专栏【经典算法练习】 本专栏旨在分享学习算法的一点学习笔记&#xff0c;欢迎大家在评论区交流讨论&#x1f48c; 目录 1. …

MHA携手Atlas:打造高效读写分离解决方案,引领数据库性能飞跃

作者简介&#xff1a;我是团团儿&#xff0c;是一名专注于云计算领域的专业创作者&#xff0c;感谢大家的关注 座右铭&#xff1a; 云端筑梦&#xff0c;数据为翼&#xff0c;探索无限可能&#xff0c;引领云计算新纪元 个人主页&#xff1a;团儿.-CSDN博客 目录 前言&#…

npm切换到淘宝镜像

1、输入以下命令后回车&#xff0c;npm切换至淘宝镜像 npm config set registry https://registry.npmmirror.com 2、输入以下命令后回车&#xff0c;检查是否切换成功 npm config get registry 若返回此信息&#xff0c;表示切换成功 3、切换后就可使用淘宝镜像加快npm包的…