无人机检测车辆——多目标检测

news2024/11/17 3:44:29

目录

YOLOv3(You Only Look Once version 3)简介

YOLOv3 的主要特点

YOLOv3 的结构

1. 特征提取网络(Backbone)

2. 检测头(Head)

3. 输出层

YOLOv3 损失函数

YOLOv3 的优势

YOLOv3 的应用

YOLOv3 的局限性

实现思路

1. 加载模型和配置文件:

2. 视频读取:

3. 初始化跟踪器:

4. YOLOv3目标检测:

5. 目标跟踪:

6. 结果展示:

7. 资源释放:

整体代码

效果图

总结



YOLOv3(You Only Look Once version 3)简介

        YOLOv3 是一种目标检测模型,它是 YOLO(You Only Look Once)系列模型的第三个版本,主要改进了之前版本的精度和速度。YOLOv3 可以在单次推理中同时识别图像中的多个目标,它通过回归问题将目标检测任务转化为一个单一的回归问题,从而实现了非常高的检测速度。YOLOv3 在速度和精度之间提供了良好的平衡,成为了工业和学术界广泛使用的目标检测模型。

        YOLOv3 由 Joseph Redmon 和 Santosh Divvala 等人提出,主要的创新包括:

  1. 更好的多尺度检测:通过使用三个不同尺度的特征图来检测不同尺寸的目标。
  2. 更精确的特征提取网络:YOLOv3 使用了一个新的特征提取网络(Darknet-53),相比于之前的 YOLOv2 使用的 Darknet-19,它更深更强,能够提取更多的图像特征。
  3. 改进的损失函数:YOLOv3 对损失函数进行了改进,加入了对边界框位置、置信度、类别概率等因素的多方面考虑,使得模型能够更准确地进行目标检测。

YOLOv3 的主要特点

  1. 实时性和高效率:YOLOv3 可以实时进行目标检测,尤其适合需要实时反馈的应用场景,比如自动驾驶、监控摄像头等。

  2. 端到端训练和推理:YOLOv3 是一个端到端的模型,不需要额外的区域提议(region proposals)阶段。通过单一的神经网络结构,YOLOv3 可以在一次前向推理中同时完成目标的定位和分类。

  3. 高精度和高速度:虽然 YOLOv3 的推理速度非常快,但它并没有牺牲精度。YOLOv3 在 COCO 数据集上的表现优于许多其他实时目标检测模型(如 SSD 和 Faster R-CNN)。

  4. 支持多类别和多尺度检测:YOLOv3 支持大规模的类别检测(COCO 数据集中的 80 类物体),并且能够检测大小不一的目标物体,尤其是在小物体的检测上有显著提高。

  5. 使用 Leaky ReLU 激活函数:YOLOv3 使用了 Leaky ReLU 替代传统的 ReLU 激活函数,能够避免 ReLU 在某些情况下出现死神经元(dead neurons)问题。

  6. 检测层次结构:YOLOv3 使用三种不同大小的特征图来进行目标检测,从而更好地处理小物体、大物体的检测任务。其采用了类似 FPN(Feature Pyramid Networks)的结构,能够有效利用不同尺度的特征进行多尺度目标检测。


YOLOv3 的结构

        YOLOv3 的整体架构分为两个主要部分:特征提取网络(Backbone)检测头(Head)

1. 特征提取网络(Backbone)

        YOLOv3 使用 Darknet-53 作为其特征提取网络。Darknet-53 是一个具有 53 层的卷积神经网络,相比于 YOLOv2 使用的 Darknet-19,Darknet-53 更深且具备更强的特征提取能力。Darknet-53 由残差块组成,可以更有效地提取图像中的低级和高级特征。

2. 检测头(Head)

        YOLOv3 的检测头负责从特征图中提取目标的边界框坐标、置信度以及类别信息。YOLOv3 采用了三个不同尺度的特征图来进行检测:一个用于检测大物体,一个用于中等物体,另一个用于小物体。这些特征图分别来自网络中不同深度的卷积层。

3. 输出层

        YOLOv3 的输出是一个 3D 张量,包含了边界框的位置(x, y, w, h)、置信度和类别概率。输出的每个单元表示一个预测框的信息。

  • 每个预测框会有 4 个坐标值(x, y, w, h),表示边界框的位置和尺寸。
  • 每个框还会有一个置信度值,表示该框内包含目标的置信度。
  • 最后,每个框还会包含与每个类别相关的类别概率分布。

YOLOv3 损失函数

YOLOv3 使用了一个多任务损失函数,结合了位置损失、置信度损失和类别损失:

  1. 位置损失(Localization Loss):该损失用于优化边界框的预测精度,通常使用均方误差(MSE)来计算。

  2. 置信度损失(Confidence Loss):该损失用于衡量每个预测框内是否包含目标物体,越接近 1 说明预测越准确,目标物体越确定。YOLOv3 对所有预测框都计算了置信度损失。

  3. 类别损失(Classification Loss):该损失用于计算每个框的类别预测误差,通常使用交叉熵损失来计算。


YOLOv3 的优势

  • 实时性强:相较于许多传统的目标检测方法(如 Faster R-CNN),YOLOv3 的检测速度更快,适合实时应用。

  • 精度高:YOLOv3 在大型数据集(如 COCO、PASCAL VOC)上的精度较高,尤其是在小物体检测方面有所改进。

  • 多尺度检测:YOLOv3 的多尺度检测策略使得它能够在不同大小的物体上都有较好的表现。


YOLOv3 的应用

YOLOv3 被广泛应用于以下领域:

  1. 自动驾驶:YOLOv3 能够实时识别道路上的车辆、行人、交通标志等物体,对于自动驾驶系统的目标检测至关重要。

  2. 视频监控:YOLOv3 可以用来实时分析监控视频,识别入侵者、车辆或其他目标。

  3. 工业检测:在工业制造过程中,YOLOv3 可用于缺陷检测、零件识别等。

  4. 无人机目标检测:YOLOv3 适用于无人机上的实时物体识别,能够进行高效的目标追踪和监控。


YOLOv3 的局限性

尽管 YOLOv3 在速度和精度上都表现出色,但仍然存在一些局限性:

  1. 小物体检测问题:虽然 YOLOv3 引入了多尺度特征图来改进小物体检测,但对于极小的物体,它的检测精度仍然不如其他更精细的检测模型(如 Faster R-CNN 或 RetinaNet)。

  2. 精度与速度的平衡:YOLOv3 主要专注于速度,因此在极高精度的需求下,可能不如一些其他的目标检测模型。


实现思路

1. 加载模型和配置文件

  • 代码首先加载了COCO数据集中的类别名称(coco.names)和YOLOv3的配置文件(yolov3.cfg)以及权重文件(yolov3.weights)。这些文件是YOLOv3模型进行物体检测所需要的。
  • net = cv2.dnn.readNet() 用来加载YOLO模型,getLayerNames()getUnconnectedOutLayers() 获取模型的输出层名称。

2. 视频读取

  • 使用 cv2.VideoCapture() 打开一个视频文件,这里假设视频文件名为 test1.mp4,你可以更换成其他的视频文件路径。
  • 每帧视频将会被读取,并传入后续的目标检测和跟踪部分。

3. 初始化跟踪器

  • 使用 cv2.TrackerCSRT_create() 创建CSRT(Channel and Spatial Reliability Tracking)跟踪器。CSRT是一个高效的多目标跟踪算法,适用于动态物体(如车辆)跟踪。
  • tracker.init(frame, bbox) 初始化跟踪器,bbox 是目标的边界框坐标(x, y, w, h),代表车辆在视频中的位置。

4. YOLOv3目标检测

  • yolo_detection(frame) 是目标检测函数,首先将图像转换成YOLO模型所需的输入格式(blobFromImage())。然后,将图像传入YOLO模型进行前向传播,获得每个检测框的信息(如位置、类别、置信度)。
  • 根据YOLO的检测结果,代码筛选出置信度大于0.5且类别为“车”、“巴士”和“卡车”的目标,这些目标会被添加到跟踪列表中。

5. 目标跟踪

  • 初始化跟踪器后,开始对视频中的目标进行跟踪。在 while 循环中,程序不断读取视频帧并更新所有的跟踪器。
  • 每次更新时,通过 tracker.update(frame) 获取新的目标位置。如果跟踪成功,更新目标的边界框,并绘制在视频帧上;如果跟踪失败,则显示“Tracking failure”提示。

6. 结果展示

  • 每一帧被处理后,将通过 cv2.imshow() 显示出来。如果按下键盘上的 'q' 键,程序会退出循环并关闭窗口。
  • 绘制的跟踪框使用绿色((0, 255, 0)),并在框上方显示“Vehicle ID”来标识每个目标。

7. 资源释放

  • 在程序结束时,cap.release() 释放视频文件,cv2.destroyAllWindows() 关闭所有OpenCV的窗口。


整体代码

import cv2
import numpy as np

# 加载类别名称
with open("../needFiles/coco.names", "r") as f:
    classes = [line.strip() for line in f.readlines()]

# 加载YOLOv3配置文件和权重文件
net = cv2.dnn.readNet("../needFiles/yolov3.weights", "../needFiles/yolov3.cfg")

# 获取输出层名称
layer_names = net.getLayerNames()
output_layers = [layer_names[i - 1] for i in net.getUnconnectedOutLayers()]

# 打开视频文件(这里假设无人机视频文件为input_video.mp4)
cap = cv2.VideoCapture("./videos/test1.mp4")

# 初始化变量
trackers = []  # 用于存储多个跟踪器
bboxes = []  # 存储所有目标的边界框
frame_count = 0

# 车辆类别的ID(以COCO数据集为例)
vehicle_classes = ['car', 'bus', 'truck']  # 需要跟踪的车辆类别
vehicle_class_ids = [2, 5, 7]  # 对应的类别ID

# 使用跟踪算法
def init_tracker(frame, bbox):
    # 使用CSRT跟踪器(适合动态物体)
    tracker = cv2.TrackerCSRT_create()
    tracker.init(frame, bbox)
    return tracker

# YOLOv3检测
def yolo_detection(frame):
    blob = cv2.dnn.blobFromImage(frame, 0.00392, (416, 416), (0, 0, 0), True, crop=False)
    net.setInput(blob)
    outs = net.forward(output_layers)

    class_ids = []
    confidences = []
    boxes = []
    height, width, _ = frame.shape
    for out in outs:
        for detection in out:
            scores = detection[5:]
            class_id = np.argmax(scores)
            confidence = scores[class_id]
            if confidence > 0.5:  # 置信度阈值
                center_x = int(detection[0] * width)
                center_y = int(detection[1] * height)
                w = int(detection[2] * width)
                h = int(detection[3] * height)

                x = int(center_x - w / 2)
                y = int(center_y - h / 2)

                # 如果检测到的是车辆类别,则将目标添加到跟踪列表
                if class_id in vehicle_class_ids:
                    boxes.append([x, y, w, h])
                    confidences.append(float(confidence))
                    class_ids.append(class_id)

    # 使用非极大值抑制(NMS)过滤多余的框
    indexes = cv2.dnn.NMSBoxes(boxes, confidences, 0.5, 0.4)
    return boxes, confidences, class_ids, indexes

# 选择视频中的一帧图像进行目标选择
ret, frame = cap.read()
if not ret:
    print("无法读取视频文件!")
    cap.release()
    exit()

# 目标检测并初始化目标跟踪
boxes, confidences, class_ids, indexes = yolo_detection(frame)
for i in range(len(boxes)):
    if i in indexes:
        x, y, w, h = boxes[i]
        bbox = (x, y, w, h)  # 目标框坐标
        tracker = init_tracker(frame, bbox)
        trackers.append(tracker)
        bboxes.append(bbox)

# 跟踪目标
while True:
    ret, frame = cap.read()
    if not ret:
        break

    # 调整帧大小以适应显示器
    screen_width = 800  # 设置显示器宽度
    screen_height = int(frame.shape[0] * (screen_width / frame.shape[1]))
    frame_resized = cv2.resize(frame, (screen_width, screen_height))

    # 更新所有的跟踪器
    for i, tracker in enumerate(trackers):
        success, bbox = tracker.update(frame)

        # 绘制跟踪框
        if success:
            x, y, w, h = [int(v) for v in bbox]
            cv2.rectangle(frame_resized, (x, y), (x + w, y + h), (0, 255, 0), 2)
            cv2.putText(frame_resized, f"Vehicle ID: {i+1}", (x, y - 10),
                        cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 255, 0), 2)
        else:
            cv2.putText(frame_resized, "Tracking failure", (100, 80), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 0, 255), 2)

    # 显示图像
    cv2.imshow("WenJGo", frame_resized)

    # 按 'q' 键退出
    if cv2.waitKey(1) & 0xFF == ord('q'):
        break

# 释放资源
cap.release()
cv2.destroyAllWindows()

效果图

总结

        YOLOv3 是一款强大的实时目标检测模型,它在精度和速度之间提供了很好的平衡。通过引入更深的网络架构、多个尺度的检测和改进的损失函数,YOLOv3 在多种应用场景中都取得了优秀的表现。对于需要快速处理并识别图像中多目标的任务,YOLOv3 是一个非常优秀的选择。但是我觉得我现在还用的不好。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2241909.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【MyBatis操作数据库】XML配置

【配置连接字符串和MyBatis】 注意,这行代码代表着xml必须在mapper文件夹的下面(路径必须保持一致) 配置完文件后,需要写持久层代码 添加 mapper 接⼝: 添加 UserInfoXMLMapper这样的xml文件: 单元测试&a…

基础:用卷积神经网络(CNN)进行猫狗图像分类

在本篇教程中,我们将通过卷积神经网络(CNN)实现一个简单的猫狗图像分类器。我们将介绍如何处理数据、构建CNN模型、训练模型并在测试集上进行预测。最终,你将能够用这个模型对未知图像进行猫狗分类。 1. 环境准备 首先&#xf…

node对接ChatGpt的流式输出的配置

node对接ChatGpt的流式输出的配置 首先看一下效果 将数据用流的方式返回给客户端,这种技术需求在传统的管理项目中不多见,但是在媒体或者有实时消息等功能上就会用到,这个知识点对于前端还是很重要的。 即时你不写服务端,但是服务端如果给你这样的接口,你也得知道怎么去使用联…

聊聊Flink:Flink的运行时架构

一、运行时架构 上一篇我们可以看到Flink的核心组件的Deploy层,该层主要涉及了Flink的部署模式,Flink支持多种部署模式:本地、集群(Standalone/YARN)、云(GCE/EC2)。 Local(本地&am…

【动手学电机驱动】 STM32-FOC(7)MCSDK Pilot 上位机控制与调试

STM32-FOC(1)STM32 电机控制的软件开发环境 STM32-FOC(2)STM32 导入和创建项目 STM32-FOC(3)STM32 三路互补 PWM 输出 STM32-FOC(4)IHM03 电机控制套件介绍 STM32-FOC(5&…

华为云前台用户可挂载数据盘和系统盘是怎么做到的?

用户可以选择磁盘类型和容量,其后台是管理员对接存储设备 1.管理员如何在后台对接存储设备(特指业务存储) 1.1FusionSphere CPS(Cloud Provisionivice)云装配服务 它是first node https://10.200.4.159:8890 对接存…

Python爬虫知识体系-----requests-----持续更新

数据科学、数据分析、人工智能必备知识汇总-----Python爬虫-----持续更新:https://blog.csdn.net/grd_java/article/details/140574349 文章目录 一、安装和基本使用1. 安装2. 基本使用3. response常用属性 二、get请求三、post请求四、代理 一、安装和基本使用 1.…

区块链技术在数据安全中的应用

💓 博客主页:瑕疵的CSDN主页 📝 Gitee主页:瑕疵的gitee主页 ⏩ 文章专栏:《热点资讯》 区块链技术在数据安全中的应用 区块链技术在数据安全中的应用 区块链技术在数据安全中的应用 引言 区块链技术基础 1.1 区块链的…

RK3568平台开发系列讲解(GPIO篇)GPIO的sysfs调试手段

🚀返回专栏总目录 文章目录 一、内核配置二、GPIO sysfs节点介绍三、命令行控制GPIO3.1、sd导出GPIO3.2、设置GPIO方向3.3、GPIO输入电平读取3.4、GPIO输出电平设置四、Linux 应用控制GPIO4.1、控制输出4.2、输入检测4.3、使用 GPIO 中断沉淀、分享、成长,让自己和他人都能有…

电商系统开发:Spring Boot框架实战

3 系统分析 当用户确定开发一款程序时,是需要遵循下面的顺序进行工作,概括为:系统分析–>系统设计–>系统开发–>系统测试,无论这个过程是否有变更或者迭代,都是按照这样的顺序开展工作的。系统分析就是分析系…

从电动汽车到车载充电器:LM317LBDR2G 线性稳压器在汽车中的多场景应用

附上LM317系列选型: LM317BD2TG-TO-263 LM317BTG-TO-220 LM317BD2TR4G-TO-263 LM317D2TG-TO-263 LM317D2TR4G-TO-263 LM317TG-TO-220 LM317LBDR2G-SOP-8 LM317LDR2G-SOP-8 LM317MABDTG-TO-252 LM317MABDTRKG-TO-252 LM317MA…

Linux下MySQL的简单使用

Linux下MySQL的简单使用 导语MySQL安装与配置MySQL安装密码设置 MySQL管理命令myisamchkmysql其他 常见操作 C语言访问MYSQL连接例程错误处理使用SQL 总结参考文献 导语 这一章是MySQL的使用,一些常用的MySQL语句属于本科阶段内容,然后是C语言和MySQl之…

前端 JS 实用操作总结

目录 1、重构解构 1、数组解构 2、对象解构 3、...展开 2、箭头函数 1、简写 2、this指向 3、没有arguments 4、普通函数this的指向 3、数组实用方法 1、map和filter 2、find 3、reduce 1、重构解构 1、数组解构 const arr ["唐僧", "孙悟空&quo…

力扣 LeetCode 541. 反转字符串II(Day4:字符串)

解题思路&#xff1a; i可以成段成段的跳&#xff0c;而不是简单的i class Solution {public String reverseStr(String s, int k) {char[] ch s.toCharArray();// 1. 每隔 2k 个字符的前 k 个字符进行反转for (int i 0; i < ch.length; i 2 * k) {// 2. 剩余字符小于 …

鸿蒙版APP-图书购物商城案例

鸿蒙版-小麦图书APP是基于鸿蒙ArkTS-API12环境进行开发&#xff0c;不包含后台管理系统&#xff0c;只有APP端&#xff0c;页面图书数据是从第三方平台(聚合数据)获取进行展示的&#xff0c;包含登录&#xff0c;图书类别切换&#xff0c;图书列表展示&#xff0c;图书详情查看…

卡尔曼滤波:从理论到应用的简介

卡尔曼滤波&#xff08;Kalman Filter&#xff09;是一种递归算法&#xff0c;用于对一系列噪声观测数据进行动态系统状态估计。它广泛应用于导航、控制系统、信号处理、金融预测等多个领域。本文将介绍卡尔曼滤波的基本原理、核心公式和应用案例。 1. 什么是卡尔曼滤波&#x…

学习日志011--模块,迭代器与生成器,正则表达式

一、python模块 在之前学习c语言时&#xff0c;我们学了分文件编辑&#xff0c;那么在python中是否存在类似的编写方式&#xff1f;答案是肯定的。python中同样可以实现分文件编辑。甚至还有更多的好处&#xff1a; ‌提高代码的可维护性‌&#xff1a;当代码被分成多个文件时…

CSS 语法规范

基本语法结构 CSS 的基本语法结构包含 选择器 和 声明块,两者共同组成 规则集。规则集可以为 HTML 元素设置样式,使页面结构和样式实现分离,便于网页的美化和布局调整。 CSS 规则集的结构如下: selector {property: value; }选择器(Selector) 选择器用于指定需要应用…

Bag Graph: Multiple Instance Learning Using Bayesian Graph Neural Networks文献笔记

基本信息 原文链接&#xff1a;[2202.11132] Bag Graph: Multiple Instance Learning using Bayesian Graph Neural Networks 方法概括&#xff1a;用图&#xff08;贝叶斯GNN框架&#xff09;来建模袋之间的相互作用&#xff0c;并使用图神经网络&#xff08;gnn&#xff09…

Spark 共享变量:广播变量与累加器解析

Spark 的介绍与搭建&#xff1a;从理论到实践_spark环境搭建-CSDN博客 Spark 的Standalone集群环境安装与测试-CSDN博客 PySpark 本地开发环境搭建与实践-CSDN博客 Spark 程序开发与提交&#xff1a;本地与集群模式全解析-CSDN博客 Spark on YARN&#xff1a;Spark集群模式…