- 💂 个人主页:风间琉璃
- 🤟 版权: 本文由【风间琉璃】原创、在CSDN首发、需要转载请联系博主
- 💬 如果文章对你有帮助、欢迎关注、点赞、收藏(一键三连)和订阅专栏哦
目录
前言
一、预处理
1.获取分类名
2.获取输出层名称
3.图像尺度变换
二、 模型加载和执行推理
三、输出解析
1.网络后处理
2.边界框绘制
3.推理时间
4.FPS计算
前言
YOLOv3(You Only Look Once version 3)是一种流行的实时目标检测算法,由Joseph Redmon等人开发。YOLOv3是YOLO系列的第三个版本,它在速度和准确性方面都取得了显著的改进,被广泛用于计算机视觉应用中的实时目标检测任务。
详细的网络原理参考:目标检测之YOLOv1-v3_风间琉璃•的博客-CSDN博客
参考文章:YOLOv3 – Deep Learning Based Object Detection – YOLOv3 with OpenCV ( Python / C++ )
YOLOv3模型及配置文件下载
weights: https://pjreddie.com/media/files/yolov3.weights
cfg:https://github.com/pjreddie/darknet/blob/master/cfg/yolov3.cfg
coco: https://github.com/pjreddie/darknet/blob/master/data/coco.names
一、预处理
1.获取分类名
数据集采用的coco数据集,需要将coco.names包含训练模型的所有类名称加载到内存中。
vector<string> classes; //标签名
string classespath = "F:/data/CQU/VS/YOLOv3/coco.names";
//得到网络对应的标签
void getclasses(string classespath )
{
ifstream ifs(classespath);
string line;
while (getline(ifs, line))
{
classes.push_back(line);
}
}
最暴力的方法也可以打开文件,直接类别定义一个80个类别的变量存储。
2.获取输出层名称
YOLOv3由于可以在三个不同的尺度上进行检测,也就是说它有三个输出层,因此我们需要获得它的三个输出层的名称。
//得到网络输出层的名称,yolov3有3种尺度输出
vector<String> getOutputsNames(const Net& net)
{
#if 1
//直接获取模型中未连接到任何后续层的输出层的名称,一般是yolov3是三层输出层
std::vector<String> names = net.getUnconnectedOutLayersNames();
//for (int i = 0; i < names.size(); i++)
//{
//printf("output layer name : %s\n", names[i].c_str());
//}
return names;
#elif 0
static vector<String> names;
if (names.empty())
{
//获取模型中未连接到任何后续层的输出层的索引,一般是yolov3是三层输出层
vector<int> outLayers = net.getUnconnectedOutLayers();
//获取模型中的所有层的名称
vector<String> layersNames = net.getLayerNames();
names.resize(outLayers.size());
for (size_t i = 0; i < outLayers.size(); ++i)
{
names[i] = layersNames[outLayers[i] - 1];
}
}
return names;
#endif
}
这里提供了两种方法,直接获取三层输出层的名称可以使用 getUnconnectedOutLayersNames(),也可以先获取三个输出层的索引,然后通过getLayerNames获得整个网络层的名称,然后再通过索引获取最后输出三层的名称。
3.图像尺度变换
神经网络的输入图像需要采用称为blob的特定格式。从输入图像或视频流中读取帧后,将通过blobFromImage函数将其转换为神经网络的输入blob。
在此过程中,它使用比例因子1/255将图像像素值缩放到0到1的目标范围。它还将图像的大小调整为给定大小(416,416)而不进行裁剪。请注意,不在此处执行任何均值减法,因此将[0,0,0]传递给函数的mean参数,swapRB参数设置为true(即交换R和B),这里个人认为交换与否问题应该不大,看网上大佬的都写的交换。
int width = 416;
int height = 416;
//图像预处理
blobFromImage(frame, blob, 1 / 255.0, cv::Size(width, height), Scalar(0, 0, 0), true, false);
二、 模型加载和执行推理
加载网络直接使用readNetFromDarknet或者readNet都行。
String config = "F:/data/CQU/VS/YOLOv3/yolov3.cfg";
String weights = "F:/data/CQU/VS/YOLOv3/yolov3.weights";
//加载yolo网络模型
Net net = readNetFromDarknet(config, weights);
这里可以根据个人的情况设置是否使用CUDA加速,我编译过CUDA的OpenCV,所以这里利用第二种方式
#if 0
//cpu推理
net.setPreferableBackend(DNN_BACKEND_OPENCV);
net.setPreferableTarget(DNN_TARGET_CPU);
#elif 1
//使用cuda加速
net.setPreferableBackend(cv::dnn::DNN_BACKEND_CUDA);
net.setPreferableTarget(cv::dnn::DNN_TARGET_CUDA_FP16);
#endif
预处理和网络模型都加载好了就可以进行图像的预测了
//设置网络的输入
net.setInput(blob);
//执行推理,这里有多个输出层,好像不能使用 Mat outsnet.forward(outs, getOutputsNames(net));进行推理
//大概率是因为这里输出层是三层
vector<Mat> outs;
net.forward(outs, getOutputsNames(net));
预测的结果保存在outs的Mat类型矩阵中。接下来就需要对这个预测结果进行后处理。
三、输出解析
1.网络后处理
网络输出的每个边界框都分别由一个包含着类别名字和5个元素的向量表示。前四个元素代表center_x, center_y, width和height。第五个元素表示包含着目标的边界框的置信度。
其余的元素是和每个类别(如目标种类)有关的置信度。边界框分配给最高分数对应的那一种类。一个边界框的最高分数也叫做它的置信度(confidence)。如果边界框的置信度低于规定的阀值,算法上不再处理这个边界框。
置信度大于或等于置信度阀值的边界框,将进行非最大抑制。这会减少重叠的边界框数目。
float confThreshold = 0.5; //置信度
float nmsThreshold = 0.4; // nms阈值
//使用非极大值抑制NMS来删除置信度较低的边界框
void postprocess(Mat& frame, const vector<Mat>& outs)
{
//对象的类别标签索引
vector<int> classIds;
//目标检测的置信度
vector<float> confidences;
//目标检测的边界框信息
vector<Rect> boxes;
//对三层输出层分别处理
for (int i = 0; i < outs.size(); i++)
{
//遍历来自网络的所有边界框,并仅保留具有高置信度分数的边界框,将框的类别标签分配为具有该框上最高分数的类别
float* data = (float*)outs[i].data;
//对某一层处理,输出包含5个元素:x,y,w,h,置信度
for (int j = 0; j < outs[i].rows; ++j, data += outs[i].cols)
{
//获取置信度
Mat scores = outs[i].row(j).colRange(5, outs[i].cols);
Point classIdPoint;
double confidence; //最大置信度
//获取置信度最大的数值和位置
minMaxLoc(scores, 0, &confidence, 0, &classIdPoint);
if (confidence > confThreshold)
{
int centerX = (int)(data[0] * frame.cols);
int centerY = (int)(data[1] * frame.rows);
int width = (int)(data[2] * frame.cols);
int height = (int)(data[3] * frame.rows);
int left = centerX - width / 2;
int top = centerY - height / 2;
classIds.push_back(classIdPoint.x);
confidences.push_back((float)confidence);
boxes.push_back(Rect(left, top, width, height));
}
}
}
//非极大值抑制以消除重叠度较高且置信度较低的边界框
vector<int> indices; //NMSBoxes输出,包含经过非最大值抑制后所选的边界框的索引
NMSBoxes(boxes, confidences, confThreshold, nmsThreshold, indices);
for (size_t i = 0; i < indices.size(); ++i)
{
int idx = indices[i];
Rect box = boxes[idx];
//在图像上绘制检测结果,包括类别标签、置信度和边界框
drawPred(classIds[idx], confidences[idx], box.x, box.y,box.x + box.width, box.y + box.height, frame);
}
}
非极大值抑制由参数nmsThreshold控制。如果nmsThreshold设置太少,比如0.1,我们可能检测不到相同或不同种类的重叠目标。如果设置得太高,比如1,可能出现一个目标有多个边界框包围。
NMSBoxes
是一个用于执行非极大值抑制(Non-Maximum Suppression,简称NMS)的函数,通常在目标检测和边界框预测等计算机视觉任务中使用。NMS 的目标是减少一组重叠的边界框,以便仅保留最相关的边界框,从而提高检测或识别性能。
函数原型:
void cv::dnn::NMSBoxes(const std::vector<cv::Rect>& bboxes, const std::vector<float>& scores, float score_threshold, float nms_threshold, std::vector<int>& indices);
①bboxes
:表示输入的边界框列表。每个边界框通常由cv::Rect
类型表示,其中包含了左上角和右下角的坐标。这个参数用于传递待执行非极大值抑制的边界框列表。
②scores
:包含与每个边界框相关的置信度或分数。这些分数用于度量边界框包含的对象的可信度或重要性。
③score_threshold
:用于指定一个分数阈值。只有分数高于或等于此阈值的边界框才会被考虑进行非极大值抑制。
④nms_threshold
:表示在执行非极大值抑制时两个边界框之间的IoU(交并比)阈值。如果两个边界框的IoU大于等于此阈值,则其中一个边界框将被抑制。
⑤indices
:用于返回经过非极大值抑制后保留的边界框的索引列表。这些索引对应于输入边界框列表中的边界框,只有这些边界框被保留。
该函数的主要作用是根据分数和IoU阈值对输入的边界框列表进行非极大值抑制,然后将保留的边界框的索引存储在 indices
中,以供后续处理使用 。
2.边界框绘制
边界框的绘制就是根据将网络的输出结果经过非极大值抑制后的边界框,绘制在原图,并指定类别标签和置信度分数。
//画预测的目标bounding box
void drawPred(int classId, float conf, int left, int top, int right, int bottom, Mat& frame)
{
//绘制检测目标的矩形框
rectangle(frame, Point(left, top), Point(right, bottom), Scalar(255, 178, 50), 2);
//获取类别名称及其置信度
string label = format("%.2f", conf);
if (!classes.empty())
{
CV_Assert(classId < (int)classes.size());
label = classes[classId] + ":" + label;
}
//在边界框的顶部显示标签
int baseLine;
Size labelSize = getTextSize(label, FONT_HERSHEY_SIMPLEX, 0.5, 1, &baseLine);
//确保顶部位置足够高以容纳标签
top = max(top, labelSize.height);
rectangle(frame, Point(left, top - round(1.5 * labelSize.height)), Point(left + round(1.5 * labelSize.width), top + baseLine), Scalar(255, 255, 255), FILLED);
putText(frame, label, Point(left, top), FONT_HERSHEY_SIMPLEX, 0.5, Scalar(0, 255, 0), 1);
}
3.推理时间
使用OpenCV dnn进行推理,可以测量推理的时间。主要是使用getPerfProfile函数。其函数原型如下:
cv::Mat cv::dnn::Net::getPerfProfile(std::vector<double>& timings) const;
timings
(输出参数):用于存储每个网络层的推理时间。这是一个输出参数,getPerfProfile
会填充这个向量,使您能够获取每个层的执行时间信息。
getPerfProfile
函数的主要作用是分析深度学习模型的性能,并返回每个网络层的推理时间。让利用freq 将时间从s转换为ms。
//函数getPerfProfile返回推理的总时间(t)以及每个层的时间(在layersTimes中)
//存储每一次推理时间
vector<double> layersTimes;
//getTickFrequency() 返回时钟频率,通过除以1000,freq将其转换为毫秒,将时间单位从秒(s)转换为毫秒(ms)的缩放因子
double freq = getTickFrequency() / 1000;
//获取推理总时间,并转换将时间单位转换为毫秒
double t = net.getPerfProfile(layersTimes) / freq;
string label = format("Inference time: %.2fms", t);
putText(frame, label, Point(0, 15), FONT_HERSHEY_SIMPLEX, 0.5, Scalar(0, 0, 255));
4.FPS计算
在网络推理(如深度学习模型的推理)中,帧率(Frames Per Second,FPS)是一项关键的性能指标,用于表示每秒处理的图像帧数量。通常,帧率越高,系统性能越好。
在图像进行目标检测之前加入下面一句代码,获取当前系统的计时周期
//获得当前系统的计时间周期数,求FPS
double t = (double)getTickCount();
然后在图像目标检测完加入下面的代码,计算FPS并显示
//FPS计算
t = ((double)getTickCount() - t) / getTickFrequency();//求输入帧后经过的周期数/每秒系统计的周期数=一帧用时多少秒
double fps = 1.0 / t;//求倒数得到每秒经过多少帧,即帧率
string text = format("FPS:%.2f",fps);
cv::putText(frame, text, Point(10, 50), FONT_HERSHEY_SIMPLEX, 1, cv::Scalar(0, 255, 0), 2, 8, 0);
运行结果:
YOLOv3 C++
程序源码:下载链接:https://download.csdn.net/download/qq_53144843/88350694
// YOLOv3.cpp : 此文件包含 "main" 函数。程序执行将在此处开始并结束。
//
#include <fstream>
#include <sstream>
#include <iostream>
#include <opencv2/dnn.hpp>
#include <opencv2/imgproc.hpp>
#include <opencv2/highgui.hpp>
using namespace cv;
using namespace cv::dnn;
using namespace std;
//初始化参数
float confThreshold = 0.5; //置信度
float nmsThreshold = 0.4; // nms阈值
int width = 416;
int height = 416;
vector<string> classes; //标签名
//得到网络输出层名称
vector<String> getOutputsNames(const Net& net);
//绘制bounding box
void drawPred(int classId, float conf, int left, int top, int right, int bottom, Mat& frame);
//解析输出
void postprocess(Mat& frame, const vector<Mat>& outs);
//图片检测
void detect_image(string image_path, string config, string weights, string classespath);
//目标检测
void detect_video(string video_path, string config, string weights, string classespath);
int main()
{
String config = "F:/data/CQU/VS/YOLOv3/yolov3.cfg";
String weights = "F:/data/CQU/VS/YOLOv3/yolov3.weights";
string classespath = "F:/data/CQU/VS/YOLOv3/coco.names";
string image_path = "F:/data/CQU/VS/YOLOv3/3.jpg";
string video_path = "F:/data/CQU/VS/YOLOv3/car.mp4";
#if 0
detect_image(image_path, config, weights, classespath);
#elif 1
detect_video(video_path, config, weights, classespath);
#endif
return 0;
}
//得到网络对应的标签
void getclasses(string classespath )
{
ifstream ifs(classespath);
string line;
while (getline(ifs, line))
{
classes.push_back(line);
}
}
//得到网络输出层的名称,yolov3有3种尺度输出
vector<String> getOutputsNames(const Net& net)
{
#if 1
//直接获取模型中未连接到任何后续层的输出层的名称,一般是yolov3是三层输出层
std::vector<String> names = net.getUnconnectedOutLayersNames();
//for (int i = 0; i < names.size(); i++)
//{
//printf("output layer name : %s\n", names[i].c_str());
//}
return names;
#elif 0
static vector<String> names;
if (names.empty())
{
//获取模型中未连接到任何后续层的输出层的索引,一般是yolov3是三层输出层
vector<int> outLayers = net.getUnconnectedOutLayers();
//获取模型中的所有层的名称
vector<String> layersNames = net.getLayerNames();
names.resize(outLayers.size());
for (size_t i = 0; i < outLayers.size(); ++i)
{
names[i] = layersNames[outLayers[i] - 1];
}
}
return names;
#endif
}
//画预测的目标bounding box
void drawPred(int classId, float conf, int left, int top, int right, int bottom, Mat& frame)
{
//绘制检测目标的矩形框
rectangle(frame, Point(left, top), Point(right, bottom), Scalar(255, 178, 50), 2);
//获取类别名称及其置信度
string label = format("%.2f", conf);
if (!classes.empty())
{
CV_Assert(classId < (int)classes.size());
label = classes[classId] + ":" + label;
}
//在边界框的顶部显示标签
int baseLine;
Size labelSize = getTextSize(label, FONT_HERSHEY_SIMPLEX, 0.5, 1, &baseLine);
//确保顶部位置足够高以容纳标签
top = max(top, labelSize.height);
rectangle(frame, Point(left, top - round(1.5 * labelSize.height)), Point(left + round(1.5 * labelSize.width), top + baseLine), Scalar(255, 255, 255), FILLED);
putText(frame, label, Point(left, top), FONT_HERSHEY_SIMPLEX, 0.5, Scalar(0, 255, 0), 1);
}
//使用非极大值抑制NMS来删除置信度较低的边界框
void postprocess(Mat& frame, const vector<Mat>& outs)
{
//对象的类别标签索引
vector<int> classIds;
//目标检测的置信度
vector<float> confidences;
//目标检测的边界框信息
vector<Rect> boxes;
//对三层输出层分别处理
for (int i = 0; i < outs.size(); i++)
{
//遍历来自网络的所有边界框,并仅保留具有高置信度分数的边界框,将框的类别标签分配为具有该框上最高分数的类别
float* data = (float*)outs[i].data;
//对某一层处理,输出包含5个元素:x,y,w,h,置信度
for (int j = 0; j < outs[i].rows; ++j, data += outs[i].cols)
{
//获取置信度
Mat scores = outs[i].row(j).colRange(5, outs[i].cols);
Point classIdPoint;
double confidence; //最大置信度
//获取置信度最大的数值和位置
minMaxLoc(scores, 0, &confidence, 0, &classIdPoint);
if (confidence > confThreshold)
{
int centerX = (int)(data[0] * frame.cols);
int centerY = (int)(data[1] * frame.rows);
int width = (int)(data[2] * frame.cols);
int height = (int)(data[3] * frame.rows);
int left = centerX - width / 2;
int top = centerY - height / 2;
classIds.push_back(classIdPoint.x);
confidences.push_back((float)confidence);
boxes.push_back(Rect(left, top, width, height));
}
}
}
//非极大值抑制以消除重叠度较高且置信度较低的边界框
vector<int> indices; //NMSBoxes输出,包含经过非最大值抑制后所选的边界框的索引
NMSBoxes(boxes, confidences, confThreshold, nmsThreshold, indices);
for (size_t i = 0; i < indices.size(); ++i)
{
int idx = indices[i];
Rect box = boxes[idx];
//在图像上绘制检测结果,包括类别标签、置信度和边界框
drawPred(classIds[idx], confidences[idx], box.x, box.y,box.x + box.width, box.y + box.height, frame);
}
}
void detect_image(string image_path, string config, string weights, string classespath)
{
//加载目标检测标签
getclasses(classespath);
//加载yolo网络模型
Net net = readNetFromDarknet(config, weights);
#if 0
//cpu推理
net.setPreferableBackend(DNN_BACKEND_OPENCV);
net.setPreferableTarget(DNN_TARGET_CPU);
#elif 1
//使用cuda加速
net.setPreferableBackend(cv::dnn::DNN_BACKEND_CUDA);
net.setPreferableTarget(cv::dnn::DNN_TARGET_CUDA_FP16);
#endif
cv::Mat frame = cv::imread(image_path);
//图片预处理
Mat blob = blobFromImage(frame, 1 / 255.0, cv::Size(width, height), Scalar(0, 0, 0), true, false);
//设置网络的输入
net.setInput(blob);
//执行推理,这里有多个输出层,好像不能使用 Mat outsnet.forward(outs, getOutputsNames(net));进行推理
//大概率是因为这里输出层是三层
vector<Mat> outs;
net.forward(outs, getOutputsNames(net));
//剔除置信度较小的 bounding boxes
postprocess(frame, outs);
//函数getPerfProfile返回推理的总时间(t)以及每个层的时间(在layersTimes中)
//存储每一次推理时间
vector<double> layersTimes;
//getTickFrequency() 返回时钟频率,通过除以1000,freq将其转换为毫秒,将时间单位从秒(s)转换为毫秒(ms)的缩放因子
double freq = getTickFrequency() / 1000;
//获取推理总时间,并转换将时间单位转换为毫秒
double t = net.getPerfProfile(layersTimes) / freq;
string label = format("Inference time: %.2fms", t);
//putText(frame, label, Point(0, 15), FONT_HERSHEY_SIMPLEX, 0.5, Scalar(0, 0, 255));
imshow("YOLOv3", frame);
cv::waitKey(0);
}
void detect_video(string video_path, string config, string weights, string classespath)
{
//加载目标检测标签
getclasses(classespath);
//加载网络
Net net = readNetFromDarknet(config, weights);
#if 0
//cpu推理
net.setPreferableBackend(DNN_BACKEND_OPENCV);
net.setPreferableTarget(DNN_TARGET_CPU);
#elif 1
//使用cuda加速
net.setPreferableBackend(cv::dnn::DNN_BACKEND_CUDA);
net.setPreferableTarget(cv::dnn::DNN_TARGET_CUDA_FP16);
#endif
// 打开视频流,使用视频文件的路径. 0表示默认摄像头
VideoCapture capture(video_path);
// 检查是否成功打开视频流
if(!capture.isOpened())
{
std::cerr << "Error: Could not open video stream." << std::endl;
}
Mat frame, blob;
//处理每一帧
while(capture.read(frame))
{
//图像预处理
blobFromImage(frame, blob, 1 / 255.0, cv::Size(width, height), Scalar(0, 0, 0), true, false);
//设置网络的输入
net.setInput(blob);
//获得当前系统的计时间周期数,求FPS
double t = (double)getTickCount();
//执行推理
vector<Mat> outs;
net.forward(outs, getOutputsNames(net));
//剔除置信度较小的 bounding boxes
postprocess(frame, outs);
//将图像帧转换为CV_8U格式显示
Mat detectedFrame;
frame.convertTo(detectedFrame, CV_8U);
//FPS计算
t = ((double)getTickCount() - t) / getTickFrequency();//求输入帧后经过的周期数/每秒系统计的周期数=一帧用时多少秒
double fps = 1.0 / t;//求倒数得到每秒经过多少帧,即帧率
string text = format("FPS:%.2f",fps);
cv::putText(frame, text, Point(10, 50), FONT_HERSHEY_SIMPLEX, 1, cv::Scalar(0, 255, 0), 2, 8, 0);
imshow("YOLOv3", frame);
int c = waitKey(1);
if (c == 27)
{
break;
}
}
capture.release();
waitKey(0);
}
结束语
感谢你观看我的文章呐~本次航班到这里就结束啦 🛬
希望本篇文章有对你带来帮助 🎉,有学习到一点知识~
躲起来的星星🍥也在努力发光,你也要努力加油(让我们一起努力叭)。
最后,博主要一下你们的三连呀(点赞、评论、收藏),不要钱的还是可以搞一搞的嘛~
不知道评论啥的,即使扣个666也是对博主的鼓舞吖 💞 感谢 💐