文章目录:
一:环境配置搭建(VS2015+Opencv4.6)
二:下资源文件
第一种:本地生成
第二种 直接下载
三:代码展示
窗口布局
main.cpp
test.h
test.cpp
效果图◕‿◕✌✌✌:opencv人脸识别效果图(请叫我真爱粉)
一:环境配置搭建(VS2015+Opencv4.6)
OpenCV4基于C++基础入门笔记:OpenCV环境配置搭建
二:下资源文件
第一种:本地生成
第一步:进入自己的文件夹 D:\OpenCV\opencv\sources\samples\dnn\face_detector 第二步:cmd命令行进入改目录下面去 cd /d D:\OpenCV\opencv\sources\samples\dnn\face_detector 第三步:输入执行命令(如果你的目录下面没有download_weights.py文件夹,用第二种方法) Python download_weights.py
第二种 直接下载
地址:data——>modelsa——>face_detector文件夹下载
三:代码展示
窗口布局
main.cpp
#include<opencv2/opencv.hpp> #include<iostream> #include<test.h> using namespace std; using namespace cv; int main() { //读取进来的数据以矩阵的形势 Mat src = imread("F:/images/gril.jpg", IMREAD_ANYCOLOR); //第二个参数代表显示一张灰度图像 //看是否是空图片 if (src.empty()) { printf("图片不存在"); return -1; } //在主函数中调用创建的类对象 QuickDemo qd; //实时人脸检测 qd.face_detection_demo(src); waitKey(0); //执行到这句,程序阻塞。参数表示延时时间。单位ms毫秒 destroyAllWindows(); //销毁前面创建的显示窗口 return 0; }
test.h
#include<opencv2/opencv.hpp> using namespace cv; //创建一个QuickDemo对象 class QuickDemo { public: //实时人脸检测 void QuickDemo::face_detection_demo(Mat &image); };
test.cpp
#include<test.h> #include<opencv2/dnn.hpp> //命名空间 using namespace cv; using namespace std; //实时人脸检测 void QuickDemo::face_detection_demo(Mat &image) { //自己opencv的face_detector文件夹路径 std::string root_dir = "D:/OpenCV/opencv/sources/samples/dnn/face_detector/"; //读取以TensorFlow框架格式存储的网络文件 //opencv_face_detector_uint8.pb模型 opencv_face_detector.pbtxt配置文件 dnn::Net net = dnn::readNetFromTensorflow(root_dir + "opencv_face_detector_uint8.pb", root_dir + "opencv_face_detector.pbtxt"); //第一种:对本地视频进行识别 //自己视频的地址 VideoCapture capture("F:/images/kunkun.mp4"); //第二种:摄像头进行人脸检测 //VideoCapture capture(0); // 定义一个Mat对象,用于存储捕获到的视频帧 Mat frame; while (true) { // 从摄像头捕获一帧视频,并将捕获到的视频帧传入frame capture.read(frame); // 如果捕获到的视频帧为空,跳出循环 if (frame.empty()) { break; } //左右翻转 //flip(frame, frame, 1); //DNN模块从图像创建blob的过程:从给定的图像帧创建一个blob,该blob可以用于深度学习模型的输入 //参数:输入的图像帧,图像缩放的因子,图像裁剪的大小,图像的色彩空间转换,后面2个参数是确定图像是否需要进行翻转或旋转的标记 Mat blob = dnn::blobFromImage(frame, 1.0, Size(300, 300), Scalar(104, 177, 123), false, false); // 设置深度学习模型的输入:将blob作为模型的输入。blob是一个包含了图像数据的矩阵,通常用于模型的输入层 net.setInput(blob); //是OpenCV中DNN模块的一个函数,用于前向传播计算模型的输出 Mat probs = net.forward(); //计算模型的预测结果 //从预测结果中获取人脸检测的矩阵 //新的Mat对象detectionMat:它的大小是probs的第二维和第三维的大小,数据类型为32位浮点数(对应于OpenCV中的CV_32F) Mat detectionMat(probs.size[2], probs.size[3], CV_32F, probs.ptr<float>()); // 解析检测结果,对每一个检测到的人脸进行处理 for (int i = 0; i < detectionMat.rows; i++) { //从detectionMat矩阵中提取第i行、第2列的元素,并将其存储在confidence变量中 // 获取检测到的人脸的概率(即得分),如果得分大于0.5,则认为检测到了人脸 float confidence = detectionMat.at<float>(i, 2); // 第三个值 得分 if (confidence > 0.5) { // 因为预测来的值为[0,1]范围的数,我们还需要*原图像的宽度和长度,得到实际的位置坐标 //从detectionMat中获取第i行、第3列的元素,也就是每个检测到的对象的置信度(confidence) //这是深度学习模型输出的一个值,表示模型对检测结果的信任程度 //第1个坐标的起始位置 //表示1个坐标或边界的起始位置的x坐标。 int x1 = static_cast<int>(detectionMat.at<float>(i, 3)*frame.cols); //frame.cols帧的列数 //表示1个坐标或边界的起始位置的y坐标。 int y1 = static_cast<int>(detectionMat.at<float>(i, 4)*frame.rows); //第2个坐标的起始位置 int x2 = static_cast<int>(detectionMat.at<float>(i, 5)*frame.cols); int y2 = static_cast<int>(detectionMat.at<float>(i, 6)*frame.rows); // 在原图像上画出检测到的人脸的位置框,并用红色边框显示出来 //左上角坐标(x1,y1)和右下角坐标(x2,y2) Rect box(x1, y1, x2 - x1, y2 - y1); //画矩形:原始图像,坐标,红色,线条宽度为2,线条类型为8,没有填充 rectangle(frame, box, Scalar(0, 0, 255), 2, 8, 0); } } imshow("人脸检测演示", frame); int c = waitKey(1); if (c == 27) { break;// 退出 } } capture.release(); //释放资源 }