【瑞芯微RV1126(板端摄像头图像数据采集)】②使用v4l2视频设备驱动框架采集图像数据,按键拍照并显示

news2024/12/26 21:52:42

RV1126开发板:使用v4l2视频设备驱动框架采集图像数据

    • 前言
    • 一、按键
    • 二、LCD显示
    • 三、V4L2 摄像头应用编程
    • 四、完整代码

前言

本系列的目的是,不仅仅将能够进行图片推理的模型部署于板端,还提供了两种摄像头数据采集的方法,集成到自己的深度学习推理代码之后,可以根据应用场景的不同实现按键控制拍照推理或者是实时推理并显示。
本系列第一篇:https://blog.csdn.net/m0_71523511/article/details/139636367
本系列第二篇:本文
本系列第三篇:https://blog.csdn.net/m0_71523511/article/details/139011550

在本系列第三篇博客中,最后我有提到,读取摄像头数据来进行实时推理或者拍照推理,在那里提供了两种思路:①按照这系列的第一篇博客,搭建环境,调用opencv的高级函数采集图像数据;②按照这篇博客,学习使用v4l2视频设备驱动框架来采集图像数据,本文还提供了板端按键和lcd的示例代码,方便后续集成到自己的深度学习板端项目中。

参考资料:【正点原子】I.MX6U 嵌入式 Linux C 应用编程指南,https://pan.baidu.com/s/1inZtndgN-L3aVfoch2-sKA#list/path=%2F,提取码:m65i,里面有一个文档,名字是:【正点原子】I.MX6U嵌入式Linux C应用编程指南V1.1。
想搞懂v4l2代码的话,建议先看第一章、第二章、第四章、第十四章的存储映射IO,最后再看第二十六章,跟着26.2写代码就可以运行,如果还想使用按键和将图像显示到LCD屏幕上的话还需要看第十八章、二十章等。接下来将每个部分的代码先单独拿出来,头文件就先全部给出。


一、按键

简要介绍
Linux 系统为了统一管理输入设备,实现了一套能够兼容所有输入设备的框架,那么这个框架就
是 input 子系统。驱动开发人员基于 input 子系统开发输入设备的驱动程序, input 子系统可以屏蔽硬件的差
异,向应用层提供一套统一的接口。
基于 input 子系统注册成功的输入设备,都会在/dev/input 目录下生成对应的设备节点(设备文件), 设备节点名称通常为 eventX(X 表示一个数字编号 0、 1、 2、 3 等),譬如/dev/input/event0等, 通过读取这些设备节点可以获取输入设备上报的数据。
在这里插入图片描述
按键示例代码如下:

#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <jpeglib.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>

//按键相关
int key_flag = 0;
int fd_key;

void key_input_Init(const char* key_path)
{
    /*  打开按键文件设备 */
    if (0 > (fd_key = open(key_path, O_RDONLY))) {
        perror("open key_devices error");
        exit(-1);
    }
}
 /*  按键线程 */
static void *key_ctr_takephoto(void *arg)
{
    struct input_event in_ev = {0};     /*  按键事件的返回值会存储到此结构体中,通过判断结构体成员来判断按键的状态 */
    while(1)
    {
         if (sizeof(struct input_event) !=
            read(fd_key, &in_ev, sizeof(struct input_event))) {
            perror("read error");
            exit(-1);
        }
        if (EV_KEY == in_ev.type)
        {
            switch (in_ev.value) {
                case 0:
                    printf("code<%d>: 松开\n", in_ev.code);
                    break;
                case 1:
                    printf("code<%d>: 按下\n", in_ev.code);
                    key_flag = 1;
                    break;
                case 2:
                    printf("code<%d>: 长按\n", in_ev.code);
                    break;
            }
        }
    }
}

int main(int argc,char **argv)
{
        //按键初始化
        key_input_Init(argv[2]);
        /**  按键线程创建  **/  
	    ret = pthread_create(&tid, NULL, key_ctr_takephoto, NULL);
	    if (ret) {
	        fprintf(stderr, "thread create failed: %s\n", strerror(ret));
	        exit(-1);
	    }
	    if(key_flag == 1)
	    {
	        /*  处理 */
	    }
}

二、LCD显示

简要介绍
在 Linux 系统中,显示设备被称为 FrameBuffer 设备(帧缓冲设备),所以 LCD 显示屏自然而言就是 FrameBuffer 设备。FrameBuffer 设备对应的设备文件为/dev/fbX(X 为数字, 0、 1、 2、 3 等) , Linux
下可支持多个 FrameBuffer 设备,最多可达 32 个,分别为/dev/fb0 到/dev/fb31。
在这里插入图片描述
在应用程序中,操作/dev/fbX 的一般步骤如下:

①、首先打开/dev/fbX 设备文件。
②、 使用 ioctl()函数获取到当前显示设备的参数信息,譬如屏幕的分辨率大小、像素格式,根据屏幕参
数计算显示缓冲区的大小。
③、通过存储映射 I/O 方式将屏幕的显示缓冲区映射到用户空间(mmap)。
④、映射成功后就可以直接读写屏幕的显示缓冲区,进行绘图或图片显示等操作了。
⑤、完成显示后, 调用 munmap()取消映射、并调用 close()关闭设备文件。

LCD示例代码如下

#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>

//Lcd相关
#define SHOW_X 300
#define SHOW_Y 300
uint32_t bits_per_pixel;    //像素深度
uint32_t xres_virtual;    //LCD X 分辨率
static int fd_lcd = -1;
static unsigned short *lcd_screen_base = NULL;    //映射后的显存基地址

/* lcd初始化  */
void Framebuffer_Lcd_Init(const char* framebuffer_device_path)
{
    struct fb_var_screeninfo screen_info;   //存储可变参数

    if ((fd_lcd = open(framebuffer_device_path, O_RDWR)) >= 0) {
        if (!ioctl(fd_lcd, FBIOGET_VSCREENINFO, &screen_info)) {
            xres_virtual = screen_info.xres_virtual;
            bits_per_pixel = screen_info.bits_per_pixel;
        }
    }
    else{
        std::cerr << "Failed to open framebuffer device." << std::endl;
        exit(-1);
    }
    /* 将显示缓冲区映射到进程地址空间 */
    size_t screen_size = xres_virtual * bits_per_pixel / 8;
    lcd_screen_base =static_cast<unsigned short*>(mmap(NULL, screen_size, PROT_WRITE | PROT_READ, MAP_SHARED, fd_lcd, 0));
    if ( (void *)lcd_screen_base == MAP_FAILED) {
        std::cerr << "Failed to map framebuffer device to memory." << std::endl;
        close(fd_lcd);
        exit(-1);
    }
}
void Framebuffer_Lcd_Cleanup()
{
    if (lcd_screen_base != NULL && lcd_screen_base != MAP_FAILED) {
        munmap(lcd_screen_base, xres_virtual * bits_per_pixel / 8);
    }
    if (fd_lcd >= 0) {
        close(fd_lcd);
    }
}
/* 显示图像,这里根据自己的需求进行更改 */
void Lcd_show_picture(const cv::Mat& image) {
    cv::Mat convert_image;
    cv::resize(image, convert_image, cv::Size(SHOW_X, SHOW_Y)); 
    cv::Size2f image_size = convert_image.size();
    cv::Mat framebuffer_image;

    cv::cvtColor(convert_image, framebuffer_image, cv::COLOR_BGR2BGR565);
     for (int y = 0; y < image_size.height; y++) {
         memcpy(lcd_screen_base + y * xres_virtual * 2, convert_image.ptr(y), image_size.width * 2);
    }
}

int main(int argc,char **argv)
{
    //Lcd初始化
    Framebuffer_Lcd_Init(argv[1]);
    if(...)
    {
        Lcd_show_picture(frame);
    }
}

三、V4L2 摄像头应用编程

简要介绍
V4L2 是 Video for linux two 的简称,是 Linux 内核中视频类设备的一套驱动框架,为视频类设备驱动开发和应用层提供了一套统一的接口规范。使用 V4L2 设备驱动框架注册的设备会在 Linux 系统/dev/目录下生成对应的设备节点文件,设备节点的名称通常为 videoX(X 标准一个数字编号, 0、 1、 2、 3……),每一个 videoX 设备文件就代表一个视频类设备。应用程序通过对 videoX 设备文件进行 I/O 操作来配置、使用设备类设备:
在这里插入图片描述
V4L2 设备驱动框架编程模式

1. 首先是打开摄像头设备;
2. 查询设备的属性或功能;
3. 设置设备的参数,譬如像素格式、 帧大小、 帧率;
4. 申请帧缓冲、 内存映射;
5. 帧缓冲入队;
6. 开启视频采集;
7. 帧缓冲出队、对采集的数据进行处理;
8. 处理完后,再次将帧缓冲入队,往复;
9. 结束采集

相机数据采集示例代码如下

#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>

int main(int argc,char **argv)
{
    struct v4l2_capability v_cap;  //存储查询到的设备属性/能力/功能,在开发之前需要通过VIDIOC_QUERYCAP、VIDIOC_ENUM_FMT、VIDIOC_G_FMT指令,使用ioctl查询摄像头的信息,以便后续开发
    struct v4l2_fmtdesc fmtdesc;  //存储枚举出摄像头支持的所有像素格式
    struct v4l2_frmsizeenum frmsize;  //存储枚举出来的摄像头所支持的所有视频采集分辨率(ioctl(int fd, VIDIOC_ENUM_FRAMESIZES, struct v4l2_frmsizeenum *frmsize);)
    struct v4l2_format fmt;  //存储 查看或设置当前的帧格式
    struct v4l2_streamparm streamparm;  //设置或获取当前的流类型相关参数,没啥用
    struct v4l2_requestbuffers reqbuf;  //存储申请帧缓冲的信息
    struct v4l2_buffer buf;  //存储查询到的帧缓冲队列的信息
    enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //存储打开或关闭视频采集的信息
    
    void *frm_base[3];  //帧缓冲映射到用户空间的地址
    pthread_t tid;  //按键线程句柄
    int ret;
    int fd_cam = -1;
    
    //参数个数校验
    if (4 != argc) {
      fprintf(stderr, "usage: %s <output-lcd-dev>,%s <input-key-dev>,%s <input-camera-dev>", argv[1],argv[2],argv[3]);
      exit(-1);
    }
    
    //打开摄像头设备文件
    fd_cam = open(argv[3],O_RDWR);
    if(fd_cam < 0)
    {
        fprintf(stderr, "open error: %s: %s\n", argv[3], strerror(errno));
        exit(-1);
    }
    else
    {
        printf("open-camera-success\n");
    }

    /* 查询设备的属性/能力/功能 : VIDIOC_QUERYCAP */
    //ioctl(int fd, VIDIOC_QUERYCAP, struct v4l2_capability *cap); //通过 ioctl()将获取到一个 struct v4l2_capability 类型的数据
    //可以通过判断结构体中的 capabilities 字段是否包含 V4L2_CAP_VIDEO_CAPTURE、 来确定它是否是一个摄像头设备。下面三点是获取参数示例
            /* 1、判断摄像头是否可以cap图像 */
            //ioctl(fd, VIDIOC_QUERYCAP, &v_cap);
            //if (!(V4L2_CAP_VIDEO_CAPTURE & v_cap.capabilities)) {
                //fprintf(stderr, "Error: No capture video device!\n");
                //return -1;
            //}
            //else
            //{
                //printf("have capture video device!\n");
            //}
            /* 2、枚举出摄像头所支持的所有像素格式以及描述信息 : 支持yvuv和jpeg*/
            //fmtdesc.index = 0;
            //fmtdesc.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
            //while (0 == ioctl(fd, VIDIOC_ENUM_FMT, &fmtdesc)) {
                //printf("fmt: %s <0x%x>\n", fmtdesc.description, fmtdesc.pixelformat);
                //fmtdesc.index++;
            //}

            /* 3、枚举出摄像头所支持的frame_size:1280*720;800*600;640*480;......*/
            //frmsize.index = 0;
            //frmsize.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
            //frmsize.pixel_format = V4L2_PIX_FMT_YUYV;
            //while (0 == ioctl(fd, VIDIOC_ENUM_FRAMESIZES, &frmsize)) {
                //printf("frame_size<%d*%d>\n", frmsize.discrete.width, frmsize.discrete.height);
                //frmsize.index++;
            //}
    
    /* 设置帧格式信息 : VIDIOC_S_FMT (要设置像素格式,首先得知道该设备支持哪些像素格式,ioctl(int fd, VIDIOC_ENUM_FMT, struct v4l2_fmtdesc *fmtdesc);)*/
    fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //type 字 段 需 要 在 调 用 ioctl() 之 前 设 置 它 的 值
    if (0 > ioctl(fd_cam, VIDIOC_G_FMT, &fmt)) { //将获取到的帧格式信息存储到fmt结构体对象中
      perror("ioctl error");
      return -1;
    }
    printf("width:%d, height:%d format:%d\n", fmt.fmt.pix.width, fmt.fmt.pix.height, fmt.fmt.pix.pixelformat);
    fmt.fmt.pix.width = 1280;  //根据自己的需求设置帧格式信息
    fmt.fmt.pix.height = 720;
    fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;  //设置成YUYV格式,因为我这个usb摄像头只支持这个格式
    if (0 > ioctl(fd_cam, VIDIOC_S_FMT, &fmt)) { 
      perror("ioctl error");
      return -1;
    }
        
    /**  申请帧缓冲队列 : VIDIOC_REQBUFS (读取摄像头数据的方式有两种,一种是 read 方式另一种则是 streaming 方式,使用streaming I/O 方式,我们需要向设备申请帧缓冲,并将帧缓冲映射到应用程序进程地址空间中,帧缓冲顾名思义就是用于存储一帧图像数据的缓冲区)**/   
    reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//type 字 段 需 要 在 调 用 ioctl() 之 前 设 置 它 的 值,表示是视频流采集
    reqbuf.count = 3; //申请帧缓冲的数量
    reqbuf.memory = V4L2_MEMORY_MMAP;//通常将 memory 设置为 V4L2_MEMORY_MMAP 即可
    if (0 > ioctl(fd_cam, VIDIOC_REQBUFS, &reqbuf)) {
        fprintf(stderr, "ioctl error: VIDIOC_REQBUFS: %s\n", strerror(errno));
        return -1;
    }//streaming I/O 方式会在内核空间中维护一个帧缓冲队列, 驱动程序会将从摄像头读取的一帧数据写入到队列中的一个帧缓冲,接着将下一帧数据写入到队列中的下一个帧缓冲;当应用程序需要读取一帧数据时,需要从队列中取出一个装满一帧数据的帧缓冲,这个取出过程就叫做出队;当应用程序处理完这一帧数据后,需要再把这个帧缓冲加入到内核的帧缓冲队列中,这个过程叫做入队!
    
    /**  将帧缓冲队列映射到进程地址空间:mmap,之后直接操作这块地址就可以实现视频数据的读取(上一步申请的帧缓冲, 该缓冲区实质上是由内核所维护的,应用程序不能直接读
取该缓冲区的数据,我们需要将其映射到用户空间中)  **/   
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    for (buf.index = 0; buf.index < reqbuf.count; buf.index++) {
        ioctl(fd_cam, VIDIOC_QUERYBUF, &buf);  //查询帧缓冲:VIDIOC_QUERYBUF,信息存储到buf结构体中
        frm_base[buf.index] = mmap(NULL, buf.length,PROT_READ | PROT_WRITE, MAP_SHARED,fd_cam, buf.m.offset);
        if (MAP_FAILED == frm_base[buf.index]) {
            perror("mmap error");
            return -1;
            }
     }
     
    /**  帧缓冲入队操作 : VIDIOC_QBUF (将三个帧缓冲放入内核的帧缓冲队列(入队操作)中) **/   
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    for (buf.index = 0; buf.index < 3; buf.index++) {
        if (0 > ioctl(fd_cam, VIDIOC_QBUF, &buf)) {
            perror("ioctl error");
            return -1;
        }
    }
    /**  开启视频采集 :VIDIOC_STREAMON (将三个帧缓冲放入到帧缓冲队列中之后,接着便可以打开摄像头、开启图像采集了)  **/  
    if (0 > ioctl(fd_cam, VIDIOC_STREAMON, &type)) {
        perror("ioctl error");
        return -1;
    }
    /**  读取数据、对数据进行处理  **/   
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    while(1){
        for(buf.index = 0; buf.index < 3; buf.index++) {
            ioctl(fd_cam, VIDIOC_DQBUF, &buf); //帧缓冲出队操作:VIDIOC_DQBUF(直接读取每一个帧缓冲的在用户空间的映射区即可读取到摄像头采集的每一帧图像数据。在读取数据之前,需要将帧缓冲从内核的帧缓冲队列中取出,这个操作叫做帧缓冲出队)
            if(....)
            {
                // 处理这一帧数据
                cv::Mat frame(fmt.fmt.pix.height, fmt.fmt.pix.width, CV_8UC2, frm_base[buf.index]); // 创建一个与帧数据相同尺寸的图像
                cv::Mat converted; // 用于转换格式的临时图像
                
                // 将YUYV格式的图像转换为BGR格式
                cv::cvtColor(frame, converted, cv::COLOR_YUV2BGR_YUYV);
                
                // 保存图像
                std::string filename = "frame.jpg";
                cv::imwrite(filename, converted);
                
                /* 这里可以添加深度学习模型推理的相关代码(建议是在已经能够读取图片并进行推理的代码中,移植进本代码)  */
                /*
                    情况1:
                        只想通过按键按下之后,推理一张图片并将结果显示在lcd屏幕上
                        例如:给出伪代码
                        ①读取保存的jpg图像
                        ②图像格式转换,送入模型推理
                        ③后处理
                        ④调用lcd显示函数,将经过后处理的结果图送入lcd进行显示
                        
                    情况2:
                        实时将推理结果显示到lcd屏幕上,那么就不需要这个key_flag判断,直接进行推理,将推理结果图片进行显示即可。需要修改图片格式,以适配lcd显示的输入图像要求。
                        (大部分开发板都是可以支持opencv的高级函数直接读取摄像头图像数据的,本代码适合正在学习嵌入式应用开发的小伙伴,学习应用层如何通过v4l2驱动框架来实现摄像头数据
                        采集。如果觉得没必要的话,若是板子支持opencv的capture调用,那就直接用,这里的按键和lcd还是有使用价值的;若是板子不直接支持opencv的capture调用,那就需要
                        在开发的虚拟机环境中,使用交叉编译工具链交叉编译完整的opencv,这样就能调用capture函数直接读取摄像头数据了,注:本代码是在rv1126的虚拟机环境中开发,交叉编译
                        之后生成的可执行文件再放到板端运行,可以参考博客中另一篇文章,关于交叉编译opencv的。)
                */
                
            }
            ioctl(fd_cam, VIDIOC_QBUF, &buf);  //一帧结束之后再次帧缓冲入队操作
        }
    }
    
    exit(-1);
}

四、完整代码

#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>

//按键相关
int key_flag = 0;
int fd_key;
//Lcd相关
#define SHOW_X 300
#define SHOW_Y 300
uint32_t bits_per_pixel;
uint32_t xres_virtual;
static int fd_lcd = -1;
static unsigned short *lcd_screen_base = NULL;

void Framebuffer_Lcd_Init(const char* framebuffer_device_path)
{
    struct fb_var_screeninfo screen_info;

    if ((fd_lcd = open(framebuffer_device_path, O_RDWR)) >= 0) {
        if (!ioctl(fd_lcd, FBIOGET_VSCREENINFO, &screen_info)) {
            xres_virtual = screen_info.xres_virtual;
            bits_per_pixel = screen_info.bits_per_pixel;
        }
    }
    else{
        std::cerr << "Failed to open framebuffer device." << std::endl;
        exit(-1);
    }

    size_t screen_size = xres_virtual * bits_per_pixel / 8;
    lcd_screen_base =static_cast<unsigned short*>(mmap(NULL, screen_size, PROT_WRITE | PROT_READ, MAP_SHARED, fd_lcd, 0));
    if ( (void *)lcd_screen_base == MAP_FAILED) {
        std::cerr << "Failed to map framebuffer device to memory." << std::endl;
        close(fd_lcd);
        exit(-1);
    }
}
void Framebuffer_Lcd_Cleanup()
{
    if (lcd_screen_base != NULL && lcd_screen_base != MAP_FAILED) {
        munmap(lcd_screen_base, xres_virtual * bits_per_pixel / 8);
    }
    if (fd_lcd >= 0) {
        close(fd_lcd);
    }
}
void Lcd_show_picture(const cv::Mat& image) {
    cv::Mat transposed_image;
    cv::resize(image, transposed_image, cv::Size(SHOW_X, SHOW_Y)); 
    cv::Size2f image_size = transposed_image.size();
    cv::Mat framebuffer_compat;

    switch (bits_per_pixel) {
        case 16:
            cv::cvtColor(transposed_image, framebuffer_compat, cv::COLOR_BGR2BGR565);
            for (int y = 0; y < image_size.height; y++) {
                memcpy(lcd_screen_base + y * xres_virtual * 2, framebuffer_compat.ptr(y), image_size.width * 2);
            }
            break;
        case 32: {
            std::vector<cv::Mat> split_bgr;
            cv::split(transposed_image, split_bgr);
            split_bgr.push_back(cv::Mat(image_size, CV_8UC1, cv::Scalar(255)));
            cv::merge(split_bgr, framebuffer_compat);
            for (int y = 0; y < image_size.height; y++) {
                memcpy(lcd_screen_base + y * xres_virtual * 4, framebuffer_compat.ptr(y), image_size.width * 4);
            }
        } break;
        default:
            std::cerr << "Unsupported depth of framebuffer." << std::endl;
            break;
    }   
}

void key_input_Init(const char* key_path)
{
    if (0 > (fd_key = open(key_path, O_RDONLY))) {
        perror("open key_devices error");
        exit(-1);
    }
}

static void *key_ctr_takephoto(void *arg)
{
    struct input_event in_ev = {0};
    while(1)
    {
         if (sizeof(struct input_event) !=
            read(fd_key, &in_ev, sizeof(struct input_event))) {
            perror("read error");
            exit(-1);
        }
        if (EV_KEY == in_ev.type)
        {
            switch (in_ev.value) {
                case 0:
                    printf("code<%d>: 松开\n", in_ev.code);
                    break;
                case 1:
                    printf("code<%d>: 按下\n", in_ev.code);
                    key_flag = 1;
                    break;
                case 2:
                    printf("code<%d>: 长按\n", in_ev.code);
                    break;
            }
        }
    }
}

int main(int argc,char **argv)
{
    struct v4l2_capability v_cap;  //存储查询到的设备属性/能力/功能,在开发之前需要通过VIDIOC_QUERYCAP、VIDIOC_ENUM_FMT、VIDIOC_G_FMT指令,使用ioctl查询摄像头的信息,以便后续开发
    struct v4l2_fmtdesc fmtdesc;  //存储枚举出摄像头支持的所有像素格式
    struct v4l2_frmsizeenum frmsize;  //存储枚举出来的摄像头所支持的所有视频采集分辨率(ioctl(int fd, VIDIOC_ENUM_FRAMESIZES, struct v4l2_frmsizeenum *frmsize);)
    struct v4l2_format fmt;  //存储 查看或设置当前的帧格式
    struct v4l2_streamparm streamparm;  //设置或获取当前的流类型相关参数,没啥用
    struct v4l2_requestbuffers reqbuf;  //存储申请帧缓冲的信息
    struct v4l2_buffer buf;  //存储查询到的帧缓冲队列的信息
    enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //存储打开或关闭视频采集的信息
    
    void *frm_base[3];  //帧缓冲映射到用户空间的地址
    pthread_t tid;  //按键线程句柄
    int ret;
    int fd_cam = -1;
    
    //参数个数校验
    if (4 != argc) {
      fprintf(stderr, "usage: %s <output-lcd-dev>,%s <input-key-dev>,%s <input-camera-dev>", argv[1],argv[2],argv[3]);
      exit(-1);
    }
    
    //Lcd初始化
    Framebuffer_Lcd_Init(argv[1]);
    //按键初始化
    key_input_Init(argv[2]);
    
    //打开摄像头设备文件
    fd_cam = open(argv[3],O_RDWR);
    if(fd_cam < 0)
    {
        fprintf(stderr, "open error: %s: %s\n", argv[3], strerror(errno));
        exit(-1);
    }
    else
    {
        printf("open-camera-success\n");
    }

    /* 查询设备的属性/能力/功能 : VIDIOC_QUERYCAP */
    //ioctl(int fd, VIDIOC_QUERYCAP, struct v4l2_capability *cap); //通过 ioctl()将获取到一个 struct v4l2_capability 类型的数据
    //可以通过判断结构体中的 capabilities 字段是否包含 V4L2_CAP_VIDEO_CAPTURE、 来确定它是否是一个摄像头设备。下面三点是获取参数示例
            /* 1、判断摄像头是否可以cap图像 */
            //ioctl(fd, VIDIOC_QUERYCAP, &v_cap);
            //if (!(V4L2_CAP_VIDEO_CAPTURE & v_cap.capabilities)) {
                //fprintf(stderr, "Error: No capture video device!\n");
                //return -1;
            //}
            //else
            //{
                //printf("have capture video device!\n");
            //}
            /* 2、枚举出摄像头所支持的所有像素格式以及描述信息 : 支持yvuv和jpeg*/
            //fmtdesc.index = 0;
            //fmtdesc.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
            //while (0 == ioctl(fd, VIDIOC_ENUM_FMT, &fmtdesc)) {
                //printf("fmt: %s <0x%x>\n", fmtdesc.description, fmtdesc.pixelformat);
                //fmtdesc.index++;
            //}

            /* 3、枚举出摄像头所支持的frame_size:1280*720;800*600;640*480;......*/
            //frmsize.index = 0;
            //frmsize.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
            //frmsize.pixel_format = V4L2_PIX_FMT_YUYV;
            //while (0 == ioctl(fd, VIDIOC_ENUM_FRAMESIZES, &frmsize)) {
                //printf("frame_size<%d*%d>\n", frmsize.discrete.width, frmsize.discrete.height);
                //frmsize.index++;
            //}
    
    /* 设置帧格式信息 : VIDIOC_S_FMT (要设置像素格式,首先得知道该设备支持哪些像素格式,ioctl(int fd, VIDIOC_ENUM_FMT, struct v4l2_fmtdesc *fmtdesc);)*/
    fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //type 字 段 需 要 在 调 用 ioctl() 之 前 设 置 它 的 值
    if (0 > ioctl(fd_cam, VIDIOC_G_FMT, &fmt)) { //将获取到的帧格式信息存储到fmt结构体对象中
      perror("ioctl error");
      return -1;
    }
    printf("width:%d, height:%d format:%d\n", fmt.fmt.pix.width, fmt.fmt.pix.height, fmt.fmt.pix.pixelformat);
    fmt.fmt.pix.width = 1280;  //根据自己的需求设置帧格式信息
    fmt.fmt.pix.height = 720;
    fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;  //设置成YUYV格式,因为我这个usb摄像头只支持这个格式
    if (0 > ioctl(fd_cam, VIDIOC_S_FMT, &fmt)) { 
      perror("ioctl error");
      return -1;
    }
        
    /**  申请帧缓冲队列 : VIDIOC_REQBUFS (读取摄像头数据的方式有两种,一种是 read 方式另一种则是 streaming 方式,使用streaming I/O 方式,我们需要向设备申请帧缓冲,并将帧缓冲映射到应用程序进程地址空间中,帧缓冲顾名思义就是用于存储一帧图像数据的缓冲区)**/   
    reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//type 字 段 需 要 在 调 用 ioctl() 之 前 设 置 它 的 值,表示是视频流采集
    reqbuf.count = 3; //申请帧缓冲的数量
    reqbuf.memory = V4L2_MEMORY_MMAP;//通常将 memory 设置为 V4L2_MEMORY_MMAP 即可
    if (0 > ioctl(fd_cam, VIDIOC_REQBUFS, &reqbuf)) {
        fprintf(stderr, "ioctl error: VIDIOC_REQBUFS: %s\n", strerror(errno));
        return -1;
    }//streaming I/O 方式会在内核空间中维护一个帧缓冲队列, 驱动程序会将从摄像头读取的一帧数据写入到队列中的一个帧缓冲,接着将下一帧数据写入到队列中的下一个帧缓冲;当应用程序需要读取一帧数据时,需要从队列中取出一个装满一帧数据的帧缓冲,这个取出过程就叫做出队;当应用程序处理完这一帧数据后,需要再把这个帧缓冲加入到内核的帧缓冲队列中,这个过程叫做入队!
    
    /**  将帧缓冲队列映射到进程地址空间:mmap,之后直接操作这块地址就可以实现视频数据的读取(上一步申请的帧缓冲, 该缓冲区实质上是由内核所维护的,应用程序不能直接读
取该缓冲区的数据,我们需要将其映射到用户空间中)  **/   
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    for (buf.index = 0; buf.index < reqbuf.count; buf.index++) {
        ioctl(fd_cam, VIDIOC_QUERYBUF, &buf);  //查询帧缓冲:VIDIOC_QUERYBUF,信息存储到buf结构体中
        frm_base[buf.index] = mmap(NULL, buf.length,PROT_READ | PROT_WRITE, MAP_SHARED,fd_cam, buf.m.offset);
        if (MAP_FAILED == frm_base[buf.index]) {
            perror("mmap error");
            return -1;
            }
     }
     
    /**  帧缓冲入队操作 : VIDIOC_QBUF (将三个帧缓冲放入内核的帧缓冲队列(入队操作)中) **/   
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    for (buf.index = 0; buf.index < 3; buf.index++) {
        if (0 > ioctl(fd_cam, VIDIOC_QBUF, &buf)) {
            perror("ioctl error");
            return -1;
        }
    }
    /**  开启视频采集 :VIDIOC_STREAMON (将三个帧缓冲放入到帧缓冲队列中之后,接着便可以打开摄像头、开启图像采集了)  **/  
    if (0 > ioctl(fd_cam, VIDIOC_STREAMON, &type)) {
        perror("ioctl error");
        return -1;
    }
    
    /**  按键线程创建  **/  
    ret = pthread_create(&tid, NULL, key_ctr_takephoto, NULL);
    if (ret) {
        fprintf(stderr, "thread create failed: %s\n", strerror(ret));
        exit(-1);
    }
    
    /**  读取数据、对数据进行处理  **/   
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    while(1){
        for(buf.index = 0; buf.index < 3; buf.index++) {
            ioctl(fd_cam, VIDIOC_DQBUF, &buf); //帧缓冲出队操作:VIDIOC_DQBUF(直接读取每一个帧缓冲的在用户空间的映射区即可读取到摄像头采集的每一帧图像数据。在读取数据之前,需要将帧缓冲从内核的帧缓冲队列中取出,这个操作叫做帧缓冲出队)
            if(key_flag == 1)
            {
                // 处理这一帧数据
                cv::Mat frame(fmt.fmt.pix.height, fmt.fmt.pix.width, CV_8UC2, frm_base[buf.index]); // 创建一个与帧数据相同尺寸的图像
                cv::Mat converted; // 用于转换格式的临时图像
                
                // 将YUYV格式的图像转换为BGR格式
                cv::cvtColor(frame, converted, cv::COLOR_YUV2BGR_YUYV);
                
                // 保存图像
                std::string filename = "frame.jpg";
                cv::imwrite(filename, converted);
                
                /* 这里可以添加深度学习模型推理的相关代码(建议是在已经能够读取图片并进行推理的代码中,移植进本代码)  */
                /*
                    情况1:
                        只想通过按键按下之后,推理一张图片并将结果显示在lcd屏幕上
                        例如:给出伪代码
                        ①读取保存的jpg图像
                        ②图像格式转换,送入模型推理
                        ③后处理
                        ④调用lcd显示函数,将经过后处理的结果图送入lcd进行显示
                        
                    情况2:
                        实时将推理结果显示到lcd屏幕上,那么就不需要这个key_flag判断,直接进行推理,将推理结果图片进行显示即可。需要修改图片格式,以适配lcd显示的输入图像要求。
                        (大部分开发板都是可以支持opencv的高级函数直接读取摄像头图像数据的,本代码适合正在学习嵌入式应用开发的小伙伴,学习应用层如何通过v4l2驱动框架来实现摄像头数据
                        采集。如果觉得没必要的话,若是板子支持opencv的capture调用,那就直接用,这里的按键和lcd还是有使用价值的;若是板子不直接支持opencv的capture调用,那就需要
                        在开发的虚拟机环境中,使用交叉编译工具链交叉编译完整的opencv,这样就能调用capture函数直接读取摄像头数据了,注:本代码是在rv1126的虚拟机环境中开发,交叉编译
                        之后生成的可执行文件再放到板端运行,可以参考博客中另一篇文章,关于交叉编译opencv的。)
                */
                
                key_flag = 0;
            }
            ioctl(fd_cam, VIDIOC_QBUF, &buf);  //一帧结束之后再次帧缓冲入队操作
        }
    }
    
    exit(-1);
}

将这里面自己需要用到的移植到自己的程序中即可,这里没用到.h文件,只需要写一个cmakelist即可编译运行。
CMakeLists.txt

cmake_minimum_required(VERSION 3.10)

project(01)

# 设置C++标准
set(CMAKE_CXX_STANDARD 11)

# 寻找OpenCV包
find_package(OpenCV 4.2.0 REQUIRED)

# 添加可执行文件
add_executable(test test.cpp)

# 添加依赖库
find_package(Threads REQUIRED)  

# 链接依赖库
target_link_libraries(test
    Threads::Threads  # 多线程
    ${OpenCV_LIBS}
)

代码目录结构如下
在这里插入图片描述
编译和测试

cd build
cmake ..
make
./test /dev/fb0 /dev/input/event1 /dev/video8
这里的设备文件需要根据自己的进行更换

接下来是c++面向对象的代码,旨在练习:
main.cpp

#include "v4l2_cam.h"

//鎸夐敭鐩稿叧
int key_flag = 0;


static void *key_ctr_takephoto(void *arg)
{
    unsigned char key;
    while(1)
    {
            key = getchar();
            if (key == '\n') { 
                key_flag = 1;
            }
    }
}

int main(int argc,char **argv)
{
    int ret;
    pthread_t tid;
    
    v4l2_camera v1;

    if (2 != argc) {
      fprintf(stderr, "usage:%s <input-camera-dev>", argv[1]);
      exit(-1);
    }

    ret = pthread_create(&tid, NULL, key_ctr_takephoto, NULL);
    if (ret) {
        fprintf(stderr, "thread create failed: %s\n", strerror(ret));
        exit(-1);
    }
    
    v1.camera_init(argv[1]);
    while(1){
            if(key_flag == 1)
            {
                v1.Start_video_captureandprocess();
                key_flag = 0;
            }
    }

    exit(-1);
}

v4l2_cam.cpp:

#include "v4l2_cam.h"

v4l2_camera::v4l2_camera()
{
    
}

void v4l2_camera::camera_init(char* arg)
{
    struct v4l2_capability v_cap;  //瀛樺偍鏌ヨ鍒扮殑璁惧灞炴€?鑳藉姏/鍔熻兘锛屽湪寮€鍙戜箣鍓嶉渶瑕侀€氳繃VIDIOC_QUERYCAP銆乂IDIOC_ENUM_FMT銆乂IDIOC_G_FMT鎸囦护锛屼娇鐢╥octl鏌ヨ鎽勫儚澶寸殑淇℃伅锛屼互渚垮悗缁紑鍙?
    struct v4l2_fmtdesc fmtdesc;  //瀛樺偍鏋氫妇鍑烘憚鍍忓ご鏀寔鐨勬墍鏈夊儚绱犳牸寮?
    struct v4l2_frmsizeenum frmsize;  //瀛樺偍鏋氫妇鍑烘潵鐨勬憚鍍忓ご鎵€鏀寔鐨勬墍鏈夎棰戦噰闆嗗垎杈ㄧ巼(ioctl(int fd, VIDIOC_ENUM_FRAMESIZES, struct v4l2_frmsizeenum *frmsize);)
    struct v4l2_streamparm streamparm;  //璁剧疆鎴栬幏鍙栧綋鍓嶇殑娴佺被鍨嬬浉鍏冲弬鏁?娌″暐鐢?
    struct v4l2_requestbuffers reqbuf;  //瀛樺偍鐢宠甯х紦鍐茬殑淇℃伅
    enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //瀛樺偍鎵撳紑鎴栧叧闂棰戦噰闆嗙殑淇℃伅

    //鎵撳紑鎽勫儚澶磋澶囨枃浠?
    v4l2_camera::fd_cam = open(arg,O_RDWR);
    if(v4l2_camera::fd_cam < 0)
    {
        fprintf(stderr, "open error: %s: %s\n", arg, strerror(errno));
        exit(-1);
    }
    else
    {
        printf("open-camera-success\n");
    }

    /* 璁剧疆甯ф牸寮忎俊鎭?: VIDIOC_S_FMT  */
    fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; 
    if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_G_FMT, &fmt)) { 
      perror("ioctl error");
      exit(-1);
    }
    printf("width:%d, height:%d format:%d\n", fmt.fmt.pix.width, fmt.fmt.pix.height, fmt.fmt.pix.pixelformat);
    fmt.fmt.pix.width = 1280;  //鏍规嵁鑷繁鐨勯渶姹傝缃抚鏍煎紡淇℃伅
    fmt.fmt.pix.height = 720;
    fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;  //璁剧疆鎴怸UYV鏍煎紡锛屽洜涓烘垜杩欎釜usb鎽勫儚澶村彧鏀寔杩欎釜鏍煎紡
    if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_S_FMT, &fmt)) { 
      perror("ioctl error");
      exit(-1);
    }

    /**  鐢宠甯х紦鍐查槦鍒?: VIDIOC_REQBUFS **/   
    reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//type 瀛?娈?闇€ 瑕?鍦?璋?鐢?ioctl() 涔?鍓?璁?缃?瀹?鐨?鍊硷紝琛ㄧず鏄棰戞祦閲囬泦
    reqbuf.count = 3; //鐢宠甯х紦鍐茬殑鏁伴噺
    reqbuf.memory = V4L2_MEMORY_MMAP;//閫氬父灏?memory 璁剧疆涓?V4L2_MEMORY_MMAP 鍗冲彲
    if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_REQBUFS, &reqbuf)) {
        fprintf(stderr, "ioctl error: VIDIOC_REQBUFS: %s\n", strerror(errno));
        exit(-1);
    }

    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    for (buf.index = 0; buf.index < reqbuf.count; buf.index++) {
        ioctl(v4l2_camera::fd_cam, VIDIOC_QUERYBUF, &buf);  //鏌ヨ甯х紦鍐?VIDIOC_QUERYBUF锛屼俊鎭瓨鍌ㄥ埌buf缁撴瀯浣撲腑
        frm_base[buf.index] = mmap(NULL, buf.length,PROT_READ | PROT_WRITE, MAP_SHARED,v4l2_camera::fd_cam, buf.m.offset);
        if (MAP_FAILED == v4l2_camera::frm_base[buf.index]) {
            perror("mmap error");
            exit(-1);
            }
     }

    /**  甯х紦鍐插叆闃熸搷浣?锛?VIDIOC_QBUF 锛堝皢涓変釜甯х紦鍐叉斁鍏ュ唴鏍哥殑甯х紦鍐查槦鍒楋紙鍏ラ槦鎿嶄綔锛変腑锛?**/   
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    for (buf.index = 0; buf.index < 3; buf.index++) {
        if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_QBUF, &buf)) {
            perror("ioctl error");
            exit(-1);
        }
    }
    
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_STREAMON, &type)) {
        perror("ioctl error");
        exit(-1);
    }
}

void v4l2_camera::Start_video_captureandprocess()
{
        for(buf.index = 0; buf.index < 1; buf.index++) 
        {
             ioctl(fd_cam, VIDIOC_DQBUF, &buf); //帧缓冲出队操作:VIDIOC_DQBUF(直接读取每一个帧缓冲的在用户空间的映射区即可读取到摄像头采集的每一帧图像数据。在读取数据之前,需要将帧缓冲从内核的帧缓冲队列中取出,这个操作叫做帧缓冲出队)
                // 处理这一帧数据
                cv::Mat frame(fmt.fmt.pix.height, fmt.fmt.pix.width, CV_8UC2, frm_base[buf.index]); // 创建一个与帧数据相同尺寸的图像
                cv::Mat converted; // 用于转换格式的临时图像
                
                // 将YUYV格式的图像转换为BGR格式
                cv::cvtColor(frame, converted, cv::COLOR_YUV2BGR_YUYV);
                
                // 保存图像
                std::string filename = "frame.jpg";
                cv::imwrite(filename, converted);
                std::cout << "picture save success" << std::endl;
                
            ioctl(fd_cam, VIDIOC_QBUF, &buf);  //一帧结束之后再次帧缓冲入队操作
        }
}

v4l2_cam.h:

#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <jpeglib.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>

class v4l2_camera
{
public:
    v4l2_camera();

    int fd_cam = -1;
    void *frm_base[3];  //甯х紦鍐叉槧灏勫埌鐢ㄦ埛绌洪棿鐨勫湴鍧€
    
    struct v4l2_buffer buf; 
    struct v4l2_format fmt;

    void camera_init(char *argv);
    void Start_video_captureandprocess();
};

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2039668.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【python】OpenCV—Optical Flow

文章目录 1、光流2、Opencv 中光流的实现3、稀疏光流4、密集光流4.1、farneback4.2、lucaskanade_dense4.3、rlof 5、涉及到的库5.1、cv2.goodFeaturesToTrack5.2、cv2.calcOpticalFlowPyrLK5.3、cv2.optflow.calcOpticalFlowSparseToDense5.4、cv2.calcOpticalFlowFarneback5.…

超赞!墙裂推荐这款开箱即用、永久免费的运维监控平台

文章目录 简介一、初次印象&#xff1a;直观而强大的界面二、深入体验&#xff1a;6个重点功能模块1、告警管理2、综合监控3、业务服务4、网络拓扑5、可视化管理6、知识库7、报表管理 Lerwee AI 在当今这个数字化时代&#xff0c;企业依赖于强大的IT基础设施来支持其日常运营。…

微软Detours Hook库编译与使用

Detours 是微软开发的一个强大的Windows API钩子库&#xff0c;用于监视和拦截函数调用。它广泛应用于微软产品团队和众多独立软件开发中&#xff0c;旨在无需修改原始代码的情况下实现函数拦截和修改。Detours 在调试、监控、日志记录和性能分析等方面表现出色&#xff0c;已成…

java之如何爬取本地数据(利用正则表达式)

public class RegexDemo4 {public static void main(String[] args) {String s"程序员学习java&#xff0c;""电话&#xff1a;181512516758&#xff0c;18512508907" "或者联系邮箱&#xff1a;boniuitcast.cn&#xff0c;""座机电话&…

基于vue框架的RTY个人记账管理系统03jc1(程序+源码+数据库+调试部署+开发环境)系统界面在最后面。

系统程序文件列表 项目功能&#xff1a;用户,收入分类,支出分类,收入信息,支出信息,开支预算,负债信息 开题报告内容 基于Vue框架的RTY个人记账管理系统 开题报告 一、研究背景与意义 随着社会经济的快速发展和人们生活水平的不断提升&#xff0c;个人财务管理成为越来越…

centos7.9 内核升级至5.4

一、修改yum源 查看现有系统内核版本&#xff1a; 备份系统自带的yum源&#xff1a; 一、修改CentOS-Base.repo ## cat CentOS-Base.repo # CentOS-Base.repo # # The mirror system uses the connecting IP address of the client and the # update status of each mirror t…

详细解读keepalived高可用集群

一.高可用集群 1.1 集群类型 LB&#xff1a;Load Balance 负载均衡LVS/HAProxy/nginx&#xff08;http/upstream, stream/upstream&#xff09;HA&#xff1a;High Availability 高可用集群数据库、RedisSPoF: Single Point of Failure&#xff0c;解决单点故障HPC&#xff1…

docker容器挂载USB串口设备

1、在容器所在宿主机确认USB串口设备 有两种方法可以将USB设备挂载到容器中: 使用--privileged参数或者使用--device参数 --prvleged参数可以让容器拥有主机的所有特权&#xff0c;包括所有可以访问USB设备。--device参数可以针对特定的设备挂载到容器中。 [rootdocker40 ~]…

【经验总结】ShardingSphere+Springboot-01模式参数配置

文章目录 详细配置&#xff08;boot&#xff09;一、模式配置&数据源配置1.1 模式配置1.2 数据源配置1.3 默认数据源的配置默认数据源配置结论 二、基础属性配置2.1 在日志中打印 SQL2.2 在程序启动和更新时&#xff0c;是否检查分片元数据的结构一致性 详细配置&#xff0…

JavaScript高阶笔记总结第三天:(JavaScript高阶完结)

Xmind鸟瞰图&#xff1a; 简单文字总结&#xff1a; js高阶笔记总结&#xff1a; 严格模式&#xff1a; 1.开启严格模式&#xff1a;"use strict" 2.不使用var关键字声明会报错 3.严格模式下普通函数的this指向undefined 高阶函数&#xff1a; 满足…

浅谈C/C++指针和引用在Linux和Windows不同环境下的编码风格

目录 0. 前言 1. 代码块、函数体上的 { } 的规范 2. 指针和引用中的 * 和 & 符号的位置 1. Linux 环境下编码风格(gcc) 2. Windows 环境下编码风格(Visual Studio) 3. 简单总结 0. 前言 C/C因为高度的自由性&#xff0c;并没有对一些常见的编码风格进行限制&#…

https://registry.nlark.com/无法访问

先上问题&#xff1a; own up to 100x even if nothing is polyfilled. Some versions have web compatibility issues. Please, upgrade your dependencies to the actual version of core-js. npm ERR! code ENOTFOUND npm ERR! syscall getaddrinfo npm ERR! errno ENOTFOU…

电动自行车出海黑马Avento独立站拆解(上)丨出海笔记

这次我们来拆解一个电动自行车的独立站 为什么选电动自行车&#xff1f; 因为全球疫情&#xff0c;带来出行问题——避免聚集&#xff0c;大家都减少了公共交通工具&#xff0c;而改为自行车&#xff0c;电动自行车...... 君不见疫情之后无论是出行自行车&#xff0c;还是健…

NMAP扫描器的使用

NMAP 一 概述 nmap是一个网络探测和安全扫描工具,系统管理者和个人可以使用这个软件扫描大型的网络&#xff0c;获取 哪台主机正在运行以及提供什么服务等信息。 nmap可用于 检测活在网络上的主机(主机发现)。 检测主机上开放的端口(端口发现)。 检测到相应的端口(服务发现…

cisp-pte考试复盘

考试客户端下载-->点击进入考试>输入密码->进去可以看见一个qax的登录框【监考员会告知账户密码】->进入考试页面 里面的操作题,点击开始答题,能看见一个题有一个攻击机,这时我们需要点击鼠标左键,看见一个控制台,点击控制台才能进入答题【双击是没有用的】 …

C/C++开发,opencv内置背景减除算法与运动检测

目录 一、c opencv 背景减除算法内置算法 1.1 MOG2算法 1.2 KNN算法 二、完整案例实现 2.1 程序代码 2.2 程序编译及输出 一、c opencv 背景减除算法内置算法 背景减除算法的目标是将视频帧中的背景与前景&#xff08;通常是移动的对象&#xff09;分离。OpenCV提供MOG2&…

数据结构-排序的概念、应用及其算法实现1(直接插入排序、希尔排序、选择排序、堆排序、冒泡排序)

本篇文章主要讲解直接插入排序、希尔排序、选择排序、堆排序、冒泡排序算法实现以及时间复杂度&#xff0c;稳定性分析。将在接下来的文章讲解快速排序、归并排序和计数排序。 本文全部代码在文章最后 目录 一、常见的排序算法 a.排序实现的接口 1.1插入排序 1.1.1基本思想…

【C++】BFS解决边权唯一的最短路径问题

目录 介绍 迷宫中离入口最近的出口 算法思路 代码实现 最小基因变化 算法思路 代码实现 单词接龙 算法思路 代码实现 为高尔夫比赛砍树 算法思路 代码实现 介绍 最短路问题是图论中非常经典的一种问题,其实就是通过代码找到两点之间的最优路径(往往是距离最短),最…

用MobaXterm,TightVNC和secure SSH实现两台windows电脑之间的连接和通信

今天给大家分享一个非常有趣的技术&#xff0c;那便是如何使用MobaXterm来实现两台电脑之间的通信。实验成功&#xff0c;保证能跑。 首先&#xff0c;给大家介绍我们今天最重要的工具&#xff1a;那便是MobaXterm&#xff08;以下由ChatGPT生成&#xff09;&#xff1a; Moba…

C++初阶_2: inline内联函数 宏函数

C推出了inline关键字&#xff0c;其目的是为了替代C语言中的宏函数。 我们先来回顾宏函数&#xff1a; 宏函数 现有个需求&#xff1a;要求你写一个Add(x,y)的宏函数。 正确的写法有一种&#xff0c;错误的写法倒是五花八门&#xff0c;我们先来“见不贤而自省也。” // …