【瑞芯微RV1126(板端摄像头图像数据采集)】②使用v4l2视频设备驱动框架采集图像数据

news2024/9/22 19:31:43

RV1126开发板:使用v4l2视频设备驱动框架采集图像数据

    • 前言
    • 一、按键
    • 二、LCD显示
    • 三、V4L2 摄像头应用编程
    • 四、完整代码

前言

本系列的目的是,不仅仅将能够进行图片推理的模型部署于板端,还提供了两种摄像头数据采集的方法,集成到自己的深度学习推理代码之后,可以根据应用场景的不同实现按键控制拍照推理或者是实时推理并显示。
本系列第一篇:https://blog.csdn.net/m0_71523511/article/details/139636367
本系列第二篇:本文
本系列第三篇:https://blog.csdn.net/m0_71523511/article/details/139011550

在本系列第三篇博客中,最后我有提到,读取摄像头数据来进行实时推理或者拍照推理,在那里提供了两种思路:①按照这系列的第一篇博客,搭建环境,调用opencv的高级函数采集图像数据;②按照这篇博客,学习使用v4l2视频设备驱动框架来采集图像数据,本文还提供了板端按键和lcd的示例代码,方便后续集成到自己的深度学习板端项目中。

参考资料:【正点原子】I.MX6U 嵌入式 Linux C 应用编程指南,https://pan.baidu.com/s/1inZtndgN-L3aVfoch2-sKA#list/path=%2F,提取码:m65i,里面有一个文档,名字是:【正点原子】I.MX6U嵌入式Linux C应用编程指南V1.1。
想搞懂v4l2代码的话,建议先看第一章、第二章、第四章、第十四章的存储映射IO,最后再看第二十六章,跟着26.2写代码就可以运行,如果还想使用按键和将图像显示到LCD屏幕上的话还需要看第十八章、二十章等。接下来将每个部分的代码先单独拿出来,头文件就先全部给出。

一、按键

简要介绍:Linux 系统为了统一管理输入设备,实现了一套能够兼容所有输入设备的框架,那么这个框架就
是 input 子系统。驱动开发人员基于 input 子系统开发输入设备的驱动程序, input 子系统可以屏蔽硬件的差
异,向应用层提供一套统一的接口。
基于 input 子系统注册成功的输入设备,都会在/dev/input 目录下生成对应的设备节点(设备文件), 设备节点名称通常为 eventX(X 表示一个数字编号 0、 1、 2、 3 等),譬如/dev/input/event0等, 通过读取这些设备节点可以获取输入设备上报的数据。
在这里插入图片描述

#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <jpeglib.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>

//按键相关
int key_flag = 0;
int fd_key;

void key_input_Init(const char* key_path)
{
    /*  打开按键文件设备 */
    if (0 > (fd_key = open(key_path, O_RDONLY))) {
        perror("open key_devices error");
        exit(-1);
    }
}
 /*  按键线程 */
static void *key_ctr_takephoto(void *arg)
{
    struct input_event in_ev = {0};     /*  按键事件的返回值会存储到此结构体中,通过判断结构体成员来判断按键的状态 */
    while(1)
    {
         if (sizeof(struct input_event) !=
            read(fd_key, &in_ev, sizeof(struct input_event))) {
            perror("read error");
            exit(-1);
        }
        if (EV_KEY == in_ev.type)
        {
            switch (in_ev.value) {
                case 0:
                    printf("code<%d>: 松开\n", in_ev.code);
                    break;
                case 1:
                    printf("code<%d>: 按下\n", in_ev.code);
                    key_flag = 1;
                    break;
                case 2:
                    printf("code<%d>: 长按\n", in_ev.code);
                    break;
            }
        }
    }
}

int main(int argc,char **argv)
{
        //按键初始化
        key_input_Init(argv[2]);
        /**  按键线程创建  **/  
	    ret = pthread_create(&tid, NULL, key_ctr_takephoto, NULL);
	    if (ret) {
	        fprintf(stderr, "thread create failed: %s\n", strerror(ret));
	        exit(-1);
	    }
	    if(key_flag == 1)
	    {
	        /*  处理 */
	    }
}

二、LCD显示

简要介绍:
在 Linux 系统中,显示设备被称为 FrameBuffer 设备(帧缓冲设备),所以 LCD 显示屏自然而言就是 FrameBuffer 设备。FrameBuffer 设备对应的设备文件为/dev/fbX(X 为数字, 0、 1、 2、 3 等) , Linux
下可支持多个 FrameBuffer 设备,最多可达 32 个,分别为/dev/fb0 到/dev/fb31。
在这里插入图片描述
在应用程序中,操作/dev/fbX 的一般步骤如下:

①、首先打开/dev/fbX 设备文件。
②、 使用 ioctl()函数获取到当前显示设备的参数信息,譬如屏幕的分辨率大小、像素格式,根据屏幕参
数计算显示缓冲区的大小。
③、通过存储映射 I/O 方式将屏幕的显示缓冲区映射到用户空间(mmap)。
④、映射成功后就可以直接读写屏幕的显示缓冲区,进行绘图或图片显示等操作了。
⑤、完成显示后, 调用 munmap()取消映射、并调用 close()关闭设备文件。
#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>

//Lcd相关
#define SHOW_X 300
#define SHOW_Y 300
uint32_t bits_per_pixel;    //像素深度
uint32_t xres_virtual;    //LCD X 分辨率
static int fd_lcd = -1;
static unsigned short *lcd_screen_base = NULL;    //映射后的显存基地址

/* lcd初始化  */
void Framebuffer_Lcd_Init(const char* framebuffer_device_path)
{
    struct fb_var_screeninfo screen_info;   //存储可变参数

    if ((fd_lcd = open(framebuffer_device_path, O_RDWR)) >= 0) {
        if (!ioctl(fd_lcd, FBIOGET_VSCREENINFO, &screen_info)) {
            xres_virtual = screen_info.xres_virtual;
            bits_per_pixel = screen_info.bits_per_pixel;
        }
    }
    else{
        std::cerr << "Failed to open framebuffer device." << std::endl;
        exit(-1);
    }
    /* 将显示缓冲区映射到进程地址空间 */
    size_t screen_size = xres_virtual * bits_per_pixel / 8;
    lcd_screen_base =static_cast<unsigned short*>(mmap(NULL, screen_size, PROT_WRITE | PROT_READ, MAP_SHARED, fd_lcd, 0));
    if ( (void *)lcd_screen_base == MAP_FAILED) {
        std::cerr << "Failed to map framebuffer device to memory." << std::endl;
        close(fd_lcd);
        exit(-1);
    }
}
void Framebuffer_Lcd_Cleanup()
{
    if (lcd_screen_base != NULL && lcd_screen_base != MAP_FAILED) {
        munmap(lcd_screen_base, xres_virtual * bits_per_pixel / 8);
    }
    if (fd_lcd >= 0) {
        close(fd_lcd);
    }
}
/* 显示图像,这里根据自己的需求进行更改 */
void Lcd_show_picture(const cv::Mat& image) {
    cv::Mat convert_image;
    cv::resize(image, convert_image, cv::Size(SHOW_X, SHOW_Y)); 
    cv::Size2f image_size = convert_image.size();
    cv::Mat framebuffer_image;

    cv::cvtColor(convert_image, framebuffer_image, cv::COLOR_BGR2BGR565);
     for (int y = 0; y < image_size.height; y++) {
         memcpy(lcd_screen_base + y * xres_virtual * 2, convert_image.ptr(y), image_size.width * 2);
    }
}

int main(int argc,char **argv)
{
    //Lcd初始化
    Framebuffer_Lcd_Init(argv[1]);
    if(...)
    {
        Lcd_show_picture(frame);
    }
}

三、V4L2 摄像头应用编程

简要介绍:V4L2 是 Video for linux two 的简称,是 Linux 内核中视频类设备的一套驱动框架,为视频类设备驱动
开发和应用层提供了一套统一的接口规范。使用 V4L2 设备驱动框架注册的设备会在 Linux 系统/dev/目录下生成对应的设备节点文件,设备节点的名称通常为 videoX(X 标准一个数字编号, 0、 1、 2、 3……),每一个 videoX 设备文件就代表一个视频类设备。应用程序通过对 videoX 设备文件进行 I/O 操作来配置、使用设备类设备:
在这里插入图片描述
V4L2 设备驱动框架编程模式:

1. 首先是打开摄像头设备;
2. 查询设备的属性或功能;
3. 设置设备的参数,譬如像素格式、 帧大小、 帧率;
4. 申请帧缓冲、 内存映射;
5. 帧缓冲入队;
6. 开启视频采集;
7. 帧缓冲出队、对采集的数据进行处理;
8. 处理完后,再次将帧缓冲入队,往复;
9. 结束采集

代码中注释非常清楚,配合开发文档看,很容易就能看懂。

#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>

int main(int argc,char **argv)
{
    struct v4l2_capability v_cap;  //存储查询到的设备属性/能力/功能,在开发之前需要通过VIDIOC_QUERYCAP、VIDIOC_ENUM_FMT、VIDIOC_G_FMT指令,使用ioctl查询摄像头的信息,以便后续开发
    struct v4l2_fmtdesc fmtdesc;  //存储枚举出摄像头支持的所有像素格式
    struct v4l2_frmsizeenum frmsize;  //存储枚举出来的摄像头所支持的所有视频采集分辨率(ioctl(int fd, VIDIOC_ENUM_FRAMESIZES, struct v4l2_frmsizeenum *frmsize);)
    struct v4l2_format fmt;  //存储 查看或设置当前的帧格式
    struct v4l2_streamparm streamparm;  //设置或获取当前的流类型相关参数,没啥用
    struct v4l2_requestbuffers reqbuf;  //存储申请帧缓冲的信息
    struct v4l2_buffer buf;  //存储查询到的帧缓冲队列的信息
    enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //存储打开或关闭视频采集的信息
    
    void *frm_base[3];  //帧缓冲映射到用户空间的地址
    pthread_t tid;  //按键线程句柄
    int ret;
    int fd_cam = -1;
    
    //参数个数校验
    if (4 != argc) {
      fprintf(stderr, "usage: %s <output-lcd-dev>,%s <input-key-dev>,%s <input-camera-dev>", argv[1],argv[2],argv[3]);
      exit(-1);
    }
    
    //打开摄像头设备文件
    fd_cam = open(argv[3],O_RDWR);
    if(fd_cam < 0)
    {
        fprintf(stderr, "open error: %s: %s\n", argv[3], strerror(errno));
        exit(-1);
    }
    else
    {
        printf("open-camera-success\n");
    }

    /* 查询设备的属性/能力/功能 : VIDIOC_QUERYCAP */
    //ioctl(int fd, VIDIOC_QUERYCAP, struct v4l2_capability *cap); //通过 ioctl()将获取到一个 struct v4l2_capability 类型的数据
    //可以通过判断结构体中的 capabilities 字段是否包含 V4L2_CAP_VIDEO_CAPTURE、 来确定它是否是一个摄像头设备。下面三点是获取参数示例
            /* 1、判断摄像头是否可以cap图像 */
            //ioctl(fd, VIDIOC_QUERYCAP, &v_cap);
            //if (!(V4L2_CAP_VIDEO_CAPTURE & v_cap.capabilities)) {
                //fprintf(stderr, "Error: No capture video device!\n");
                //return -1;
            //}
            //else
            //{
                //printf("have capture video device!\n");
            //}
            /* 2、枚举出摄像头所支持的所有像素格式以及描述信息 : 支持yvuv和jpeg*/
            //fmtdesc.index = 0;
            //fmtdesc.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
            //while (0 == ioctl(fd, VIDIOC_ENUM_FMT, &fmtdesc)) {
                //printf("fmt: %s <0x%x>\n", fmtdesc.description, fmtdesc.pixelformat);
                //fmtdesc.index++;
            //}

            /* 3、枚举出摄像头所支持的frame_size:1280*720;800*600;640*480;......*/
            //frmsize.index = 0;
            //frmsize.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
            //frmsize.pixel_format = V4L2_PIX_FMT_YUYV;
            //while (0 == ioctl(fd, VIDIOC_ENUM_FRAMESIZES, &frmsize)) {
                //printf("frame_size<%d*%d>\n", frmsize.discrete.width, frmsize.discrete.height);
                //frmsize.index++;
            //}
    
    /* 设置帧格式信息 : VIDIOC_S_FMT (要设置像素格式,首先得知道该设备支持哪些像素格式,ioctl(int fd, VIDIOC_ENUM_FMT, struct v4l2_fmtdesc *fmtdesc);)*/
    fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //type 字 段 需 要 在 调 用 ioctl() 之 前 设 置 它 的 值
    if (0 > ioctl(fd_cam, VIDIOC_G_FMT, &fmt)) { //将获取到的帧格式信息存储到fmt结构体对象中
      perror("ioctl error");
      return -1;
    }
    printf("width:%d, height:%d format:%d\n", fmt.fmt.pix.width, fmt.fmt.pix.height, fmt.fmt.pix.pixelformat);
    fmt.fmt.pix.width = 1280;  //根据自己的需求设置帧格式信息
    fmt.fmt.pix.height = 720;
    fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;  //设置成YUYV格式,因为我这个usb摄像头只支持这个格式
    if (0 > ioctl(fd_cam, VIDIOC_S_FMT, &fmt)) { 
      perror("ioctl error");
      return -1;
    }
        
    /**  申请帧缓冲队列 : VIDIOC_REQBUFS (读取摄像头数据的方式有两种,一种是 read 方式另一种则是 streaming 方式,使用streaming I/O 方式,我们需要向设备申请帧缓冲,并将帧缓冲映射到应用程序进程地址空间中,帧缓冲顾名思义就是用于存储一帧图像数据的缓冲区)**/   
    reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//type 字 段 需 要 在 调 用 ioctl() 之 前 设 置 它 的 值,表示是视频流采集
    reqbuf.count = 3; //申请帧缓冲的数量
    reqbuf.memory = V4L2_MEMORY_MMAP;//通常将 memory 设置为 V4L2_MEMORY_MMAP 即可
    if (0 > ioctl(fd_cam, VIDIOC_REQBUFS, &reqbuf)) {
        fprintf(stderr, "ioctl error: VIDIOC_REQBUFS: %s\n", strerror(errno));
        return -1;
    }//streaming I/O 方式会在内核空间中维护一个帧缓冲队列, 驱动程序会将从摄像头读取的一帧数据写入到队列中的一个帧缓冲,接着将下一帧数据写入到队列中的下一个帧缓冲;当应用程序需要读取一帧数据时,需要从队列中取出一个装满一帧数据的帧缓冲,这个取出过程就叫做出队;当应用程序处理完这一帧数据后,需要再把这个帧缓冲加入到内核的帧缓冲队列中,这个过程叫做入队!
    
    /**  将帧缓冲队列映射到进程地址空间:mmap,之后直接操作这块地址就可以实现视频数据的读取(上一步申请的帧缓冲, 该缓冲区实质上是由内核所维护的,应用程序不能直接读
取该缓冲区的数据,我们需要将其映射到用户空间中)  **/   
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    for (buf.index = 0; buf.index < reqbuf.count; buf.index++) {
        ioctl(fd_cam, VIDIOC_QUERYBUF, &buf);  //查询帧缓冲:VIDIOC_QUERYBUF,信息存储到buf结构体中
        frm_base[buf.index] = mmap(NULL, buf.length,PROT_READ | PROT_WRITE, MAP_SHARED,fd_cam, buf.m.offset);
        if (MAP_FAILED == frm_base[buf.index]) {
            perror("mmap error");
            return -1;
            }
     }
     
    /**  帧缓冲入队操作 : VIDIOC_QBUF (将三个帧缓冲放入内核的帧缓冲队列(入队操作)中) **/   
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    for (buf.index = 0; buf.index < 3; buf.index++) {
        if (0 > ioctl(fd_cam, VIDIOC_QBUF, &buf)) {
            perror("ioctl error");
            return -1;
        }
    }
    /**  开启视频采集 :VIDIOC_STREAMON (将三个帧缓冲放入到帧缓冲队列中之后,接着便可以打开摄像头、开启图像采集了)  **/  
    if (0 > ioctl(fd_cam, VIDIOC_STREAMON, &type)) {
        perror("ioctl error");
        return -1;
    }
    /**  读取数据、对数据进行处理  **/   
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    while(1){
        for(buf.index = 0; buf.index < 3; buf.index++) {
            ioctl(fd_cam, VIDIOC_DQBUF, &buf); //帧缓冲出队操作:VIDIOC_DQBUF(直接读取每一个帧缓冲的在用户空间的映射区即可读取到摄像头采集的每一帧图像数据。在读取数据之前,需要将帧缓冲从内核的帧缓冲队列中取出,这个操作叫做帧缓冲出队)
            if(....)
            {
                // 处理这一帧数据
                cv::Mat frame(fmt.fmt.pix.height, fmt.fmt.pix.width, CV_8UC2, frm_base[buf.index]); // 创建一个与帧数据相同尺寸的图像
                cv::Mat converted; // 用于转换格式的临时图像
                
                // 将YUYV格式的图像转换为BGR格式
                cv::cvtColor(frame, converted, cv::COLOR_YUV2BGR_YUYV);
                
                // 保存图像
                std::string filename = "frame.jpg";
                cv::imwrite(filename, converted);
                
                /* 这里可以添加深度学习模型推理的相关代码(建议是在已经能够读取图片并进行推理的代码中,移植进本代码)  */
                /*
                    情况1:
                        只想通过按键按下之后,推理一张图片并将结果显示在lcd屏幕上
                        例如:给出伪代码
                        ①读取保存的jpg图像
                        ②图像格式转换,送入模型推理
                        ③后处理
                        ④调用lcd显示函数,将经过后处理的结果图送入lcd进行显示
                        
                    情况2:
                        实时将推理结果显示到lcd屏幕上,那么就不需要这个key_flag判断,直接进行推理,将推理结果图片进行显示即可。需要修改图片格式,以适配lcd显示的输入图像要求。
                        (大部分开发板都是可以支持opencv的高级函数直接读取摄像头图像数据的,本代码适合正在学习嵌入式应用开发的小伙伴,学习应用层如何通过v4l2驱动框架来实现摄像头数据
                        采集。如果觉得没必要的话,若是板子支持opencv的capture调用,那就直接用,这里的按键和lcd还是有使用价值的;若是板子不直接支持opencv的capture调用,那就需要
                        在开发的虚拟机环境中,使用交叉编译工具链交叉编译完整的opencv,这样就能调用capture函数直接读取摄像头数据了,注:本代码是在rv1126的虚拟机环境中开发,交叉编译
                        之后生成的可执行文件再放到板端运行,可以参考博客中另一篇文章,关于交叉编译opencv的。)
                */
                
            }
            ioctl(fd_cam, VIDIOC_QBUF, &buf);  //一帧结束之后再次帧缓冲入队操作
        }
    }
    
    exit(-1);
}

四、完整代码

#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>

//按键相关
int key_flag = 0;
int fd_key;
//Lcd相关
#define SHOW_X 300
#define SHOW_Y 300
uint32_t bits_per_pixel;
uint32_t xres_virtual;
static int fd_lcd = -1;
static unsigned short *lcd_screen_base = NULL;

void Framebuffer_Lcd_Init(const char* framebuffer_device_path)
{
    struct fb_var_screeninfo screen_info;

    if ((fd_lcd = open(framebuffer_device_path, O_RDWR)) >= 0) {
        if (!ioctl(fd_lcd, FBIOGET_VSCREENINFO, &screen_info)) {
            xres_virtual = screen_info.xres_virtual;
            bits_per_pixel = screen_info.bits_per_pixel;
        }
    }
    else{
        std::cerr << "Failed to open framebuffer device." << std::endl;
        exit(-1);
    }

    size_t screen_size = xres_virtual * bits_per_pixel / 8;
    lcd_screen_base =static_cast<unsigned short*>(mmap(NULL, screen_size, PROT_WRITE | PROT_READ, MAP_SHARED, fd_lcd, 0));
    if ( (void *)lcd_screen_base == MAP_FAILED) {
        std::cerr << "Failed to map framebuffer device to memory." << std::endl;
        close(fd_lcd);
        exit(-1);
    }
}
void Framebuffer_Lcd_Cleanup()
{
    if (lcd_screen_base != NULL && lcd_screen_base != MAP_FAILED) {
        munmap(lcd_screen_base, xres_virtual * bits_per_pixel / 8);
    }
    if (fd_lcd >= 0) {
        close(fd_lcd);
    }
}
void Lcd_show_picture(const cv::Mat& image) {
    cv::Mat transposed_image;
    cv::resize(image, transposed_image, cv::Size(SHOW_X, SHOW_Y)); 
    cv::Size2f image_size = transposed_image.size();
    cv::Mat framebuffer_compat;

    switch (bits_per_pixel) {
        case 16:
            cv::cvtColor(transposed_image, framebuffer_compat, cv::COLOR_BGR2BGR565);
            for (int y = 0; y < image_size.height; y++) {
                memcpy(lcd_screen_base + y * xres_virtual * 2, framebuffer_compat.ptr(y), image_size.width * 2);
            }
            break;
        case 32: {
            std::vector<cv::Mat> split_bgr;
            cv::split(transposed_image, split_bgr);
            split_bgr.push_back(cv::Mat(image_size, CV_8UC1, cv::Scalar(255)));
            cv::merge(split_bgr, framebuffer_compat);
            for (int y = 0; y < image_size.height; y++) {
                memcpy(lcd_screen_base + y * xres_virtual * 4, framebuffer_compat.ptr(y), image_size.width * 4);
            }
        } break;
        default:
            std::cerr << "Unsupported depth of framebuffer." << std::endl;
            break;
    }   
}

void key_input_Init(const char* key_path)
{
    if (0 > (fd_key = open(key_path, O_RDONLY))) {
        perror("open key_devices error");
        exit(-1);
    }
}

static void *key_ctr_takephoto(void *arg)
{
    struct input_event in_ev = {0};
    while(1)
    {
         if (sizeof(struct input_event) !=
            read(fd_key, &in_ev, sizeof(struct input_event))) {
            perror("read error");
            exit(-1);
        }
        if (EV_KEY == in_ev.type)
        {
            switch (in_ev.value) {
                case 0:
                    printf("code<%d>: 松开\n", in_ev.code);
                    break;
                case 1:
                    printf("code<%d>: 按下\n", in_ev.code);
                    key_flag = 1;
                    break;
                case 2:
                    printf("code<%d>: 长按\n", in_ev.code);
                    break;
            }
        }
    }
}

int main(int argc,char **argv)
{
    struct v4l2_capability v_cap;  //存储查询到的设备属性/能力/功能,在开发之前需要通过VIDIOC_QUERYCAP、VIDIOC_ENUM_FMT、VIDIOC_G_FMT指令,使用ioctl查询摄像头的信息,以便后续开发
    struct v4l2_fmtdesc fmtdesc;  //存储枚举出摄像头支持的所有像素格式
    struct v4l2_frmsizeenum frmsize;  //存储枚举出来的摄像头所支持的所有视频采集分辨率(ioctl(int fd, VIDIOC_ENUM_FRAMESIZES, struct v4l2_frmsizeenum *frmsize);)
    struct v4l2_format fmt;  //存储 查看或设置当前的帧格式
    struct v4l2_streamparm streamparm;  //设置或获取当前的流类型相关参数,没啥用
    struct v4l2_requestbuffers reqbuf;  //存储申请帧缓冲的信息
    struct v4l2_buffer buf;  //存储查询到的帧缓冲队列的信息
    enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //存储打开或关闭视频采集的信息
    
    void *frm_base[3];  //帧缓冲映射到用户空间的地址
    pthread_t tid;  //按键线程句柄
    int ret;
    int fd_cam = -1;
    
    //参数个数校验
    if (4 != argc) {
      fprintf(stderr, "usage: %s <output-lcd-dev>,%s <input-key-dev>,%s <input-camera-dev>", argv[1],argv[2],argv[3]);
      exit(-1);
    }
    
    //Lcd初始化
    Framebuffer_Lcd_Init(argv[1]);
    //按键初始化
    key_input_Init(argv[2]);
    
    //打开摄像头设备文件
    fd_cam = open(argv[3],O_RDWR);
    if(fd_cam < 0)
    {
        fprintf(stderr, "open error: %s: %s\n", argv[3], strerror(errno));
        exit(-1);
    }
    else
    {
        printf("open-camera-success\n");
    }

    /* 查询设备的属性/能力/功能 : VIDIOC_QUERYCAP */
    //ioctl(int fd, VIDIOC_QUERYCAP, struct v4l2_capability *cap); //通过 ioctl()将获取到一个 struct v4l2_capability 类型的数据
    //可以通过判断结构体中的 capabilities 字段是否包含 V4L2_CAP_VIDEO_CAPTURE、 来确定它是否是一个摄像头设备。下面三点是获取参数示例
            /* 1、判断摄像头是否可以cap图像 */
            //ioctl(fd, VIDIOC_QUERYCAP, &v_cap);
            //if (!(V4L2_CAP_VIDEO_CAPTURE & v_cap.capabilities)) {
                //fprintf(stderr, "Error: No capture video device!\n");
                //return -1;
            //}
            //else
            //{
                //printf("have capture video device!\n");
            //}
            /* 2、枚举出摄像头所支持的所有像素格式以及描述信息 : 支持yvuv和jpeg*/
            //fmtdesc.index = 0;
            //fmtdesc.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
            //while (0 == ioctl(fd, VIDIOC_ENUM_FMT, &fmtdesc)) {
                //printf("fmt: %s <0x%x>\n", fmtdesc.description, fmtdesc.pixelformat);
                //fmtdesc.index++;
            //}

            /* 3、枚举出摄像头所支持的frame_size:1280*720;800*600;640*480;......*/
            //frmsize.index = 0;
            //frmsize.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
            //frmsize.pixel_format = V4L2_PIX_FMT_YUYV;
            //while (0 == ioctl(fd, VIDIOC_ENUM_FRAMESIZES, &frmsize)) {
                //printf("frame_size<%d*%d>\n", frmsize.discrete.width, frmsize.discrete.height);
                //frmsize.index++;
            //}
    
    /* 设置帧格式信息 : VIDIOC_S_FMT (要设置像素格式,首先得知道该设备支持哪些像素格式,ioctl(int fd, VIDIOC_ENUM_FMT, struct v4l2_fmtdesc *fmtdesc);)*/
    fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //type 字 段 需 要 在 调 用 ioctl() 之 前 设 置 它 的 值
    if (0 > ioctl(fd_cam, VIDIOC_G_FMT, &fmt)) { //将获取到的帧格式信息存储到fmt结构体对象中
      perror("ioctl error");
      return -1;
    }
    printf("width:%d, height:%d format:%d\n", fmt.fmt.pix.width, fmt.fmt.pix.height, fmt.fmt.pix.pixelformat);
    fmt.fmt.pix.width = 1280;  //根据自己的需求设置帧格式信息
    fmt.fmt.pix.height = 720;
    fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;  //设置成YUYV格式,因为我这个usb摄像头只支持这个格式
    if (0 > ioctl(fd_cam, VIDIOC_S_FMT, &fmt)) { 
      perror("ioctl error");
      return -1;
    }
        
    /**  申请帧缓冲队列 : VIDIOC_REQBUFS (读取摄像头数据的方式有两种,一种是 read 方式另一种则是 streaming 方式,使用streaming I/O 方式,我们需要向设备申请帧缓冲,并将帧缓冲映射到应用程序进程地址空间中,帧缓冲顾名思义就是用于存储一帧图像数据的缓冲区)**/   
    reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//type 字 段 需 要 在 调 用 ioctl() 之 前 设 置 它 的 值,表示是视频流采集
    reqbuf.count = 3; //申请帧缓冲的数量
    reqbuf.memory = V4L2_MEMORY_MMAP;//通常将 memory 设置为 V4L2_MEMORY_MMAP 即可
    if (0 > ioctl(fd_cam, VIDIOC_REQBUFS, &reqbuf)) {
        fprintf(stderr, "ioctl error: VIDIOC_REQBUFS: %s\n", strerror(errno));
        return -1;
    }//streaming I/O 方式会在内核空间中维护一个帧缓冲队列, 驱动程序会将从摄像头读取的一帧数据写入到队列中的一个帧缓冲,接着将下一帧数据写入到队列中的下一个帧缓冲;当应用程序需要读取一帧数据时,需要从队列中取出一个装满一帧数据的帧缓冲,这个取出过程就叫做出队;当应用程序处理完这一帧数据后,需要再把这个帧缓冲加入到内核的帧缓冲队列中,这个过程叫做入队!
    
    /**  将帧缓冲队列映射到进程地址空间:mmap,之后直接操作这块地址就可以实现视频数据的读取(上一步申请的帧缓冲, 该缓冲区实质上是由内核所维护的,应用程序不能直接读
取该缓冲区的数据,我们需要将其映射到用户空间中)  **/   
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    for (buf.index = 0; buf.index < reqbuf.count; buf.index++) {
        ioctl(fd_cam, VIDIOC_QUERYBUF, &buf);  //查询帧缓冲:VIDIOC_QUERYBUF,信息存储到buf结构体中
        frm_base[buf.index] = mmap(NULL, buf.length,PROT_READ | PROT_WRITE, MAP_SHARED,fd_cam, buf.m.offset);
        if (MAP_FAILED == frm_base[buf.index]) {
            perror("mmap error");
            return -1;
            }
     }
     
    /**  帧缓冲入队操作 : VIDIOC_QBUF (将三个帧缓冲放入内核的帧缓冲队列(入队操作)中) **/   
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    for (buf.index = 0; buf.index < 3; buf.index++) {
        if (0 > ioctl(fd_cam, VIDIOC_QBUF, &buf)) {
            perror("ioctl error");
            return -1;
        }
    }
    /**  开启视频采集 :VIDIOC_STREAMON (将三个帧缓冲放入到帧缓冲队列中之后,接着便可以打开摄像头、开启图像采集了)  **/  
    if (0 > ioctl(fd_cam, VIDIOC_STREAMON, &type)) {
        perror("ioctl error");
        return -1;
    }
    
    /**  按键线程创建  **/  
    ret = pthread_create(&tid, NULL, key_ctr_takephoto, NULL);
    if (ret) {
        fprintf(stderr, "thread create failed: %s\n", strerror(ret));
        exit(-1);
    }
    
    /**  读取数据、对数据进行处理  **/   
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    while(1){
        for(buf.index = 0; buf.index < 3; buf.index++) {
            ioctl(fd_cam, VIDIOC_DQBUF, &buf); //帧缓冲出队操作:VIDIOC_DQBUF(直接读取每一个帧缓冲的在用户空间的映射区即可读取到摄像头采集的每一帧图像数据。在读取数据之前,需要将帧缓冲从内核的帧缓冲队列中取出,这个操作叫做帧缓冲出队)
            if(key_flag == 1)
            {
                // 处理这一帧数据
                cv::Mat frame(fmt.fmt.pix.height, fmt.fmt.pix.width, CV_8UC2, frm_base[buf.index]); // 创建一个与帧数据相同尺寸的图像
                cv::Mat converted; // 用于转换格式的临时图像
                
                // 将YUYV格式的图像转换为BGR格式
                cv::cvtColor(frame, converted, cv::COLOR_YUV2BGR_YUYV);
                
                // 保存图像
                std::string filename = "frame.jpg";
                cv::imwrite(filename, converted);
                
                /* 这里可以添加深度学习模型推理的相关代码(建议是在已经能够读取图片并进行推理的代码中,移植进本代码)  */
                /*
                    情况1:
                        只想通过按键按下之后,推理一张图片并将结果显示在lcd屏幕上
                        例如:给出伪代码
                        ①读取保存的jpg图像
                        ②图像格式转换,送入模型推理
                        ③后处理
                        ④调用lcd显示函数,将经过后处理的结果图送入lcd进行显示
                        
                    情况2:
                        实时将推理结果显示到lcd屏幕上,那么就不需要这个key_flag判断,直接进行推理,将推理结果图片进行显示即可。需要修改图片格式,以适配lcd显示的输入图像要求。
                        (大部分开发板都是可以支持opencv的高级函数直接读取摄像头图像数据的,本代码适合正在学习嵌入式应用开发的小伙伴,学习应用层如何通过v4l2驱动框架来实现摄像头数据
                        采集。如果觉得没必要的话,若是板子支持opencv的capture调用,那就直接用,这里的按键和lcd还是有使用价值的;若是板子不直接支持opencv的capture调用,那就需要
                        在开发的虚拟机环境中,使用交叉编译工具链交叉编译完整的opencv,这样就能调用capture函数直接读取摄像头数据了,注:本代码是在rv1126的虚拟机环境中开发,交叉编译
                        之后生成的可执行文件再放到板端运行,可以参考博客中另一篇文章,关于交叉编译opencv的。)
                */
                
                key_flag = 0;
            }
            ioctl(fd_cam, VIDIOC_QBUF, &buf);  //一帧结束之后再次帧缓冲入队操作
        }
    }
    
    exit(-1);
}

将这里面自己需要用到的移植到自己的程序中即可,这里没用到.h文件,只需要写一个cmakelist即可编译运行。
cmakelists如下:

cmake_minimum_required(VERSION 3.10)

project(01)

# 设置C++标准
set(CMAKE_CXX_STANDARD 11)

# 寻找OpenCV包
find_package(OpenCV 4.2.0 REQUIRED)

# 添加可执行文件
add_executable(test test.cpp)

# 添加依赖库
find_package(Threads REQUIRED)  

# 链接依赖库
target_link_libraries(test
    Threads::Threads  # 多线程
    ${OpenCV_LIBS}
)

代码目录结构如下:
在这里插入图片描述

cd build
cmake ..
make
./test /dev/fb0 /dev/input/event1 /dev/video8
这里的设备文件需要根据自己的进行更换

接下来是c++面向对象的代码,旨在练习:
main.cpp

#include "v4l2_cam.h"

//鎸夐敭鐩稿叧
int key_flag = 0;


static void *key_ctr_takephoto(void *arg)
{
    unsigned char key;
    while(1)
    {
            key = getchar();
            if (key == '\n') { 
                key_flag = 1;
            }
    }
}

int main(int argc,char **argv)
{
    int ret;
    pthread_t tid;
    
    v4l2_camera v1;

    if (2 != argc) {
      fprintf(stderr, "usage:%s <input-camera-dev>", argv[1]);
      exit(-1);
    }

    ret = pthread_create(&tid, NULL, key_ctr_takephoto, NULL);
    if (ret) {
        fprintf(stderr, "thread create failed: %s\n", strerror(ret));
        exit(-1);
    }
    
    v1.camera_init(argv[1]);
    while(1){
            if(key_flag == 1)
            {
                v1.Start_video_captureandprocess();
                key_flag = 0;
            }
    }

    exit(-1);
}

v4l2_cam.cpp:

#include "v4l2_cam.h"

v4l2_camera::v4l2_camera()
{
    
}

void v4l2_camera::camera_init(char* arg)
{
    struct v4l2_capability v_cap;  //瀛樺偍鏌ヨ鍒扮殑璁惧灞炴€?鑳藉姏/鍔熻兘锛屽湪寮€鍙戜箣鍓嶉渶瑕侀€氳繃VIDIOC_QUERYCAP銆乂IDIOC_ENUM_FMT銆乂IDIOC_G_FMT鎸囦护锛屼娇鐢╥octl鏌ヨ鎽勫儚澶寸殑淇℃伅锛屼互渚垮悗缁紑鍙?
    struct v4l2_fmtdesc fmtdesc;  //瀛樺偍鏋氫妇鍑烘憚鍍忓ご鏀寔鐨勬墍鏈夊儚绱犳牸寮?
    struct v4l2_frmsizeenum frmsize;  //瀛樺偍鏋氫妇鍑烘潵鐨勬憚鍍忓ご鎵€鏀寔鐨勬墍鏈夎棰戦噰闆嗗垎杈ㄧ巼(ioctl(int fd, VIDIOC_ENUM_FRAMESIZES, struct v4l2_frmsizeenum *frmsize);)
    struct v4l2_streamparm streamparm;  //璁剧疆鎴栬幏鍙栧綋鍓嶇殑娴佺被鍨嬬浉鍏冲弬鏁?娌″暐鐢?
    struct v4l2_requestbuffers reqbuf;  //瀛樺偍鐢宠甯х紦鍐茬殑淇℃伅
    enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //瀛樺偍鎵撳紑鎴栧叧闂棰戦噰闆嗙殑淇℃伅

    //鎵撳紑鎽勫儚澶磋澶囨枃浠?
    v4l2_camera::fd_cam = open(arg,O_RDWR);
    if(v4l2_camera::fd_cam < 0)
    {
        fprintf(stderr, "open error: %s: %s\n", arg, strerror(errno));
        exit(-1);
    }
    else
    {
        printf("open-camera-success\n");
    }

    /* 璁剧疆甯ф牸寮忎俊鎭?: VIDIOC_S_FMT  */
    fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; 
    if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_G_FMT, &fmt)) { 
      perror("ioctl error");
      exit(-1);
    }
    printf("width:%d, height:%d format:%d\n", fmt.fmt.pix.width, fmt.fmt.pix.height, fmt.fmt.pix.pixelformat);
    fmt.fmt.pix.width = 1280;  //鏍规嵁鑷繁鐨勯渶姹傝缃抚鏍煎紡淇℃伅
    fmt.fmt.pix.height = 720;
    fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;  //璁剧疆鎴怸UYV鏍煎紡锛屽洜涓烘垜杩欎釜usb鎽勫儚澶村彧鏀寔杩欎釜鏍煎紡
    if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_S_FMT, &fmt)) { 
      perror("ioctl error");
      exit(-1);
    }

    /**  鐢宠甯х紦鍐查槦鍒?: VIDIOC_REQBUFS **/   
    reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//type 瀛?娈?闇€ 瑕?鍦?璋?鐢?ioctl() 涔?鍓?璁?缃?瀹?鐨?鍊硷紝琛ㄧず鏄棰戞祦閲囬泦
    reqbuf.count = 3; //鐢宠甯х紦鍐茬殑鏁伴噺
    reqbuf.memory = V4L2_MEMORY_MMAP;//閫氬父灏?memory 璁剧疆涓?V4L2_MEMORY_MMAP 鍗冲彲
    if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_REQBUFS, &reqbuf)) {
        fprintf(stderr, "ioctl error: VIDIOC_REQBUFS: %s\n", strerror(errno));
        exit(-1);
    }

    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    for (buf.index = 0; buf.index < reqbuf.count; buf.index++) {
        ioctl(v4l2_camera::fd_cam, VIDIOC_QUERYBUF, &buf);  //鏌ヨ甯х紦鍐?VIDIOC_QUERYBUF锛屼俊鎭瓨鍌ㄥ埌buf缁撴瀯浣撲腑
        frm_base[buf.index] = mmap(NULL, buf.length,PROT_READ | PROT_WRITE, MAP_SHARED,v4l2_camera::fd_cam, buf.m.offset);
        if (MAP_FAILED == v4l2_camera::frm_base[buf.index]) {
            perror("mmap error");
            exit(-1);
            }
     }

    /**  甯х紦鍐插叆闃熸搷浣?锛?VIDIOC_QBUF 锛堝皢涓変釜甯х紦鍐叉斁鍏ュ唴鏍哥殑甯х紦鍐查槦鍒楋紙鍏ラ槦鎿嶄綔锛変腑锛?**/   
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    for (buf.index = 0; buf.index < 3; buf.index++) {
        if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_QBUF, &buf)) {
            perror("ioctl error");
            exit(-1);
        }
    }
    
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_STREAMON, &type)) {
        perror("ioctl error");
        exit(-1);
    }
}

void v4l2_camera::Start_video_captureandprocess()
{
        for(buf.index = 0; buf.index < 1; buf.index++) 
        {
             ioctl(fd_cam, VIDIOC_DQBUF, &buf); //帧缓冲出队操作:VIDIOC_DQBUF(直接读取每一个帧缓冲的在用户空间的映射区即可读取到摄像头采集的每一帧图像数据。在读取数据之前,需要将帧缓冲从内核的帧缓冲队列中取出,这个操作叫做帧缓冲出队)
                // 处理这一帧数据
                cv::Mat frame(fmt.fmt.pix.height, fmt.fmt.pix.width, CV_8UC2, frm_base[buf.index]); // 创建一个与帧数据相同尺寸的图像
                cv::Mat converted; // 用于转换格式的临时图像
                
                // 将YUYV格式的图像转换为BGR格式
                cv::cvtColor(frame, converted, cv::COLOR_YUV2BGR_YUYV);
                
                // 保存图像
                std::string filename = "frame.jpg";
                cv::imwrite(filename, converted);
                std::cout << "picture save success" << std::endl;
                
            ioctl(fd_cam, VIDIOC_QBUF, &buf);  //一帧结束之后再次帧缓冲入队操作
        }
}

v4l2_cam.h:

#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <jpeglib.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>

class v4l2_camera
{
public:
    v4l2_camera();

    int fd_cam = -1;
    void *frm_base[3];  //甯х紦鍐叉槧灏勫埌鐢ㄦ埛绌洪棿鐨勫湴鍧€
    
    struct v4l2_buffer buf; 
    struct v4l2_format fmt;

    void camera_init(char *argv);
    void Start_video_captureandprocess();
};

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1943200.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Ubuntu 24 PXE Server bios+uefi 自动化部署esxi 6 7 8

pxe server 前言 PXE(Preboot eXecution Environment,预启动执行环境)是一种网络启动协议,允许计算机通过网络启动而不是使用本地硬盘。PXE服务器是实现这一功能的服务器,它提供了启动镜像和引导加载程序,使得客户端计算机可以通过网络启动并安装操作系统或运行其他软件…

Java 集合框架:HashMap 的介绍、使用、原理与源码解析

大家好&#xff0c;我是栗筝i&#xff0c;这篇文章是我的 “栗筝i 的 Java 技术栈” 专栏的第 020 篇文章&#xff0c;在 “栗筝i 的 Java 技术栈” 这个专栏中我会持续为大家更新 Java 技术相关全套技术栈内容。专栏的主要目标是已经有一定 Java 开发经验&#xff0c;并希望进…

【C++】再探构造函数 - 初始化列表详解

&#x1f4e2;博客主页&#xff1a;https://blog.csdn.net/2301_779549673 &#x1f4e2;欢迎点赞 &#x1f44d; 收藏 ⭐留言 &#x1f4dd; 如有错误敬请指正&#xff01; &#x1f4e2;本文由 JohnKi 原创&#xff0c;首发于 CSDN&#x1f649; &#x1f4e2;未来很长&#…

vue3 快速入门 (三) : vue中的图片路径

1. 本文环境 Vue版本 : 3.4.29Node.js版本 : v20.15.0系统 : Windows11 64位IDE : VsCode 2. 加载图片路径的方式 以下是VUE3中一些常见的引用图片路径的方法&#xff1a; 2.1 public文件夹的方式 2.1.1 public文件夹是什么 在 Vue3 中&#xff0c;public文件夹用于存放静…

绘制混淆矩阵热力图

Python绘制混淆矩阵热力图 用matplotlib绘制混淆矩阵&#xff0c;可以通过改变 imshow 函数中的 cmap 参数来修改颜色。cmap 参数接受一个 colormap 的名字&#xff0c;你可以选择许多不同的 colormap&#xff0c;例如 ‘viridis’, ‘plasma’, ‘inferno’, ‘magma’, ‘civ…

union的特性和大小端

一、union在c和c语言中的特性 1.共享内存空间&#xff1a;union的所有成员共享同一块内存空间。意味着在同一时刻&#xff0c;union 只能存储其成员 中的一个值。当你修改了union中的一个成员&#xff0c;那么其它成员的值也会被改变&#xff0c;因为它们实际上都是指向同一块…

Google Chrome 浏览器在链接上点右键的快捷键

如今&#xff0c;越来越多的软件都懒得设个快捷键&#xff0c;就算设置了连个下划线也懒得加了。 谷歌浏览器右键 > 链接另存为... 和 复制链接地址 的快捷键 (如图)

pycharm操作mysql数据库

1、创建测试数据库 use test;CREATE TABLE t_user ( id INT(11) NOT NULL AUTO_INCREMENT, userName VARCHAR(20) DEFAULT NULL, password VARCHAR(20) DEFAULT NULL, PRIMARY KEY (id)) ENGINEINNODB AUTO_INCREMENT2 DEFAULT CHARSETutf8;INSERT INTO t_user(id,userName,pas…

【HZHY-AI300G智能盒试用连载体验】在华为IoTDA平台上建立设备

目录 华为IoTDA平台 注册IoTDA实例 创建产品 添加设备 本文首发于&#xff1a;【HZHY-AI300G智能盒试用连载体验】 智能工业互联网网关 - 北京合众恒跃科技有限公司 - 电子技术论坛 - 广受欢迎的专业电子论坛! 在上一篇博文中介绍了如何在HZHY-AI300G智能盒创建南向设备&a…

【Linux 14】进程间通信概念

文章目录 &#x1f308; 一、进程间通信的目的&#x1f308; 二、进程间通信的理解&#x1f308; 三、进程间通信的分类 &#x1f308; 一、进程间通信的目的 数据传输&#xff1a;一个进程需要将它的数据发送给另一个进程资源共享&#xff1a;多个进程之间共享同样的资源。通…

过于复杂,复杂性越高,脆弱性也就越大。

现代计算架构的复杂性很容易让那些试图保护它们的网络安全从业者感到不知所措。 技术生产者和消费者必须做出彻底而根本的改变,以减轻当前和未来的网络威胁。 在过去 20 多年里,我们目睹了信息技术能力的爆炸式增长,渗透到了我们的个人和职业生活中。我们还看到,针对所有…

【2024最新华为OD-C/D卷试题汇总】[支持在线评测] LYA的马跳棋游戏(200分) - 三语言AC题解(Python/Java/Cpp)

🍭 大家好这里是清隆学长 ,一枚热爱算法的程序员 ✨ 本系列打算持续跟新华为OD-C/D卷的三语言AC题解 💻 ACM银牌🥈| 多次AK大厂笔试 | 编程一对一辅导 👏 感谢大家的订阅➕ 和 喜欢💗 🍿 最新华为OD机试D卷目录,全、新、准,题目覆盖率达 95% 以上,支持题目在线…

VSCode切换默认终端

我的VSCode默认终端为PowerShell&#xff0c;每次新建都会自动打开PowerShell。但是我想让每次都变为cmd&#xff0c;也就是Command Prompt 更改默认终端的操作方法如下&#xff1a; 键盘调出命令面板&#xff08;CtrlShiftP&#xff09;中,输入Terminal: Select Default Prof…

VBA技术资料MF177:数据验证时单值及多值的分别处理

我给VBA的定义&#xff1a;VBA是个人小型自动化处理的有效工具。利用好了&#xff0c;可以大大提高自己的工作效率&#xff0c;而且可以提高数据的准确度。“VBA语言専攻”提供的教程一共九套&#xff0c;分为初级、中级、高级三大部分&#xff0c;教程是对VBA的系统讲解&#…

Python遗传算法GA优化SVR支持向量回归、ANFIS自适应神经模糊推理系统预测证券指数ISE数据

全文链接&#xff1a;https://tecdat.cn/?p37060 本文旨在通过应用多种机器学习技术&#xff0c;对交易所的历史数据进行深入分析和预测。我们帮助客户使用了遗传算法GA优化的支持向量回归&#xff08;SVR&#xff09;、自适应神经模糊推理系统&#xff08;ANFIS&#xff09;…

全球价值链贸易核算matlab程序(TIVA与WWZ分解方法大全)以及区域表链接方法

数据来源&#xff1a;基础数据来源于世界银行、国家统计局时间范围&#xff1a;2007年数据范围&#xff1a;国家与行业层面样例数据&#xff1a; 包含内容&#xff1a; 全部数据下载链接&#xff1a;https://download.csdn.net/download/samLi0620/89567902

CAS乐观锁原理

1、什么是CAS&#xff1f; compare and swap也就是比较和交换&#xff0c;他是一条CPU的并发原语。 他在替换内存的某个位置的值时&#xff0c;首先查看内存中的值与预期值是否一致&#xff0c;如果一致&#xff0c;执行替换操作。 这个操作是一个原子性操作。 Java中基于Un…

学生选课表练习(面试题)

一、表结构&#xff1a; 学生表&#xff1a;Student&#xff08;编号sid&#xff0c;姓名sname&#xff0c;生日birthday&#xff0c;性别ssex&#xff0c;班级 classid) 课程表&#xff1a;Course&#xff08;课程编号cid&#xff0c;课程名称cname&#xff0c;教师编号tid&a…

《0基础》学习Python——第十九讲__爬虫/<2>

一、用get请求爬取一般网页 首先由上节课我们可以找到URL、请求方式、User-Agent以及content-type 即&#xff1a;在所在浏览器页面按下F12键&#xff0c;之后点击网路-刷新&#xff0c;找到第一条双击打开标头即可查看上述所有内容&#xff0c;将上述URL、User-Agent所对应的…

高考完的假期想学c语言 要注意那些问题?

在高考完的假期学习C语言是一个非常好的选择&#xff0c;可以为以后大学的专业学习打下坚实的基础。我收集制作一份C语言学习包&#xff0c;对于新手而言简直不要太棒&#xff0c;里面包括了新手各个时期的学习方向&#xff0c;包括了编程教学&#xff0c;数据处理&#xff0c;…