【瑞芯微RV1126(板端摄像头图像数据采集)】②使用v4l2视频设备驱动框架采集图像数据

RV1126开发板:使用v4l2视频设备驱动框架采集图像数据

    • 前言
    • 一、按键
    • 二、LCD显示
    • 三、V4L2 摄像头应用编程
    • 四、完整代码

前言

本系列的目的是,不仅仅将能够进行图片推理的模型部署于板端,还提供了两种摄像头数据采集的方法,集成到自己的深度学习推理代码之后,可以根据应用场景的不同实现按键控制拍照推理或者是实时推理并显示。
本系列第一篇:https://blog.csdn.net/m0_71523511/article/details/139636367
本系列第二篇:本文
本系列第三篇:https://blog.csdn.net/m0_71523511/article/details/139011550

在本系列第三篇博客中,最后我有提到,读取摄像头数据来进行实时推理或者拍照推理,在那里提供了两种思路:①按照这系列的第一篇博客,搭建环境,调用opencv的高级函数采集图像数据;②按照这篇博客,学习使用v4l2视频设备驱动框架来采集图像数据,本文还提供了板端按键和lcd的示例代码,方便后续集成到自己的深度学习板端项目中。

参考资料:【正点原子】I.MX6U 嵌入式 Linux C 应用编程指南,https://pan.baidu.com/s/1inZtndgN-L3aVfoch2-sKA#list/path=%2F,提取码:m65i,里面有一个文档,名字是:【正点原子】I.MX6U嵌入式Linux C应用编程指南V1.1。
想搞懂v4l2代码的话,建议先看第一章、第二章、第四章、第十四章的存储映射IO,最后再看第二十六章,跟着26.2写代码就可以运行,如果还想使用按键和将图像显示到LCD屏幕上的话还需要看第十八章、二十章等。接下来将每个部分的代码先单独拿出来,头文件就先全部给出。

一、按键

简要介绍:Linux 系统为了统一管理输入设备,实现了一套能够兼容所有输入设备的框架,那么这个框架就
是 input 子系统。驱动开发人员基于 input 子系统开发输入设备的驱动程序, input 子系统可以屏蔽硬件的差
异,向应用层提供一套统一的接口。
基于 input 子系统注册成功的输入设备,都会在/dev/input 目录下生成对应的设备节点(设备文件), 设备节点名称通常为 eventX(X 表示一个数字编号 0、 1、 2、 3 等),譬如/dev/input/event0等, 通过读取这些设备节点可以获取输入设备上报的数据。
在这里插入图片描述

#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <jpeglib.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>//按键相关
int key_flag = 0;
int fd_key;void key_input_Init(const char* key_path)
{/*  打开按键文件设备 */if (0 > (fd_key = open(key_path, O_RDONLY))) {perror("open key_devices error");exit(-1);}
}/*  按键线程 */
static void *key_ctr_takephoto(void *arg)
{struct input_event in_ev = {0};     /*  按键事件的返回值会存储到此结构体中,通过判断结构体成员来判断按键的状态 */while(1){if (sizeof(struct input_event) !=read(fd_key, &in_ev, sizeof(struct input_event))) {perror("read error");exit(-1);}if (EV_KEY == in_ev.type){switch (in_ev.value) {case 0:printf("code<%d>: 松开\n", in_ev.code);break;case 1:printf("code<%d>: 按下\n", in_ev.code);key_flag = 1;break;case 2:printf("code<%d>: 长按\n", in_ev.code);break;}}}
}int main(int argc,char **argv)
{//按键初始化key_input_Init(argv[2]);/**  按键线程创建  **/  ret = pthread_create(&tid, NULL, key_ctr_takephoto, NULL);if (ret) {fprintf(stderr, "thread create failed: %s\n", strerror(ret));exit(-1);}if(key_flag == 1){/*  处理 */}
}

二、LCD显示

简要介绍:
在 Linux 系统中,显示设备被称为 FrameBuffer 设备(帧缓冲设备),所以 LCD 显示屏自然而言就是 FrameBuffer 设备。FrameBuffer 设备对应的设备文件为/dev/fbX(X 为数字, 0、 1、 2、 3 等) , Linux
下可支持多个 FrameBuffer 设备,最多可达 32 个,分别为/dev/fb0 到/dev/fb31。
在这里插入图片描述
在应用程序中,操作/dev/fbX 的一般步骤如下:

①、首先打开/dev/fbX 设备文件。
②、 使用 ioctl()函数获取到当前显示设备的参数信息,譬如屏幕的分辨率大小、像素格式,根据屏幕参
数计算显示缓冲区的大小。
③、通过存储映射 I/O 方式将屏幕的显示缓冲区映射到用户空间(mmap)。
④、映射成功后就可以直接读写屏幕的显示缓冲区,进行绘图或图片显示等操作了。
⑤、完成显示后, 调用 munmap()取消映射、并调用 close()关闭设备文件。
#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>//Lcd相关
#define SHOW_X 300
#define SHOW_Y 300
uint32_t bits_per_pixel;    //像素深度
uint32_t xres_virtual;    //LCD X 分辨率
static int fd_lcd = -1;
static unsigned short *lcd_screen_base = NULL;    //映射后的显存基地址/* lcd初始化  */
void Framebuffer_Lcd_Init(const char* framebuffer_device_path)
{struct fb_var_screeninfo screen_info;   //存储可变参数if ((fd_lcd = open(framebuffer_device_path, O_RDWR)) >= 0) {if (!ioctl(fd_lcd, FBIOGET_VSCREENINFO, &screen_info)) {xres_virtual = screen_info.xres_virtual;bits_per_pixel = screen_info.bits_per_pixel;}}else{std::cerr << "Failed to open framebuffer device." << std::endl;exit(-1);}/* 将显示缓冲区映射到进程地址空间 */size_t screen_size = xres_virtual * bits_per_pixel / 8;lcd_screen_base =static_cast<unsigned short*>(mmap(NULL, screen_size, PROT_WRITE | PROT_READ, MAP_SHARED, fd_lcd, 0));if ( (void *)lcd_screen_base == MAP_FAILED) {std::cerr << "Failed to map framebuffer device to memory." << std::endl;close(fd_lcd);exit(-1);}
}
void Framebuffer_Lcd_Cleanup()
{if (lcd_screen_base != NULL && lcd_screen_base != MAP_FAILED) {munmap(lcd_screen_base, xres_virtual * bits_per_pixel / 8);}if (fd_lcd >= 0) {close(fd_lcd);}
}
/* 显示图像,这里根据自己的需求进行更改 */
void Lcd_show_picture(const cv::Mat& image) {cv::Mat convert_image;cv::resize(image, convert_image, cv::Size(SHOW_X, SHOW_Y)); cv::Size2f image_size = convert_image.size();cv::Mat framebuffer_image;cv::cvtColor(convert_image, framebuffer_image, cv::COLOR_BGR2BGR565);for (int y = 0; y < image_size.height; y++) {memcpy(lcd_screen_base + y * xres_virtual * 2, convert_image.ptr(y), image_size.width * 2);}
}int main(int argc,char **argv)
{//Lcd初始化Framebuffer_Lcd_Init(argv[1]);if(...){Lcd_show_picture(frame);}
}

三、V4L2 摄像头应用编程

简要介绍:V4L2 是 Video for linux two 的简称,是 Linux 内核中视频类设备的一套驱动框架,为视频类设备驱动
开发和应用层提供了一套统一的接口规范。使用 V4L2 设备驱动框架注册的设备会在 Linux 系统/dev/目录下生成对应的设备节点文件,设备节点的名称通常为 videoX(X 标准一个数字编号, 0、 1、 2、 3……),每一个 videoX 设备文件就代表一个视频类设备。应用程序通过对 videoX 设备文件进行 I/O 操作来配置、使用设备类设备:
在这里插入图片描述
V4L2 设备驱动框架编程模式:

1. 首先是打开摄像头设备;
2. 查询设备的属性或功能;
3. 设置设备的参数,譬如像素格式、 帧大小、 帧率;
4. 申请帧缓冲、 内存映射;
5. 帧缓冲入队;
6. 开启视频采集;
7. 帧缓冲出队、对采集的数据进行处理;
8. 处理完后,再次将帧缓冲入队,往复;
9. 结束采集

代码中注释非常清楚,配合开发文档看,很容易就能看懂。

#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>int main(int argc,char **argv)
{struct v4l2_capability v_cap;  //存储查询到的设备属性/能力/功能,在开发之前需要通过VIDIOC_QUERYCAP、VIDIOC_ENUM_FMT、VIDIOC_G_FMT指令,使用ioctl查询摄像头的信息,以便后续开发struct v4l2_fmtdesc fmtdesc;  //存储枚举出摄像头支持的所有像素格式struct v4l2_frmsizeenum frmsize;  //存储枚举出来的摄像头所支持的所有视频采集分辨率(ioctl(int fd, VIDIOC_ENUM_FRAMESIZES, struct v4l2_frmsizeenum *frmsize);)struct v4l2_format fmt;  //存储 查看或设置当前的帧格式struct v4l2_streamparm streamparm;  //设置或获取当前的流类型相关参数,没啥用struct v4l2_requestbuffers reqbuf;  //存储申请帧缓冲的信息struct v4l2_buffer buf;  //存储查询到的帧缓冲队列的信息enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //存储打开或关闭视频采集的信息void *frm_base[3];  //帧缓冲映射到用户空间的地址pthread_t tid;  //按键线程句柄int ret;int fd_cam = -1;//参数个数校验if (4 != argc) {fprintf(stderr, "usage: %s <output-lcd-dev>,%s <input-key-dev>,%s <input-camera-dev>", argv[1],argv[2],argv[3]);exit(-1);}//打开摄像头设备文件fd_cam = open(argv[3],O_RDWR);if(fd_cam < 0){fprintf(stderr, "open error: %s: %s\n", argv[3], strerror(errno));exit(-1);}else{printf("open-camera-success\n");}/* 查询设备的属性/能力/功能 : VIDIOC_QUERYCAP *///ioctl(int fd, VIDIOC_QUERYCAP, struct v4l2_capability *cap); //通过 ioctl()将获取到一个 struct v4l2_capability 类型的数据//可以通过判断结构体中的 capabilities 字段是否包含 V4L2_CAP_VIDEO_CAPTURE、 来确定它是否是一个摄像头设备。下面三点是获取参数示例/* 1、判断摄像头是否可以cap图像 *///ioctl(fd, VIDIOC_QUERYCAP, &v_cap);//if (!(V4L2_CAP_VIDEO_CAPTURE & v_cap.capabilities)) {//fprintf(stderr, "Error: No capture video device!\n");//return -1;//}//else//{//printf("have capture video device!\n");//}/* 2、枚举出摄像头所支持的所有像素格式以及描述信息 : 支持yvuv和jpeg*///fmtdesc.index = 0;//fmtdesc.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//while (0 == ioctl(fd, VIDIOC_ENUM_FMT, &fmtdesc)) {//printf("fmt: %s <0x%x>\n", fmtdesc.description, fmtdesc.pixelformat);//fmtdesc.index++;//}/* 3、枚举出摄像头所支持的frame_size:1280*720;800*600;640*480;......*///frmsize.index = 0;//frmsize.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//frmsize.pixel_format = V4L2_PIX_FMT_YUYV;//while (0 == ioctl(fd, VIDIOC_ENUM_FRAMESIZES, &frmsize)) {//printf("frame_size<%d*%d>\n", frmsize.discrete.width, frmsize.discrete.height);//frmsize.index++;//}/* 设置帧格式信息 : VIDIOC_S_FMT (要设置像素格式,首先得知道该设备支持哪些像素格式,ioctl(int fd, VIDIOC_ENUM_FMT, struct v4l2_fmtdesc *fmtdesc);)*/fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //type 字 段 需 要 在 调 用 ioctl() 之 前 设 置 它 的 值if (0 > ioctl(fd_cam, VIDIOC_G_FMT, &fmt)) { //将获取到的帧格式信息存储到fmt结构体对象中perror("ioctl error");return -1;}printf("width:%d, height:%d format:%d\n", fmt.fmt.pix.width, fmt.fmt.pix.height, fmt.fmt.pix.pixelformat);fmt.fmt.pix.width = 1280;  //根据自己的需求设置帧格式信息fmt.fmt.pix.height = 720;fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;  //设置成YUYV格式,因为我这个usb摄像头只支持这个格式if (0 > ioctl(fd_cam, VIDIOC_S_FMT, &fmt)) { perror("ioctl error");return -1;}/**  申请帧缓冲队列 : VIDIOC_REQBUFS (读取摄像头数据的方式有两种,一种是 read 方式另一种则是 streaming 方式,使用streaming I/O 方式,我们需要向设备申请帧缓冲,并将帧缓冲映射到应用程序进程地址空间中,帧缓冲顾名思义就是用于存储一帧图像数据的缓冲区)**/   reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//type 字 段 需 要 在 调 用 ioctl() 之 前 设 置 它 的 值,表示是视频流采集reqbuf.count = 3; //申请帧缓冲的数量reqbuf.memory = V4L2_MEMORY_MMAP;//通常将 memory 设置为 V4L2_MEMORY_MMAP 即可if (0 > ioctl(fd_cam, VIDIOC_REQBUFS, &reqbuf)) {fprintf(stderr, "ioctl error: VIDIOC_REQBUFS: %s\n", strerror(errno));return -1;}//streaming I/O 方式会在内核空间中维护一个帧缓冲队列, 驱动程序会将从摄像头读取的一帧数据写入到队列中的一个帧缓冲,接着将下一帧数据写入到队列中的下一个帧缓冲;当应用程序需要读取一帧数据时,需要从队列中取出一个装满一帧数据的帧缓冲,这个取出过程就叫做出队;当应用程序处理完这一帧数据后,需要再把这个帧缓冲加入到内核的帧缓冲队列中,这个过程叫做入队!/**  将帧缓冲队列映射到进程地址空间:mmap,之后直接操作这块地址就可以实现视频数据的读取(上一步申请的帧缓冲, 该缓冲区实质上是由内核所维护的,应用程序不能直接读
取该缓冲区的数据,我们需要将其映射到用户空间中)  **/   buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;for (buf.index = 0; buf.index < reqbuf.count; buf.index++) {ioctl(fd_cam, VIDIOC_QUERYBUF, &buf);  //查询帧缓冲:VIDIOC_QUERYBUF,信息存储到buf结构体中frm_base[buf.index] = mmap(NULL, buf.length,PROT_READ | PROT_WRITE, MAP_SHARED,fd_cam, buf.m.offset);if (MAP_FAILED == frm_base[buf.index]) {perror("mmap error");return -1;}}/**  帧缓冲入队操作 : VIDIOC_QBUF (将三个帧缓冲放入内核的帧缓冲队列(入队操作)中) **/   buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;for (buf.index = 0; buf.index < 3; buf.index++) {if (0 > ioctl(fd_cam, VIDIOC_QBUF, &buf)) {perror("ioctl error");return -1;}}/**  开启视频采集 :VIDIOC_STREAMON (将三个帧缓冲放入到帧缓冲队列中之后,接着便可以打开摄像头、开启图像采集了)  **/  if (0 > ioctl(fd_cam, VIDIOC_STREAMON, &type)) {perror("ioctl error");return -1;}/**  读取数据、对数据进行处理  **/   buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;while(1){for(buf.index = 0; buf.index < 3; buf.index++) {ioctl(fd_cam, VIDIOC_DQBUF, &buf); //帧缓冲出队操作:VIDIOC_DQBUF(直接读取每一个帧缓冲的在用户空间的映射区即可读取到摄像头采集的每一帧图像数据。在读取数据之前,需要将帧缓冲从内核的帧缓冲队列中取出,这个操作叫做帧缓冲出队)if(....){// 处理这一帧数据cv::Mat frame(fmt.fmt.pix.height, fmt.fmt.pix.width, CV_8UC2, frm_base[buf.index]); // 创建一个与帧数据相同尺寸的图像cv::Mat converted; // 用于转换格式的临时图像// 将YUYV格式的图像转换为BGR格式cv::cvtColor(frame, converted, cv::COLOR_YUV2BGR_YUYV);// 保存图像std::string filename = "frame.jpg";cv::imwrite(filename, converted);/* 这里可以添加深度学习模型推理的相关代码(建议是在已经能够读取图片并进行推理的代码中,移植进本代码)  *//*情况1:只想通过按键按下之后,推理一张图片并将结果显示在lcd屏幕上例如:给出伪代码①读取保存的jpg图像②图像格式转换,送入模型推理③后处理④调用lcd显示函数,将经过后处理的结果图送入lcd进行显示情况2:实时将推理结果显示到lcd屏幕上,那么就不需要这个key_flag判断,直接进行推理,将推理结果图片进行显示即可。需要修改图片格式,以适配lcd显示的输入图像要求。(大部分开发板都是可以支持opencv的高级函数直接读取摄像头图像数据的,本代码适合正在学习嵌入式应用开发的小伙伴,学习应用层如何通过v4l2驱动框架来实现摄像头数据采集。如果觉得没必要的话,若是板子支持opencv的capture调用,那就直接用,这里的按键和lcd还是有使用价值的;若是板子不直接支持opencv的capture调用,那就需要在开发的虚拟机环境中,使用交叉编译工具链交叉编译完整的opencv,这样就能调用capture函数直接读取摄像头数据了,注:本代码是在rv1126的虚拟机环境中开发,交叉编译之后生成的可执行文件再放到板端运行,可以参考博客中另一篇文章,关于交叉编译opencv的。)*/}ioctl(fd_cam, VIDIOC_QBUF, &buf);  //一帧结束之后再次帧缓冲入队操作}}exit(-1);
}

四、完整代码

#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>//按键相关
int key_flag = 0;
int fd_key;
//Lcd相关
#define SHOW_X 300
#define SHOW_Y 300
uint32_t bits_per_pixel;
uint32_t xres_virtual;
static int fd_lcd = -1;
static unsigned short *lcd_screen_base = NULL;void Framebuffer_Lcd_Init(const char* framebuffer_device_path)
{struct fb_var_screeninfo screen_info;if ((fd_lcd = open(framebuffer_device_path, O_RDWR)) >= 0) {if (!ioctl(fd_lcd, FBIOGET_VSCREENINFO, &screen_info)) {xres_virtual = screen_info.xres_virtual;bits_per_pixel = screen_info.bits_per_pixel;}}else{std::cerr << "Failed to open framebuffer device." << std::endl;exit(-1);}size_t screen_size = xres_virtual * bits_per_pixel / 8;lcd_screen_base =static_cast<unsigned short*>(mmap(NULL, screen_size, PROT_WRITE | PROT_READ, MAP_SHARED, fd_lcd, 0));if ( (void *)lcd_screen_base == MAP_FAILED) {std::cerr << "Failed to map framebuffer device to memory." << std::endl;close(fd_lcd);exit(-1);}
}
void Framebuffer_Lcd_Cleanup()
{if (lcd_screen_base != NULL && lcd_screen_base != MAP_FAILED) {munmap(lcd_screen_base, xres_virtual * bits_per_pixel / 8);}if (fd_lcd >= 0) {close(fd_lcd);}
}
void Lcd_show_picture(const cv::Mat& image) {cv::Mat transposed_image;cv::resize(image, transposed_image, cv::Size(SHOW_X, SHOW_Y)); cv::Size2f image_size = transposed_image.size();cv::Mat framebuffer_compat;switch (bits_per_pixel) {case 16:cv::cvtColor(transposed_image, framebuffer_compat, cv::COLOR_BGR2BGR565);for (int y = 0; y < image_size.height; y++) {memcpy(lcd_screen_base + y * xres_virtual * 2, framebuffer_compat.ptr(y), image_size.width * 2);}break;case 32: {std::vector<cv::Mat> split_bgr;cv::split(transposed_image, split_bgr);split_bgr.push_back(cv::Mat(image_size, CV_8UC1, cv::Scalar(255)));cv::merge(split_bgr, framebuffer_compat);for (int y = 0; y < image_size.height; y++) {memcpy(lcd_screen_base + y * xres_virtual * 4, framebuffer_compat.ptr(y), image_size.width * 4);}} break;default:std::cerr << "Unsupported depth of framebuffer." << std::endl;break;}   
}void key_input_Init(const char* key_path)
{if (0 > (fd_key = open(key_path, O_RDONLY))) {perror("open key_devices error");exit(-1);}
}static void *key_ctr_takephoto(void *arg)
{struct input_event in_ev = {0};while(1){if (sizeof(struct input_event) !=read(fd_key, &in_ev, sizeof(struct input_event))) {perror("read error");exit(-1);}if (EV_KEY == in_ev.type){switch (in_ev.value) {case 0:printf("code<%d>: 松开\n", in_ev.code);break;case 1:printf("code<%d>: 按下\n", in_ev.code);key_flag = 1;break;case 2:printf("code<%d>: 长按\n", in_ev.code);break;}}}
}int main(int argc,char **argv)
{struct v4l2_capability v_cap;  //存储查询到的设备属性/能力/功能,在开发之前需要通过VIDIOC_QUERYCAP、VIDIOC_ENUM_FMT、VIDIOC_G_FMT指令,使用ioctl查询摄像头的信息,以便后续开发struct v4l2_fmtdesc fmtdesc;  //存储枚举出摄像头支持的所有像素格式struct v4l2_frmsizeenum frmsize;  //存储枚举出来的摄像头所支持的所有视频采集分辨率(ioctl(int fd, VIDIOC_ENUM_FRAMESIZES, struct v4l2_frmsizeenum *frmsize);)struct v4l2_format fmt;  //存储 查看或设置当前的帧格式struct v4l2_streamparm streamparm;  //设置或获取当前的流类型相关参数,没啥用struct v4l2_requestbuffers reqbuf;  //存储申请帧缓冲的信息struct v4l2_buffer buf;  //存储查询到的帧缓冲队列的信息enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //存储打开或关闭视频采集的信息void *frm_base[3];  //帧缓冲映射到用户空间的地址pthread_t tid;  //按键线程句柄int ret;int fd_cam = -1;//参数个数校验if (4 != argc) {fprintf(stderr, "usage: %s <output-lcd-dev>,%s <input-key-dev>,%s <input-camera-dev>", argv[1],argv[2],argv[3]);exit(-1);}//Lcd初始化Framebuffer_Lcd_Init(argv[1]);//按键初始化key_input_Init(argv[2]);//打开摄像头设备文件fd_cam = open(argv[3],O_RDWR);if(fd_cam < 0){fprintf(stderr, "open error: %s: %s\n", argv[3], strerror(errno));exit(-1);}else{printf("open-camera-success\n");}/* 查询设备的属性/能力/功能 : VIDIOC_QUERYCAP *///ioctl(int fd, VIDIOC_QUERYCAP, struct v4l2_capability *cap); //通过 ioctl()将获取到一个 struct v4l2_capability 类型的数据//可以通过判断结构体中的 capabilities 字段是否包含 V4L2_CAP_VIDEO_CAPTURE、 来确定它是否是一个摄像头设备。下面三点是获取参数示例/* 1、判断摄像头是否可以cap图像 *///ioctl(fd, VIDIOC_QUERYCAP, &v_cap);//if (!(V4L2_CAP_VIDEO_CAPTURE & v_cap.capabilities)) {//fprintf(stderr, "Error: No capture video device!\n");//return -1;//}//else//{//printf("have capture video device!\n");//}/* 2、枚举出摄像头所支持的所有像素格式以及描述信息 : 支持yvuv和jpeg*///fmtdesc.index = 0;//fmtdesc.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//while (0 == ioctl(fd, VIDIOC_ENUM_FMT, &fmtdesc)) {//printf("fmt: %s <0x%x>\n", fmtdesc.description, fmtdesc.pixelformat);//fmtdesc.index++;//}/* 3、枚举出摄像头所支持的frame_size:1280*720;800*600;640*480;......*///frmsize.index = 0;//frmsize.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//frmsize.pixel_format = V4L2_PIX_FMT_YUYV;//while (0 == ioctl(fd, VIDIOC_ENUM_FRAMESIZES, &frmsize)) {//printf("frame_size<%d*%d>\n", frmsize.discrete.width, frmsize.discrete.height);//frmsize.index++;//}/* 设置帧格式信息 : VIDIOC_S_FMT (要设置像素格式,首先得知道该设备支持哪些像素格式,ioctl(int fd, VIDIOC_ENUM_FMT, struct v4l2_fmtdesc *fmtdesc);)*/fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //type 字 段 需 要 在 调 用 ioctl() 之 前 设 置 它 的 值if (0 > ioctl(fd_cam, VIDIOC_G_FMT, &fmt)) { //将获取到的帧格式信息存储到fmt结构体对象中perror("ioctl error");return -1;}printf("width:%d, height:%d format:%d\n", fmt.fmt.pix.width, fmt.fmt.pix.height, fmt.fmt.pix.pixelformat);fmt.fmt.pix.width = 1280;  //根据自己的需求设置帧格式信息fmt.fmt.pix.height = 720;fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;  //设置成YUYV格式,因为我这个usb摄像头只支持这个格式if (0 > ioctl(fd_cam, VIDIOC_S_FMT, &fmt)) { perror("ioctl error");return -1;}/**  申请帧缓冲队列 : VIDIOC_REQBUFS (读取摄像头数据的方式有两种,一种是 read 方式另一种则是 streaming 方式,使用streaming I/O 方式,我们需要向设备申请帧缓冲,并将帧缓冲映射到应用程序进程地址空间中,帧缓冲顾名思义就是用于存储一帧图像数据的缓冲区)**/   reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//type 字 段 需 要 在 调 用 ioctl() 之 前 设 置 它 的 值,表示是视频流采集reqbuf.count = 3; //申请帧缓冲的数量reqbuf.memory = V4L2_MEMORY_MMAP;//通常将 memory 设置为 V4L2_MEMORY_MMAP 即可if (0 > ioctl(fd_cam, VIDIOC_REQBUFS, &reqbuf)) {fprintf(stderr, "ioctl error: VIDIOC_REQBUFS: %s\n", strerror(errno));return -1;}//streaming I/O 方式会在内核空间中维护一个帧缓冲队列, 驱动程序会将从摄像头读取的一帧数据写入到队列中的一个帧缓冲,接着将下一帧数据写入到队列中的下一个帧缓冲;当应用程序需要读取一帧数据时,需要从队列中取出一个装满一帧数据的帧缓冲,这个取出过程就叫做出队;当应用程序处理完这一帧数据后,需要再把这个帧缓冲加入到内核的帧缓冲队列中,这个过程叫做入队!/**  将帧缓冲队列映射到进程地址空间:mmap,之后直接操作这块地址就可以实现视频数据的读取(上一步申请的帧缓冲, 该缓冲区实质上是由内核所维护的,应用程序不能直接读
取该缓冲区的数据,我们需要将其映射到用户空间中)  **/   buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;for (buf.index = 0; buf.index < reqbuf.count; buf.index++) {ioctl(fd_cam, VIDIOC_QUERYBUF, &buf);  //查询帧缓冲:VIDIOC_QUERYBUF,信息存储到buf结构体中frm_base[buf.index] = mmap(NULL, buf.length,PROT_READ | PROT_WRITE, MAP_SHARED,fd_cam, buf.m.offset);if (MAP_FAILED == frm_base[buf.index]) {perror("mmap error");return -1;}}/**  帧缓冲入队操作 : VIDIOC_QBUF (将三个帧缓冲放入内核的帧缓冲队列(入队操作)中) **/   buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;for (buf.index = 0; buf.index < 3; buf.index++) {if (0 > ioctl(fd_cam, VIDIOC_QBUF, &buf)) {perror("ioctl error");return -1;}}/**  开启视频采集 :VIDIOC_STREAMON (将三个帧缓冲放入到帧缓冲队列中之后,接着便可以打开摄像头、开启图像采集了)  **/  if (0 > ioctl(fd_cam, VIDIOC_STREAMON, &type)) {perror("ioctl error");return -1;}/**  按键线程创建  **/  ret = pthread_create(&tid, NULL, key_ctr_takephoto, NULL);if (ret) {fprintf(stderr, "thread create failed: %s\n", strerror(ret));exit(-1);}/**  读取数据、对数据进行处理  **/   buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;while(1){for(buf.index = 0; buf.index < 3; buf.index++) {ioctl(fd_cam, VIDIOC_DQBUF, &buf); //帧缓冲出队操作:VIDIOC_DQBUF(直接读取每一个帧缓冲的在用户空间的映射区即可读取到摄像头采集的每一帧图像数据。在读取数据之前,需要将帧缓冲从内核的帧缓冲队列中取出,这个操作叫做帧缓冲出队)if(key_flag == 1){// 处理这一帧数据cv::Mat frame(fmt.fmt.pix.height, fmt.fmt.pix.width, CV_8UC2, frm_base[buf.index]); // 创建一个与帧数据相同尺寸的图像cv::Mat converted; // 用于转换格式的临时图像// 将YUYV格式的图像转换为BGR格式cv::cvtColor(frame, converted, cv::COLOR_YUV2BGR_YUYV);// 保存图像std::string filename = "frame.jpg";cv::imwrite(filename, converted);/* 这里可以添加深度学习模型推理的相关代码(建议是在已经能够读取图片并进行推理的代码中,移植进本代码)  *//*情况1:只想通过按键按下之后,推理一张图片并将结果显示在lcd屏幕上例如:给出伪代码①读取保存的jpg图像②图像格式转换,送入模型推理③后处理④调用lcd显示函数,将经过后处理的结果图送入lcd进行显示情况2:实时将推理结果显示到lcd屏幕上,那么就不需要这个key_flag判断,直接进行推理,将推理结果图片进行显示即可。需要修改图片格式,以适配lcd显示的输入图像要求。(大部分开发板都是可以支持opencv的高级函数直接读取摄像头图像数据的,本代码适合正在学习嵌入式应用开发的小伙伴,学习应用层如何通过v4l2驱动框架来实现摄像头数据采集。如果觉得没必要的话,若是板子支持opencv的capture调用,那就直接用,这里的按键和lcd还是有使用价值的;若是板子不直接支持opencv的capture调用,那就需要在开发的虚拟机环境中,使用交叉编译工具链交叉编译完整的opencv,这样就能调用capture函数直接读取摄像头数据了,注:本代码是在rv1126的虚拟机环境中开发,交叉编译之后生成的可执行文件再放到板端运行,可以参考博客中另一篇文章,关于交叉编译opencv的。)*/key_flag = 0;}ioctl(fd_cam, VIDIOC_QBUF, &buf);  //一帧结束之后再次帧缓冲入队操作}}exit(-1);
}

将这里面自己需要用到的移植到自己的程序中即可,这里没用到.h文件,只需要写一个cmakelist即可编译运行。
cmakelists如下:

cmake_minimum_required(VERSION 3.10)project(01)# 设置C++标准
set(CMAKE_CXX_STANDARD 11)# 寻找OpenCV包
find_package(OpenCV 4.2.0 REQUIRED)# 添加可执行文件
add_executable(test test.cpp)# 添加依赖库
find_package(Threads REQUIRED)  # 链接依赖库
target_link_libraries(testThreads::Threads  # 多线程${OpenCV_LIBS}
)

代码目录结构如下:
在这里插入图片描述

cd build
cmake ..
make
./test /dev/fb0 /dev/input/event1 /dev/video8
这里的设备文件需要根据自己的进行更换

接下来是c++面向对象的代码,旨在练习:
main.cpp

#include "v4l2_cam.h"//鎸夐敭鐩稿叧
int key_flag = 0;static void *key_ctr_takephoto(void *arg)
{unsigned char key;while(1){key = getchar();if (key == '\n') { key_flag = 1;}}
}int main(int argc,char **argv)
{int ret;pthread_t tid;v4l2_camera v1;if (2 != argc) {fprintf(stderr, "usage:%s <input-camera-dev>", argv[1]);exit(-1);}ret = pthread_create(&tid, NULL, key_ctr_takephoto, NULL);if (ret) {fprintf(stderr, "thread create failed: %s\n", strerror(ret));exit(-1);}v1.camera_init(argv[1]);while(1){if(key_flag == 1){v1.Start_video_captureandprocess();key_flag = 0;}}exit(-1);
}

v4l2_cam.cpp:

#include "v4l2_cam.h"v4l2_camera::v4l2_camera()
{}void v4l2_camera::camera_init(char* arg)
{struct v4l2_capability v_cap;  //瀛樺偍鏌ヨ鍒扮殑璁惧灞炴€?鑳藉姏/鍔熻兘锛屽湪寮€鍙戜箣鍓嶉渶瑕侀€氳繃VIDIOC_QUERYCAP銆乂IDIOC_ENUM_FMT銆乂IDIOC_G_FMT鎸囦护锛屼娇鐢╥octl鏌ヨ鎽勫儚澶寸殑淇℃伅锛屼互渚垮悗缁紑鍙?struct v4l2_fmtdesc fmtdesc;  //瀛樺偍鏋氫妇鍑烘憚鍍忓ご鏀寔鐨勬墍鏈夊儚绱犳牸寮?struct v4l2_frmsizeenum frmsize;  //瀛樺偍鏋氫妇鍑烘潵鐨勬憚鍍忓ご鎵€鏀寔鐨勬墍鏈夎棰戦噰闆嗗垎杈ㄧ巼(ioctl(int fd, VIDIOC_ENUM_FRAMESIZES, struct v4l2_frmsizeenum *frmsize);)struct v4l2_streamparm streamparm;  //璁剧疆鎴栬幏鍙栧綋鍓嶇殑娴佺被鍨嬬浉鍏冲弬鏁?娌″暐鐢?struct v4l2_requestbuffers reqbuf;  //瀛樺偍鐢宠甯х紦鍐茬殑淇℃伅enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  //瀛樺偍鎵撳紑鎴栧叧闂棰戦噰闆嗙殑淇℃伅//鎵撳紑鎽勫儚澶磋澶囨枃浠?v4l2_camera::fd_cam = open(arg,O_RDWR);if(v4l2_camera::fd_cam < 0){fprintf(stderr, "open error: %s: %s\n", arg, strerror(errno));exit(-1);}else{printf("open-camera-success\n");}/* 璁剧疆甯ф牸寮忎俊鎭?: VIDIOC_S_FMT  */fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_G_FMT, &fmt)) { perror("ioctl error");exit(-1);}printf("width:%d, height:%d format:%d\n", fmt.fmt.pix.width, fmt.fmt.pix.height, fmt.fmt.pix.pixelformat);fmt.fmt.pix.width = 1280;  //鏍规嵁鑷繁鐨勯渶姹傝缃抚鏍煎紡淇℃伅fmt.fmt.pix.height = 720;fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;  //璁剧疆鎴怸UYV鏍煎紡锛屽洜涓烘垜杩欎釜usb鎽勫儚澶村彧鏀寔杩欎釜鏍煎紡if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_S_FMT, &fmt)) { perror("ioctl error");exit(-1);}/**  鐢宠甯х紦鍐查槦鍒?: VIDIOC_REQBUFS **/   reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//type 瀛?娈?闇€ 瑕?鍦?璋?鐢?ioctl() 涔?鍓?璁?缃?瀹?鐨?鍊硷紝琛ㄧず鏄棰戞祦閲囬泦reqbuf.count = 3; //鐢宠甯х紦鍐茬殑鏁伴噺reqbuf.memory = V4L2_MEMORY_MMAP;//閫氬父灏?memory 璁剧疆涓?V4L2_MEMORY_MMAP 鍗冲彲if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_REQBUFS, &reqbuf)) {fprintf(stderr, "ioctl error: VIDIOC_REQBUFS: %s\n", strerror(errno));exit(-1);}buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;for (buf.index = 0; buf.index < reqbuf.count; buf.index++) {ioctl(v4l2_camera::fd_cam, VIDIOC_QUERYBUF, &buf);  //鏌ヨ甯х紦鍐?VIDIOC_QUERYBUF锛屼俊鎭瓨鍌ㄥ埌buf缁撴瀯浣撲腑frm_base[buf.index] = mmap(NULL, buf.length,PROT_READ | PROT_WRITE, MAP_SHARED,v4l2_camera::fd_cam, buf.m.offset);if (MAP_FAILED == v4l2_camera::frm_base[buf.index]) {perror("mmap error");exit(-1);}}/**  甯х紦鍐插叆闃熸搷浣?锛?VIDIOC_QBUF 锛堝皢涓変釜甯х紦鍐叉斁鍏ュ唴鏍哥殑甯х紦鍐查槦鍒楋紙鍏ラ槦鎿嶄綔锛変腑锛?**/   buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;for (buf.index = 0; buf.index < 3; buf.index++) {if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_QBUF, &buf)) {perror("ioctl error");exit(-1);}}buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;buf.memory = V4L2_MEMORY_MMAP;if (0 > ioctl(v4l2_camera::fd_cam, VIDIOC_STREAMON, &type)) {perror("ioctl error");exit(-1);}
}void v4l2_camera::Start_video_captureandprocess()
{for(buf.index = 0; buf.index < 1; buf.index++) {ioctl(fd_cam, VIDIOC_DQBUF, &buf); //帧缓冲出队操作:VIDIOC_DQBUF(直接读取每一个帧缓冲的在用户空间的映射区即可读取到摄像头采集的每一帧图像数据。在读取数据之前,需要将帧缓冲从内核的帧缓冲队列中取出,这个操作叫做帧缓冲出队)// 处理这一帧数据cv::Mat frame(fmt.fmt.pix.height, fmt.fmt.pix.width, CV_8UC2, frm_base[buf.index]); // 创建一个与帧数据相同尺寸的图像cv::Mat converted; // 用于转换格式的临时图像// 将YUYV格式的图像转换为BGR格式cv::cvtColor(frame, converted, cv::COLOR_YUV2BGR_YUYV);// 保存图像std::string filename = "frame.jpg";cv::imwrite(filename, converted);std::cout << "picture save success" << std::endl;ioctl(fd_cam, VIDIOC_QBUF, &buf);  //一帧结束之后再次帧缓冲入队操作}
}

v4l2_cam.h:

#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <unistd.h>
#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc_c.h>
#include <opencv2/core.hpp> 
#include <linux/input.h>
#include <linux/videodev2.h>
#include <errno.h>
#include <string.h>
#include <sys/mman.h>
#include <jpeglib.h>
#include <pthread.h>
#include <linux/fb.h>
#include <vector>
#include <iostream>
#include <fstream>
#include <stdint.h>
#include <algorithm>class v4l2_camera
{
public:v4l2_camera();int fd_cam = -1;void *frm_base[3];  //甯х紦鍐叉槧灏勫埌鐢ㄦ埛绌洪棿鐨勫湴鍧€struct v4l2_buffer buf; struct v4l2_format fmt;void camera_init(char *argv);void Start_video_captureandprocess();
};

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/47927.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Python图形编程-PyGame快速入门

PyGame快速入门 文章目录 PyGame快速入门1、什么是PyGame2、安装PyGame3、创建PyGame窗口4、处理事件5、绘制对象6、移动对象7、加载和显示图像8、播放声音9、处理用户输入10、碰撞检测11、动画精灵12、管理游戏状态13、Pygame 中的典型主游戏循环1、什么是PyGame Pygame 是一…

关于大数据技术栈的一些总结

什么是大数据平台&#xff1f; 基本都是基于hadoop生态圈的一个成熟的产品&#xff0c;像CDH、CDP、阿里云Dataworks等等&#xff0c;这种成熟的厂商把hadoop包装起来&#xff0c;然后提供卖给我们。包括厦航、兴业、国网电力等等都是买的这类的大数据平台 这种买来的大数据平…

redis的集群模式

为什么使用redis 提高并发性和可用性 提供了三种集群模式&#xff1a; 第一种&#xff1a;主从模式 概念&#xff1a;redis主从模式表示一个主节点跟若干个从节点。主节点负责读和写操作&#xff0c;而从节点只负责读操作&#xff0c;主节点的数据会自动同步到从节点上。 如何搭…

ansible——Ansible ad hoc命令

一、adhoc的命令 基本的命令格式是 ansible "host-pattern" -m "moudle" -a "moudle argument" -i "inventroy-path" host-pattern&#xff1a;表示目标主机或主机组 -m&#xff1a;参数表示使用ansible的模块 -a&#xff1a;参数…

WIN11 远程桌面出现卡顿解决

今天遇到一个很诡异的现象&#xff0c;就是家里2个电脑&#xff0c;都开的远程桌面转发&#xff0c;1个系统是11 &#xff0c;一个是2022. 2022 的系统远程桌面很流畅&#xff0c;毕竟我这里连接过去PING 只有7MS. 但是很奇怪的是连接WIN11的电脑却显示黑屏一直不给登录&…

es切片和集群

解决单点故障 支持高并发 解决海量数据 1.cluster 集群&#xff1a;包含多个节点&#xff0c;每个节点属于哪个集群是通过一个集群名称&#xff08;集群名称&#xff0c;默认是elasticsearch&#xff09;来决定的&#xff0c;对于中小型应用来说&#xff0c;刚开始一个集群就…

树莓派4B从装系统raspbian到vscode远程编程(python)

1、写在前面 前面用的一直是Ubuntu系统&#xff0c;但是遇到一个奇葩的问题&#xff1a; 北通手柄在终端可以正常使用&#xff0c;接收到数据 但在python程序中使用pygame库初始化时总是报错&#xff1a;Invalid device number&#xff0c;检测不到手柄 经过n次重装系统&am…

瑞吉外卖学习(一)

pom文件的导入中 <parent><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-parent</artifactId><version>2.6.6</version><relativePath/> <!-- lookup parent from repository --></…

XGBoost、RF随机森林算法MATLAB实现

% 加载并预处理训练数据 opts1 = detectImportOptions(附件一AE.xlsx, PreserveVariableNames, true); train_data = readtable(附件一AE.xlsx, opts1); train_data.Time = datetime(train_data.time, InputFormat, yyyy-MM-dd HH:mm:ss); % 特征提取和标签准备 windowSize…

AIGC Kolors可图IP-Adapter-Plus风格参考模型使用案例

参考: https://huggingface.co/Kwai-Kolors/Kolors-IP-Adapter-Plus 代码环境安装: git clone https://github.com/Kwai-Kolors/Kolors cd Kolors conda create --name kolors python=3.8 conda activate kolors pip install -r requirements.txt python3 setup.py install…

分布式锁-redisson锁重试和WatchDog机制

抢锁过程中&#xff0c;获得当前线程&#xff0c;通过tryAcquire进行抢锁&#xff0c;该抢锁逻辑和之前逻辑相同。 1、先判断当前这把锁是否存在&#xff0c;如果不存在&#xff0c;插入一把锁&#xff0c;返回null 2、判断当前这把锁是否是属于当前线程&#xff0c;如果是&a…

linux虚拟机主机配置网卡

问题复现 我的虚拟主机了连不上远程工具windTerm ,但是我的另一台虚拟主机可以连上 我的解决思路 ping ip 地址 发现能够 ping 通 查看 ifconfig 配置信息 我对比另一个虚拟主机 发现了我的子网掩码netmask有问题 解决方式 第一种 连接配置 配置 ipv4.addresses 192.168.1…

创业就是挑最重的担子啃最硬的骨头

创业是一项极具挑战的任务&#xff0c;它要求创业者承担重大的责任&#xff0c;面对并解决各种难题。将创业形容为“挑最重的担子啃最硬的骨头”是非常贴切的&#xff0c;这个比喻深刻而生动地传达了创业的艰辛和不易。 “挑最重的担子”意味着创业者需要承担前所未有的责任和…

[网络基础]——IP、MAC、子网掩码

文章目录 一、IP1、IP地址是什么&#xff1f;2、IP地址的版本3、IP地址的分类 二、MAC三、子网掩码总结 一、IP 1、IP地址是什么&#xff1f; IP 地址&#xff08;Internet Protocol Address&#xff09;是在网络中用于标识一个网络节点的互联网地址。 补充说明&#xff1a;通…

用 AI 做旅游攻略

Prompt&#xff1a; 假设你是一个私人旅游管家&#xff0c;非常精通中国各个城市以及全球各个国家的旅游景点和美食 等&#xff0c;擅长制定详细的旅游计划&#xff0c;包括但不限于时间、地点、美食、交通、预算等等。你制 定旅游计划的时候&#xff0c;会充分考虑到行程安…

JavaScript青少年简明教程:赋值语句

JavaScript青少年简明教程&#xff1a;赋值语句 赋值语句&#xff08;assignment statement&#xff09; JavaScript的赋值语句用于给变量、对象属性或数组元素赋值。赋值语句的基本语法是使用符号 () 将右侧的值&#xff08;称为“源操作数”&#xff09;赋给左侧的变量、属…

Leetcode—154. 寻找旋转排序数组中的最小值 II【困难】

2024每日刷题&#xff08;147&#xff09; Leetcode—154. 寻找旋转排序数组中的最小值 II 实现代码 class Solution { public:int findMin(vector<int>& nums) {int l 0;int r nums.size() - 1;int m -1;while(l < r) {m (r - l) / 2 l;if(nums[m] < n…

邮件安全篇:企业电子邮件安全涉及哪些方面?

1. 邮件安全概述 企业邮件安全涉及多个方面&#xff0c;旨在保护电子邮件通信的机密性、完整性和可用性&#xff0c;防止数据泄露、欺诈、滥用及其他安全威胁。本文从身份验证与防伪、数据加密、反垃圾邮件和反恶意软件防护、邮件内容过滤与审计、访问控制与权限管理、邮件存储…

恐怖数字暗影:猜中才能逃离

大家可以看看这个&#xff0c;也很有意思&#xff01; 猜数字游戏&#xff08;老六版&#xff09;-CSDN博客 1、 剧情介绍 在一个阴暗潮湿的古堡中&#xff0c;你独自一人走进了一间散发着诡异气息的房间。房间的正中央有一张古老的桌子&#xff0c;上面放着一本泛黄的羊皮卷…

express进阶用法如:静态资源中间件,路由中间件的用法等

Express是一个流行的Node.js框架&#xff0c;用于构建web应用程序和API。以下是Express进阶用法的详细介绍&#xff1a; 1.路由 基本路由&#xff1a;Express中的路由通过app.VERB()方法定义&#xff0c;其中VERB是HTTP动词&#xff0c;如get、post等。 例如: app.get(/user…