转载时请注明出处和作者联系方式
文章出处:http://blog.csdn.net/jack0106
作者联系方式:冯牮 [email protected]
V4L2 较 V4L 有较大的改动,并已成为 2.6 的标准接口,函盖 video/ dvb /FM… ,多数驱动都在向 V4l2 迁移 。 V4L2 采用流水线的方式,操作更简单直观。 一般来说,需要用到的函数就是 open() , close() 和 ioctl () 。
推荐的参考资源:
(1) Video for Linux Two API Specification---Revision 2.6.32
http:// linuxtv.org/downloads/video4linux/API/V4L2_API/spec-single/v4l2.html
(2) capture.c 官方示例程序
说明:强烈建议阅读这两个参考资源!!!如果是初次接触,建议可以先浏览一下第一个参考文档,但是capture.c程序一定要仔细的看一下,至少得先让它能够跑起来(正常运行情况下,在终端下会不断的输出一个 ".")。
下面的讲解,都将是基于capture.c程序。但是,capture.c程序有一点点小的不足,后面的内容中会介绍到,在末尾,会附上我稍微修改过的一个版本。
对照capture.c程序,值得我们注意的主要是以下几点:
(1)3 种 I/O 方式
(1.1)read/write,直接使用 read 和 write 函数进行读写。这种方式最简单,但是这种方式会在 用户空间和内核空间不断拷贝数据 ,同时在用户空间和内核空间占用 了 大量内存, 效率不高。
(1.2)mmap ,把硬件设备 里的内存映射 到位于用户空间的应用程序中的内存地址上, 直接处理设备内存,这是一种有效的 方式。
(1.3) userptr ,内存由用户空间的应用程序分配,并把地址传递到内核中的驱动程序, 然后由 v4l2 驱动程序直接将数据填充到用户空间的内存中。
第一种方式效率是最低的,后面两种方法都能提高执行的效率,但是对于mmap 方式,文档中有这样一句描述 --Remember the buffers are allocated in physical memory, as opposed to virtual memory which can be swapped out to disk. Applications should free the buffers as soon as possible with the munmap () function .(使用mmap方法的时候,buffers相当于是在内核空间中分 配的,这种情况下,这些buffer是不能被交换到虚拟内存中,虽然这种方法不怎么影响读写效率,但是它一直占用着内核空间中的内存,当系统的内存有限的 时候,如果同时运行有大量的进程,则对系统的整体性能会有一定的影响。如果对于这里描述的这些概念还不是很清楚的话,没事,先记住下面给出的结论就行了, 以后再详细的去了解)。
所以,对于 I/O 方法的选择,推荐的顺序是 userptr 、 mmap 、 read-write 。
(2) 当使用 mmap 或 userptr 方式的时候,有一个环形缓冲队列的概念,这个队列中,有 n 个 buffer ,驱动程序采集到的视频帧数据,就是存储在每个 buffer 中。
在每次用 VIDIOC_DQBUF 取出一个 buffer ,并且处理完数据后,一定要用 VIDIOC_QBUF 将这个 buffer 再次放回到环形缓冲队列中。
环形缓冲队列,也使得这两种 I/O 方式的效率高于直接 read/write 。
( 3 ) 采集视频的分辨率
(3.1) Cropping ,裁剪 ( 并非所有的摄像头都支持裁剪功能 )
(3.2) Scaling ,缩放
下面有个参考图片,注意图片中的 4 个矩形:
红色 —bounds ,是 最大的能捕捉到的图像 范围。这个是摄像头本身的硬件属性,比如摄像头CCD的分辨率。
蓝色 — defrect ,是 我们的设备能够得到的最大的 范围。要区别于红色的部分,这是在CCD分辨率的基础上,我们的系统通过驱动软件能够获得的最大的分辨率。defrect和bounds可能会有小的差别,也可能是重合的。
绿色 —crop ,是我们希望裁剪的部分 ( 区别裁剪和缩放 ) 。也就是我我们希望获取CCD中的某个矩形部分。
紫色 — fmt ,伸缩,这一部分是我们最终获得的图像的大小。在使用 VIDIOC_S_FMT 时,驱动程序会计算出图像帧数据的大小,并且返回给我们。 ( 后面还会提到这个 )
如果硬件设备不支持 crop ,则相当于就是直接在 defrect 矩形上面设置大小。可以简单的理解为直接设置期望的视频分辨率。普通的摄像头,通常都不支持crop,在capture.c程序中也能看到对crop的处理方式--如果有crop功能,则crop,否则就跳过,直接使用VIDIOC_S_FMT。
(4) capture.c 程序中的 process_image 函数。
capture.c 程序主要是用来演示怎样使用 v4l2 接口,并没有对采集到的视频帧数据做任何实际的处理,仅仅用 process_image 函数表示了处理图像的代码位置。
process_image 函数只有一个参数,就是存储视频帧的内存的地址指针,但是在真正的应用中,通常还需要知道该指针指向的数据的大小。
因此可以修改函数,改成 void process_image ( const void * p, int len ) ,但是每次调用 process_image 的时候,第 2 个参数该传递什么值?
考虑到程序中对 buffer 的定义
struct buffer {
void * start;
size_t length};
如果将 buffer.length 作为第 2 个参数传递到修改后的 process_image 函数中,这样做是不正确的。 process_image 需要的第二个参数应该是每帧图像的大小,仔细阅读代码后会发现, buffer.length 并不一定就等于图像帧的大小。 (buffer 的大小,还需要考虑其他的一些因素,比如内存对齐等 )。
(5) 图像帧的大小和图像的格式
首先要明确一点, RGB 和 YUV 只是两种很笼统的划分方法,还需要知道具体的封装方式,才有办法计算出视频帧数据的实际大小。
对于YUV而言, YUV 格式通常有两大类:打包( packed )格式和平面( planar )格式。前者将 YUV 分量存放在同一个数组中,通常是几个相邻的像素组成一个宏像素( macro-pixel );而后者使用三个数组分开存放 YUV 三个分量,就像是一个三维平面一样。
以h.263为例, H.263 编码算法要求图象被编码为一个亮度信号和两个色差成分( Y , Cb 和 Cr ),可以记为 YCbCr , 亮度的取样结构都是 dx 个 象素每行, dy 行每幅图象。 两个色差成分的取样都是 dx/2 个象素每行, dy /2 行每幅 图象。如下图。
H.263编码算法 要求的这种图象格式对应到 v4l2 里面,就是 V4L2_PIX_FMT_YUV420 , (YUV 是 YCbCr , YVU 是 YCrCb ) 。
V4L2_PIX_FMT_YUV420是一种平坦存储格式,也就是说,在内存中,先存储所有的 Y 值,然后是所有的 Cb 值,最后才是 Cr 值。
假设有一个 V 4L2_PIX_FMT_ Y UV 420 格式的图像,分辨率是 4 × 4 像素,那么该图像帧在内存中存储形式就是
根据前面的描述,可以看出一个公式,当使用 V4L2_PIX_FMT_YUV420 格式采集图像的时候,如果图像的宽度为 width ,高度为 height ,那么图像占用的内存的大小就是 imagesize = width * height * 3 / 2。
前面提到过, 使用 VIDIOC_S_FMT 时,驱动程序会计算出图像帧数据的大小,并且返回给 我们。当 width = 640 , height = 480 的时候,根据公式, imagesize = 640 * 480 * 3 / 2 = 460800 。
同样设置的时候,返回的 fmt.fmt.pix.sizeimage 也是 460800 。
如果是使用其他的格式,都可以根据各种格式的定义来计算它们实际占用的内存的大小以及他们在内 存中的存储方式。
建议将 Video for Linux Two API Specification 作为手册,里面对视频格式的介绍比较全面。
(6)下面给出修改过的capture.c代码,只改动了一点点
#include <stdio.h> #include <stdlib.h> #include <string.h> #include <assert.h> #include <getopt.h> /* getopt_long() */ #include <fcntl.h> /* low-level i/o */ #include <unistd.h> #include <errno.h> #include <malloc.h> #include <sys/stat.h> #include <sys/types.h> #include <sys/time.h> #include <sys/mman.h> #include <sys/ioctl.h> #include <asm/types.h> /* for videodev2.h */ #include <linux/videodev2.h> #define CLEAR(x) memset (&(x), 0, sizeof (x)) typedef enum { IO_METHOD_READ, IO_METHOD_MMAP, IO_METHOD_USERPTR, } io_method; struct buffer { void * start; size_t length;//buffer's length is different from cap_image_size }; static char * dev_name = NULL; static io_method io = IO_METHOD_MMAP;//IO_METHOD_READ;//IO_METHOD_MMAP; static int fd = -1; struct buffer * buffers = NULL; static unsigned int n_buffers = 0; static FILE * outf = 0; static unsigned int cap_image_size = 0;//to keep the real image size!! ////////////////////////////////////////// static void errno_exit(const char * s) { fprintf(stderr, "%s error %d, %s/n", s, errno, strerror(errno)); exit(EXIT_FAILURE); } static int xioctl(int fd, int request, void * arg) { int r; do r = ioctl(fd, request, arg); while (-1 == r && EINTR == errno); return r; } static void process_image(const void * p, int len) { // static char[115200] Outbuff ; fputc('.', stdout); if (len > 0) { fputc('.', stdout); fwrite(p, 1, len, outf); } fflush(stdout); } static int read_frame(void) { struct v4l2_buffer buf; unsigned int i; switch (io) { case IO_METHOD_READ: if (-1 == read(fd, buffers[0].start, buffers[0].length)) { switch (errno) { case EAGAIN: return 0; case EIO: /* Could ignore EIO, see spec. */ /* fall through */ default: errno_exit("read"); } } // printf("length = %d/r", buffers[0].length); // process_image(buffers[0].start, buffers[0].length); printf("image_size = %d,/t IO_METHOD_READ buffer.length=%d/r", cap_image_size, buffers[0].length); process_image(buffers[0].start, cap_image_size); break; case IO_METHOD_MMAP: CLEAR (buf); buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; buf.memory = V4L2_MEMORY_MMAP; if (-1 == xioctl(fd, VIDIOC_DQBUF, &buf)) { switch (errno) { case EAGAIN: return 0; case EIO: /* Could ignore EIO, see spec. */ /* fall through */ default: errno_exit("VIDIOC_DQBUF"); } } assert(buf.index < n_buffers); // printf("length = %d/r", buffers[buf.index].length); // process_image(buffers[buf.index].start, buffers[buf.index].length); printf("image_size = %d,/t IO_METHOD_MMAP buffer.length=%d/r", cap_image_size, buffers[0].length); process_image(buffers[0].start, cap_image_size); if (-1 == xioctl(fd, VIDIOC_QBUF, &buf)) errno_exit("VIDIOC_QBUF"); break; case IO_METHOD_USERPTR: CLEAR (buf); buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; buf.memory = V4L2_MEMORY_USERPTR; if (-1 == xioctl(fd, VIDIOC_DQBUF, &buf)) { switch (errno) { case EAGAIN: return 0; case EIO: /* Could ignore EIO, see spec. */ /* fall through */ default: errno_exit("VIDIOC_DQBUF"); } } for (i = 0; i < n_buffers; ++i) if (buf.m.userptr == (unsigned long) buffers[i].start && buf.length == buffers[i].length) break; assert(i < n_buffers); // printf("length = %d/r", buffers[i].length); // process_image((void *) buf.m.userptr, buffers[i].length); printf("image_size = %d,/t IO_METHOD_USERPTR buffer.length=%d/r", cap_image_size, buffers[0].length); process_image(buffers[0].start, cap_image_size); if (-1 == xioctl(fd, VIDIOC_QBUF, &buf)) errno_exit("VIDIOC_QBUF"); break; } return 1; } static void mainloop(void) { unsigned int count; count = 100; while (count-- > 0) { for (;;) { fd_set fds; struct timeval tv; int r; FD_ZERO(&fds); FD_SET(fd, &fds); /* Timeout. */ tv.tv_sec = 2; tv.tv_usec = 0; r = select(fd + 1, &fds, NULL, NULL, &tv); if (-1 == r) { if (EINTR == errno) continue; errno_exit("select"); } if (0 == r) { fprintf(stderr, "select timeout/n"); exit(EXIT_FAILURE); } if (read_frame()) break; /* EAGAIN - continue select loop. */ } } } static void stop_capturing(void) { enum v4l2_buf_type type; switch (io) { case IO_METHOD_READ: /* Nothing to do. */ break; case IO_METHOD_MMAP: case IO_METHOD_USERPTR: type = V4L2_BUF_TYPE_VIDEO_CAPTURE; if (-1 == xioctl(fd, VIDIOC_STREAMOFF, &type)) errno_exit("VIDIOC_STREAMOFF"); break; } } static void start_capturing(void) { unsigned int i; enum v4l2_buf_type type; switch (io) { case IO_METHOD_READ: /* Nothing to do. */ break; case IO_METHOD_MMAP: for (i = 0; i < n_buffers; ++i) { struct v4l2_buffer buf; CLEAR (buf); buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; buf.memory = V4L2_MEMORY_MMAP; buf.index = i; if (-1 == xioctl(fd, VIDIOC_QBUF, &buf)) errno_exit("VIDIOC_QBUF"); } type = V4L2_BUF_TYPE_VIDEO_CAPTURE; if (-1 == xioctl(fd, VIDIOC_STREAMON, &type)) errno_exit("VIDIOC_STREAMON"); break; case IO_METHOD_USERPTR: for (i = 0; i < n_buffers; ++i) { struct v4l2_buffer buf; CLEAR (buf); buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; buf.memory = V4L2_MEMORY_USERPTR; buf.index = i; buf.m.userptr = (unsigned long) buffers[i].start; buf.length = buffers[i].length; if (-1 == xioctl(fd, VIDIOC_QBUF, &buf)) errno_exit("VIDIOC_QBUF"); } type = V4L2_BUF_TYPE_VIDEO_CAPTURE; if (-1 == xioctl(fd, VIDIOC_STREAMON, &type)) errno_exit("VIDIOC_STREAMON"); break; } } static void uninit_device(void) { unsigned int i; switch (io) { case IO_METHOD_READ: free(buffers[0].start); break; case IO_METHOD_MMAP: for (i = 0; i < n_buffers; ++i) if (-1 == munmap(buffers[i].start, buffers[i].length)) errno_exit("munmap"); break; case IO_METHOD_USERPTR: for (i = 0; i < n_buffers; ++i) free(buffers[i].start); break; } free(buffers); } static void init_read(unsigned int buffer_size) { buffers = calloc(1, sizeof(*buffers)); if (!buffers) { fprintf(stderr, "Out of memory/n"); exit(EXIT_FAILURE); } buffers[0].length = buffer_size; buffers[0].start = malloc(buffer_size); if (!buffers[0].start) { fprintf(stderr, "Out of memory/n"); exit(EXIT_FAILURE); } } static void init_mmap(void) { struct v4l2_requestbuffers req; CLEAR (req); req.count = 4; req.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; req.memory = V4L2_MEMORY_MMAP; if (-1 == xioctl(fd, VIDIOC_REQBUFS, &req)) { if (EINVAL == errno) { fprintf(stderr, "%s does not support " "memory mapping/n", dev_name); exit(EXIT_FAILURE); } else { errno_exit("VIDIOC_REQBUFS"); } } if (req.count < 2) { fprintf(stderr, "Insufficient buffer memory on %s/n", dev_name); exit(EXIT_FAILURE); } buffers = calloc(req.count, sizeof(*buffers)); if (!buffers) { fprintf(stderr, "Out of memory/n"); exit(EXIT_FAILURE); } for (n_buffers = 0; n_buffers < req.count; ++n_buffers) { struct v4l2_buffer buf; CLEAR (buf); buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; buf.memory = V4L2_MEMORY_MMAP; buf.index = n_buffers; if (-1 == xioctl(fd, VIDIOC_QUERYBUF, &buf)) errno_exit("VIDIOC_QUERYBUF"); buffers[n_buffers].length = buf.length; buffers[n_buffers].start = mmap(NULL /* start anywhere */, buf.length, PROT_READ | PROT_WRITE /* required */, MAP_SHARED /* recommended */, fd, buf.m.offset); if (MAP_FAILED == buffers[n_buffers].start) errno_exit("mmap"); } } static void init_userp(unsigned int buffer_size) { struct v4l2_requestbuffers req; unsigned int page_size; page_size = getpagesize(); buffer_size = (buffer_size + page_size - 1) & ~(page_size - 1); CLEAR (req); req.count = 4; req.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; req.memory = V4L2_MEMORY_USERPTR; if (-1 == xioctl(fd, VIDIOC_REQBUFS, &req)) { if (EINVAL == errno) { fprintf(stderr, "%s does not support " "user pointer i/o/n", dev_name); exit(EXIT_FAILURE); } else { errno_exit("VIDIOC_REQBUFS"); } } buffers = calloc(4, sizeof(*buffers)); if (!buffers) { fprintf(stderr, "Out of memory/n"); exit(EXIT_FAILURE); } for (n_buffers = 0; n_buffers < 4; ++n_buffers) { buffers[n_buffers].length = buffer_size; buffers[n_buffers].start = memalign(/* boundary */page_size, buffer_size); if (!buffers[n_buffers].start) { fprintf(stderr, "Out of memory/n"); exit(EXIT_FAILURE); } } } static void init_device(void) { struct v4l2_capability cap; struct v4l2_cropcap cropcap; struct v4l2_crop crop; struct v4l2_format fmt; unsigned int min; if (-1 == xioctl(fd, VIDIOC_QUERYCAP, &cap)) { if (EINVAL == errno) { fprintf(stderr, "%s is no V4L2 device/n", dev_name); exit(EXIT_FAILURE); } else { errno_exit("VIDIOC_QUERYCAP"); } } if (!(cap.capabilities & V4L2_CAP_VIDEO_CAPTURE)) { fprintf(stderr, "%s is no video capture device/n", dev_name); exit(EXIT_FAILURE); } switch (io) { case IO_METHOD_READ: if (!(cap.capabilities & V4L2_CAP_READWRITE)) { fprintf(stderr, "%s does not support read i/o/n", dev_name); exit(EXIT_FAILURE); } break; case IO_METHOD_MMAP: case IO_METHOD_USERPTR: if (!(cap.capabilities & V4L2_CAP_STREAMING)) { fprintf(stderr, "%s does not support streaming i/o/n", dev_name); exit(EXIT_FAILURE); } break; } //////not all capture support crop!!!!!!! /* Select video input, video standard and tune here. */ printf("-#-#-#-#-#-#-#-#-#-#-#-#-#-/n"); CLEAR (cropcap); cropcap.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; if (0 == xioctl(fd, VIDIOC_CROPCAP, &cropcap)) { crop.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; #ifndef CROP_BY_JACK crop.c = cropcap.defrect; /* reset to default */ #else crop.c.left = cropcap.defrect.left; crop.c.top = cropcap.defrect.top; crop.c.width = 352; crop.c.height = 288; #endif printf("----->has ability to crop!!/n"); printf("cropcap.defrect = (%d, %d, %d, %d)/n", cropcap.defrect.left, cropcap.defrect.top, cropcap.defrect.width, cropcap.defrect.height); if (-1 == xioctl(fd, VIDIOC_S_CROP, &crop)) { switch (errno) { case EINVAL: /* Cropping not supported. */ break; default: /* Errors ignored. */ break; } printf("-----!!but crop to (%d, %d, %d, %d) Failed!!/n", crop.c.left, crop.c.top, crop.c.width, crop.c.height); } else { printf("----->sussess crop to (%d, %d, %d, %d)/n", crop.c.left, crop.c.top, crop.c.width, crop.c.height); } } else { /* Errors ignored. */ printf("!! has no ability to crop!!/n"); } printf("-#-#-#-#-#-#-#-#-#-#-#-#-#-/n"); printf("/n"); ////////////crop finished! //////////set the format CLEAR (fmt); fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; fmt.fmt.pix.width = 640; fmt.fmt.pix.height = 480; //V4L2_PIX_FMT_YVU420, V4L2_PIX_FMT_YUV420 — Planar formats with 1/2 horizontal and vertical chroma resolution, also known as YUV 4:2:0 //V4L2_PIX_FMT_YUYV — Packed format with 1/2 horizontal chroma resolution, also known as YUV 4:2:2 fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;//V4L2_PIX_FMT_YUV420;//V4L2_PIX_FMT_YUYV; fmt.fmt.pix.field = V4L2_FIELD_INTERLACED; { printf("-#-#-#-#-#-#-#-#-#-#-#-#-#-/n"); printf("=====will set fmt to (%d, %d)--", fmt.fmt.pix.width, fmt.fmt.pix.height); if (fmt.fmt.pix.pixelformat == V4L2_PIX_FMT_YUYV) { printf("V4L2_PIX_FMT_YUYV/n"); } else if (fmt.fmt.pix.pixelformat == V4L2_PIX_FMT_YUV420) { printf("V4L2_PIX_FMT_YUV420/n"); } else if (fmt.fmt.pix.pixelformat == V4L2_PIX_FMT_NV12) { printf("V4L2_PIX_FMT_NV12/n"); } } if (-1 == xioctl(fd, VIDIOC_S_FMT, &fmt)) errno_exit("VIDIOC_S_FMT"); { printf("=====after set fmt/n"); printf(" fmt.fmt.pix.width = %d/n", fmt.fmt.pix.width); printf(" fmt.fmt.pix.height = %d/n", fmt.fmt.pix.height); printf(" fmt.fmt.pix.sizeimage = %d/n", fmt.fmt.pix.sizeimage); cap_image_size = fmt.fmt.pix.sizeimage; printf(" fmt.fmt.pix.bytesperline = %d/n", fmt.fmt.pix.bytesperline); printf("-#-#-#-#-#-#-#-#-#-#-#-#-#-/n"); printf("/n"); } cap_image_size = fmt.fmt.pix.sizeimage; /* Note VIDIOC_S_FMT may change width and height. */ printf("-#-#-#-#-#-#-#-#-#-#-#-#-#-/n"); /* Buggy driver paranoia. */ min = fmt.fmt.pix.width * 2; if (fmt.fmt.pix.bytesperline < min) fmt.fmt.pix.bytesperline = min; min = fmt.fmt.pix.bytesperline * fmt.fmt.pix.height; if (fmt.fmt.pix.sizeimage < min) fmt.fmt.pix.sizeimage = min; printf("After Buggy driver paranoia/n"); printf(" >>fmt.fmt.pix.sizeimage = %d/n", fmt.fmt.pix.sizeimage); printf(" >>fmt.fmt.pix.bytesperline = %d/n", fmt.fmt.pix.bytesperline); printf("-#-#-#-#-#-#-#-#-#-#-#-#-#-/n"); printf("/n"); switch (io) { case IO_METHOD_READ: init_read(fmt.fmt.pix.sizeimage); break; case IO_METHOD_MMAP: init_mmap(); break; case IO_METHOD_USERPTR: init_userp(fmt.fmt.pix.sizeimage); break; } } static void close_device(void) { if (-1 == close(fd)) errno_exit("close"); fd = -1; } static void open_device(void) { struct stat st; if (-1 == stat(dev_name, &st)) { fprintf(stderr, "Cannot identify '%s': %d, %s/n", dev_name, errno, strerror(errno)); exit(EXIT_FAILURE); } if (!S_ISCHR(st.st_mode)) { fprintf(stderr, "%s is no device/n", dev_name); exit(EXIT_FAILURE); } fd = open(dev_name, O_RDWR /* required */| O_NONBLOCK, 0); if (-1 == fd) { fprintf(stderr, "Cannot open '%s': %d, %s/n", dev_name, errno, strerror(errno)); exit(EXIT_FAILURE); } } static void usage(FILE * fp, int argc, char ** argv) { fprintf(fp, "Usage: %s [options]/n/n" "Options:/n" "-d | --device name Video device name [/dev/video0]/n" "-h | --help Print this message/n" "-m | --mmap Use memory mapped buffers/n" "-r | --read Use read() calls/n" "-u | --userp Use application allocated buffers/n" "", argv[0]); } static const char short_options[] = "d:hmru"; static const struct option long_options[] = { { "device", required_argument, NULL, 'd' }, { "help", no_argument, NULL, 'h' }, { "mmap", no_argument, NULL, 'm' }, { "read", no_argument, NULL, 'r' }, { "userp", no_argument, NULL, 'u' }, { 0, 0, 0, 0 } }; int main(int argc, char ** argv) { dev_name = "/dev/video0"; outf = fopen("out.yuv", "wb"); for (;;) { int index; int c; c = getopt_long(argc, argv, short_options, long_options, &index); if (-1 == c) break; switch (c) { case 0: /* getopt_long() flag */ break; case 'd': dev_name = optarg; break; case 'h': usage(stdout, argc, argv); exit(EXIT_SUCCESS); case 'm': io = IO_METHOD_MMAP; break; case 'r': io = IO_METHOD_READ; break; case 'u': io = IO_METHOD_USERPTR; break; default: usage(stderr, argc, argv); exit(EXIT_FAILURE); } } open_device(); init_device(); start_capturing(); mainloop(); printf("/n"); stop_capturing(); fclose(outf); uninit_device(); close_device(); exit(EXIT_SUCCESS); return 0; }
(7)最后还想多说两句,capture.c只是一个示例程序,仅仅是演示怎样使用v4l2中最基本的接口。尤其是在main函数中的那几个函数调用,表明了在使用v4l2时的最基本的一个流程,包括open_device,init_device,start_capturing,mainloop,stop_capturing,uninit_device,close_device。在写程序的时候,可以充分的利用这几个基本模块,把他们分散在不同的代码位置上,灵活的调用,有兴趣的可以看一下gstreamer中v4l2src的源代码或者其他的大型程序的相关部分。
总之一句话,capture.c仅仅是一个演示程序,不要局限于它的代码结构,要灵活的使用。