了解过ffmpeg的人都知道,利用ffmpeg命令即可实现将电脑中摄像头的画面发布出去,例如发布为UDP,RTP,RTMP等,甚至可以发布为HLS,将m3u8文件和视频ts片段保存至Web服务器,普通的播放器就可以直接播放他们。
的确,但是,但是作为一个技术爱好者,相信大家都是对里面的机制与原理是感兴趣的,我们希望通过我们写代码来实现它。另外,ffmpeg命令发布出来的摄像头画面我们似乎要加一些水印、显示一些自定义的文字,可能就不是那么灵活了。举个例子来说,我们想画面中主要画面是电脑桌面,左上角显示摄像头的画面,相信现有的ffmpeg命令实现不了了吧!那有什么办法吗?答案是肯定的,假如我们找到ffmpeg中采集视频的部分,把采集到的画面替换成我们需要的不就行了吗?即我们抓一下桌面画面,再抓一下摄像头画面,然后通过一定的缩放叠加在一块就行了。
讲到这里,我们就有一个目的了,想想刚才我们的设想,我们可以想到ffmpeg中的一个功能,将电脑桌面的画面保存到文件中(当然也可以发布到网络中),这个功能是不是和我们的需求特别相像,通过百度,我们可以得到以下一段代码:
AVFormatContext *pFormatCtx = avformat_alloc_context();
AVInputFormat *ifmt=av_find_input_format("gdigrap");
avformat_open_input(&pFormatCtx, 0, ifmt,NULL);
通过以上代码我们可以打开一个设备gdigrap(录制windows桌面),打开后,我们就可以从中一帧一帧地读出画面了,我们在libavdevice目录中可以找到一个叫gdigrap.c的文件,里面实现了ffmpeg一个设备的基本实现,结构如下:
/** gdi grabber device demuxer declaration */
AVInputFormat ff_gdigrab_demuxer = {
.name = "gdigrab",
.long_name = NULL_IF_CONFIG_SMALL("GDI API Windows frame grabber"),
.priv_data_size = sizeof(struct gdigrab),
.read_header = gdigrab_read_header,
.read_packet = gdigrab_read_packet,
.read_close = gdigrab_read_close,
.flags = AVFMT_NOFILE,
.priv_class = &gdigrab_class,
};
typedef int (*fnVideoCapInitCallback)(int index, int width, int height, int framerate);
typedef int (*fnVideoCapReadCallback)(int index, unsigned char *buff, int len, int width, int height, int framerate, int format);
typedef int (*fnVideoCapCloseCallback)(int index);
void av_setVideoCapInitCallback(fnVideoCapInitCallback callback);
void av_setVideoCapReadCallback(fnVideoCapReadCallback callback);
void av_setVideoCapCloseCallback(fnVideoCapCloseCallback callback);
static int mygrab_read_header(AVFormatContext *s1)
{
struct mygrab *mygrab = s1->priv_data;
AVStream *st = NULL;
int ret = 0;
printf("call mygrab_read_header\n");
if(mygrab->width <= 0 || mygrab->height <= 0){
av_log(s1, AV_LOG_ERROR, "video size (%d %d) is invalid\n", mygrab->width, mygrab->height);
return -1;
}
st = avformat_new_stream(s1, NULL);
if (!st) {
ret = AVERROR(ENOMEM);
return -1;
}
printf("avpriv_set_pts_info\n");
avpriv_set_pts_info(st, 64, 1, 1000000); /* 64 bits pts in us */
if(mygrab->framerate.num <= 0 || mygrab->framerate.den <= 0 ){
av_log(s1, AV_LOG_WARNING, "not set framerate set default framerate\n");
mygrab->framerate.num = 10;
mygrab->framerate.den = 1;
}
mygrab->time_base = av_inv_q(mygrab->framerate);
mygrab->time_frame = av_gettime() / av_q2d(mygrab->time_base);
mygrab->frame_size = mygrab->width * mygrab->height * 3/2;
st->codec->codec_type = AVMEDIA_TYPE_VIDEO;
st->codec->codec_id = AV_CODEC_ID_RAWVIDEO;
st->codec->pix_fmt = AV_PIX_FMT_YUV420P;//AV_PIX_FMT_RGB24;
st->codec->width = mygrab->width;
st->codec->height = mygrab->height;
st->codec->time_base = mygrab->time_base;
st->codec->bit_rate = mygrab->frame_size * 1/av_q2d(st->codec->time_base) * 8;
if(s_videoCapInitCallback != NULL){
av_log(s1, AV_LOG_INFO, "video size (%d %d) frameRate:%d\n", st->codec->width, st->codec->height, mygrab->framerate.num/mygrab->framerate.den);
s_videoCapInitCallback(0, st->codec->width, st->codec->height, mygrab->framerate.num/mygrab->framerate.den);
return 0;
}
av_log(s1, AV_LOG_ERROR, "video cap not call av_setVideoCapInitCallback\n");
return -1;
}
static int mygrab_read_packet(AVFormatContext *s1, AVPacket *pkt)
{
struct mygrab *s = s1->priv_data;
int64_t curtime, delay;
/* Calculate the time of the next frame */
s->time_frame += INT64_C(1000000);
/* wait based on the frame rate */
for(;;) {
curtime = av_gettime();
delay = s->time_frame * s->time_base.num / s->time_base.den - curtime;
if (delay <= 0) {
if (delay < INT64_C(-1000000) * s->time_base.num / s->time_base.den) {
/* printf("grabbing is %d frames late (dropping)\n", (int) -(delay / 16666)); */
s->time_frame += INT64_C(1000000);
}
break;
}
av_usleep(delay);
}
if (av_new_packet(pkt, s->frame_size) < 0) return AVERROR(EIO);
pkt->pts = curtime;
if(s_videoCapReadCallback != NULL){
s_videoCapReadCallback(0, pkt->data, pkt->size, s->width, s->height, s->framerate.num/s->framerate.den, AV_PIX_FMT_YUV420P);
return pkt->size;
}
av_log(s1, AV_LOG_ERROR, "video cap not call av_setVideoCapReadCallback\n");
return 0;
}
static int mygrab_read_close(AVFormatContext *s1)
{
//struct mygrab *s = s1->priv_data;
if(s_videoCapCloseCallback != NULL){
s_videoCapCloseCallback(0);
}
return 0;
}
void avdevice_register_all(void)
{
......
REGISTER_INDEV (MYGRAB, mygrab);
......
}
void av_setVideoAudioCapCallbacks(fnVideoCapInitCallback callback1,fnVideoCapReadCallback callback2,fnVideoCapCloseCallback callback3
,fnAudioCapInitCallback callback4,fnAudioCapReadCallback callback5,fnAudioCapCloseCallback callback6);
av_setVideoAudioCapCallbacks(..,..,..,..,..,..,..); //将回调注册进去
AVFormatContext *pFormatCtx = avformat_alloc_context();
AVInputFormat *ifmt=av_find_input_format("mygrap");
avformat_open_input(&pFormatCtx, 0, ifmt,NULL); //打开自定义视频设备
AVFormatContext *pFormatCtx = avformat_alloc_context();
AVInputFormat *ifmt=av_find_input_format("myoss");
avformat_open_input(&pFormatCtx, 0, ifmt,NULL);//打开自定义音频设备
if(type == TYPE_HLS){
sprintf(filename, "%s\\playlist.m3u8", szPath);
avformat_alloc_output_context2(&oc, NULL, "hls", filename);
}else if(type == TYPE_RTMP){
sprintf(filename, "%s", szPath);
avformat_alloc_output_context2(&oc, NULL, "flv", filename);
}else if(type == TYPE_FILE){
sprintf(filename, "%s", szPath);
avformat_alloc_output_context2(&oc, NULL, NULL, filename);
}
以下是用MFC作出的一个摄像头采集直播Demo,电脑浏览器通过web测试页,手机PAD通过VLC等播放器就可以实时地查看,值得一提的是,web测试页中的延时比较小,如果用播放器来播放延时比较大,这是因为web测试页中的flash将rtmp的缓存设置成最小,而第三方播放器播放有一个缓存,而且相对比较大。
另外,Demo中摄像头采集是用的opencv,这是由于opencv对图像这一块处理比较方便,可以很方便地在图像中增加文字,反转,变换等。