一般视频监控行业都会选择把视频存储在本地NVR或者服务器上,而不是存储在客户端电脑,只有当用户经费预算有限的时候,或者用户特殊需求要求存储在本地客户端电脑的时候才会开启存储到本地,正常来说视频存储需要专用的硬盘来存储比较好,一个是安全性,更重要的是容量大,一般NVR可以外接8块硬盘,每个4T,一起就是32T,这个对于普通的电脑来说肯定是比不了的,尤其是现在高清视频阶段了,需要存储的视频清晰度很高,就算用H265编码存储,一天24小时的视频量也不少,很多重要场所重点部位,要求存储的视频天数大于60天,这个一般电脑上是不够存储的,所以现在还衍生了磁盘阵列来存储在服务器,这样能够存储的天数更大。
本视频监控系统默认内核采用的是ffmpeg来解析rtsp视频流,同时还支持vlc内核,ffmpeg在播放视频流的时候,可以打开文件进行视频流信息的存储,默认存储的是裸流,可以自行根据编码规则改成MP4格式的,这样存储的视频文件可以用其他播放器打开,而如果是存储的裸流的话,一般需要ffmpeg自身去打开播放,目前测试过的支持裸流直接播放的播放器是完美解码播放器potplayer,如果还有同名的aac声音文件的话,会同步播放声音。
采用ffmpeg来存储视频流和对应的声音文件,还是非常方便的,直接打开文件后写入data数据即可,在拿到视频流解码的时候,可以判断是否还带了音频流,如果带了的话,可以同步存储音频文件到aac文件,存储音频流的时候需要做个特殊处理,先写入dts头,再写入音频流数据,不然会出错。本系统封装的ffmpeg类,提供了两种方式存储视频文件,一种是存储成单个视频文件,还有一种是按照存储间隔比如30分钟存储成多个视频文件,到了时间间隔重新生成文件存储,在视频监控领域第二种用的比较多,这样方便回放录像和拷贝录像,单个文件比较小,很容易查询和拷贝。
皮肤开源:https://gitee.com/feiyangqingyun/QWidgetDemo https://github.com/feiyangqingyun/QWidgetDemo
文件名称:styledemo
体验地址:https://gitee.com/feiyangqingyun/QWidgetExe https://github.com/feiyangqingyun/QWidgetExe
文件名称:bin_video_system.zip
void FFmpegThread::run()
{
//计时
QTime time;
while (!stopped) {
//根据标志位执行初始化操作
if (isPlay) {
if (init()) {
//启用保存文件,先关闭文件
if (saveFile) {
if (fileVideo.isOpen()) {
fileVideo.close();
}
if (fileAudio.isOpen()) {
fileAudio.close();
}
//如果存储间隔大于0说明需要定时存储
if (saveInterval > 0) {
fileName = QString("%1/%2.mp4").arg(savePath).arg(STRDATETIME);
emit sig_startSave();
}
if (videoStreamIndex >= 0) {
fileVideo.setFileName(fileName);
fileVideo.open(QFile::WriteOnly);
}
if (audioStreamIndex >= 0) {
fileAudio.setFileName(fileName.replace(QFileInfo(fileName).suffix(), "aac"));
fileAudio.open(QFile::WriteOnly);
}
}
emit receivePlayOk();
} else {
break;
emit receivePlayError();
}
isPlay = false;
continue;
}
if (isPause) {
//这里需要假设正常,暂停期间继续更新时间
lastTime = QDateTime::currentDateTime();
msleep(1);
continue;
}
time.restart();
if (av_read_frame(avFormatContext, avPacket) >= 0) {
//判断当前包是视频还是音频
int packetSize = avPacket->size;
int index = avPacket->stream_index;
if (index == videoStreamIndex) {
//解码视频流
if (hardware == "none") {
avcodec_decode_video2(videoCodec, avFrame2, &frameFinish, avPacket);
} else {
frameFinish = decode_packet(videoCodec, avPacket);
}
if (frameFinish) {
//计数,只有到了设定的帧率才刷新图片
frameCount++;
if (frameCount != interval) {
av_packet_unref(avPacket);
av_freep(avPacket);
msleep(1);
continue;
} else {
frameCount = 0;
}
//保存视频流数据到文件
QMutexLocker lock(&mutex);
if (fileVideo.isOpen()) {
//rtmp视频流需要添加pps sps
#ifndef gcc45
av_bsf_filter(filter, avPacket, avFormatContext->streams[videoStreamIndex]->codecpar);
#endif
fileVideo.write((const char *)avPacket->data, packetSize);
}
//将数据转成一张图片
sws_scale(swsContext, (const uint8_t *const *)avFrame2->data, avFrame2->linesize, 0, videoHeight, avFrame3->data, avFrame3->linesize);
//以下两种方法都可以
//QImage image(avFrame3->data[0], videoWidth, videoHeight, QImage::Format_RGB32);
QImage image((uchar *)buffer, videoWidth, videoHeight, QImage::Format_RGB32);
if (!image.isNull()) {
lastTime = QDateTime::currentDateTime();
emit receiveImage(image);
//计算本地视频文件等待时间
int useTime = time.elapsed();
if (!isRtsp && videoFps > 0) {
//一帧解码用时+固定休眠1毫秒+其他用时1毫秒
int frameTime = useTime + 1 + 1;
//等待时间=1秒钟即1000毫秒-所有帧解码完成用的毫秒数/帧数
sleepTime = (1000 - (videoFps * frameTime)) / videoFps;
//有时候如果图片很大或者解码很难比如h265造成解码一张图片耗时很大可能出现负数
sleepTime = sleepTime < 0 ? 0 : sleepTime;
}
//qDebug() << TIMEMS << image.size() << "useTime" << time.elapsed() << "sleepTime" << sleepTime << "videoFps" << videoFps;
}
msleep(sleepTime);
}
} else if (index == audioStreamIndex) {
//解码音频流,这里暂不处理,以后交给sdl播放
//保存音频流数据到文件
QMutexLocker lock(&mutex);
if (fileAudio.isOpen()) {
//先写入dts头,再写入音频流数据
dtsData[3] = (char)(((2 & 3) << 6) + ((7 + packetSize) >> 11));
dtsData[4] = (char)(((7 + packetSize) & 0x7FF) >> 3);
dtsData[5] = (char)((((7 + packetSize) & 7) << 5) + 0x1F);
fileAudio.write((const char *)dtsData, 7);
fileAudio.write((const char *)avPacket->data, packetSize);
}
}
} else if (!isRtsp) {
//如果不是视频流则说明是视频文件播放完毕
break;
}
av_packet_unref(avPacket);
av_freep(avPacket);
msleep(1);
}
emit sig_stopSave();
//线程结束后释放资源
free();
stopped = false;
isPlay = false;
isPause = false;
emit receivePlayFinsh();
qDebug() << TIMEMS << "stop ffmpeg thread";
}