如何强制ffmpeg编码时输出一个关键帧

如何强制ffmpeg编码时输出一个关键帧

AVCodecContext *c     //编码器环境句柄
AVFrame* f                 //需要编码的一帧视频

/*在avcodec.h文件中有这样的定义
#define FF_I_TYPE  1 ///< Intra
#define FF_P_TYPE  2 ///< Predicted
#define FF_B_TYPE  3 ///< Bi-dir predicted
#define FF_S_TYPE  4 ///< S(GMC)-VOP MPEG4
#define FF_SI_TYPE 5 ///< Switching Intra
#define FF_SP_TYPE 6 ///< Switching Predicted
#define FF_BI_TYPE 7
*/

在编码前设置
f->pict_type=FF_I_TYPE; 
f->key_frame=1; 
注:该帧为I帧时,f->pict_type==FF_I_TYPE  && f->key_frame==1

然后编码
*outsize = avcodec_encode_video(c, temp, outbuf_size, f);

则编码之后通过如下参数判断是否为关键帧:
key_frame=c->coded_frame->key_frame; 
pict_type=c->coded_frame->pict_type;
key_frame==FF_I_TYPE && pict_type==1

 

 

ffmpeg如何提取视频的关键帧

 

  1. av_register_all();

  2.  

  3.     if(av_open_input_file(&pFormatCtx, filename, NULL, 0, NULL)!=0)

  4.         printf("error!\n");

  5.  

  6.     if(av_find_stream_info(pFormatCtx)<0)

  7.         printf("error!\n");

  8.  

  9.     videoStream=-1;

  10.  

  11.     for(i=0; inb_streams; i++)

  12.         if(pFormatCtx->streams[i]->codec->codec_type==CODEC_TYPE_VIDEO)

  13.         {

  14.             videoStream=i;

  15.             break;

  16.         }

  17.     if(videoStream==-1)

  18.         printf("error!\n");// Didn't find a video stream

  19.  

  20.     // 得到视频流编码上下文的指针

  21.     pCodecCtx=pFormatCtx->streams[videoStream]->codec;

 

  1. 然后选择解码器进行解码:

  2.     AVCodec *pCodec;

  3.  

  4.     //  寻找视频流的解码器

  5.     pCodec=avcodec_find_decoder(pCodecCtx->codec_id);

  6.     if(pCodec==NULL)

  7.         printf("error!\n");// 找不到解码器

  8.  

  9.     // 打开解码器

  10.     if(avcodec_open(pCodecCtx, pCodec)<0)

  11.         printf("error!\n"); // 打不开解码器

  12.  

  13. 现在开始,进入解码和提取关键帧的过程:

  14.  

  15.     pFrame=avcodec_alloc_frame();

  16.     pFrameRGB = avcodec_alloc_frame();

  17.     numBytes=avpicture_get_size(PIX_FMT_BGR24, pCodecCtx->width,pCodecCtx->height);

  18.     buffer=new uint8_t[numBytes];

  19.     avpicture_fill((AVPicture *)pFrameRGB, buffer, PIX_FMT_RGB24,pCodecCtx->width, pCodecCtx->height);

  20.     pSWSCtx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt, pCodecCtx->width, pCodecCtx->height, PIX_FMT_RGB24, SWS_BICUBIC, NULL, NULL, NULL);

  21.  

  22.     i=0;

  23.     while(av_read_frame(pFormatCtx,&packet)>=0)

  24.     {

  25.         if(packet.stream_index==videoStream)

  26.         {

  27.             avcodec_decode_video(pCodecCtx, pFrame, &frameFinished,packet.data, packet.size);

  28.             if(frameFinished)

  29.             {

  30.                 if(pFrame->key_frame==1) // 这就是关键帧

  31.                 {

  32.                     sws_scale(pSWSCtx, pFrame->data, pFrame->linesize,0, pCodecCtx->height, pFrameRGB->data, pFrameRGB->linesize);

  33.                     // 保存到磁盘

  34.                     char pic[200];

  35.                     sprintf(pic,"pic%d.bmp",i);

  36.                     i++;

  37.                      av_create_bmp(pic,pFrameRGB->data[0],pCodecCtx->width,pCodecCtx->height,24);

  38.                 }

  39.             }

  40.         }

  41.         av_free_packet(&packet);

  42.     }

  43.  

  44. 最后,释放资源和句柄

 

  1. // 释放 RGB 图象

  2.     av_free(pFrameRGB);

  3.     // 释放YUV 帧

  4.     av_free(pFrame);

  5.  

  6.     sws_freeContext(pSWSCtx);

  7.  

  8.     // 关闭解码器(codec)

  9.     avcodec_close(pCodecCtx);

  10.  

  11.     // 关闭视频文件

  12.     av_close_input_file(pFormatCtx)

 

ffmpeg SDK就支持,以下代码是ffmpeg官方小组提供的

 

  1. int main()  

  2. {  

  3. SwsContext *pSWSCtx;  

  4. AVFormatContext *pFormatCtx;  

  5. const char *filename="sample.mpg";  

  6. int i,videoStream,y_size;  

  7. AVCodecContext *pCodecCtx;  

  8. AVFrame *pFrame;  

  9. AVFrame *pFrameRGB;  

  10. int     numBytes,frameFinished;  

  11. uint8_t *buffer;  

  12. static AVPacket packet;  

  13.  

  14. av_register_all();  

  15.  

  16. if(av_open_input_file(&pFormatCtx, filename, NULL, 0, NULL)!=0)  

  17. printf("error!\n");  

  18.  

  19. if(av_find_stream_info(pFormatCtx)<0)  

  20. printf("error!\n");  

  21.  

  22. dump_format(pFormatCtx, 0, filename, false);  

  23.  

  24. videoStream=-1;  

  25.  

  26. for(i=0; inb_streams; i++)  

  27. if(pFormatCtx->streams[i]->codec->codec_type==CODEC_TYPE_VIDEO)  

  28. {  

  29. videoStream=i;  

  30. break;  

  31. }  

  32. if(videoStream==-1)  

  33. printf("error!\n");// Didn't find a video stream  

  34.  

  35. pCodecCtx=pFormatCtx->streams[videoStream]->codec;  

  36. AVCodec *pCodec;  

  37.  

  38. pCodec=avcodec_find_decoder(pCodecCtx->codec_id);  

  39. if(pCodec==NULL)  

  40. printf("error!\n");

  41.  

  42. if(avcodec_open(pCodecCtx, pCodec)<0)  

  43. printf("error!\n");

  44. pFrame=avcodec_alloc_frame();  

  45.  

  46. pFrameRGB = avcodec_alloc_frame();  

  47. numBytes=avpicture_get_size(PIX_FMT_BGR24, pCodecCtx->width,pCodecCtx->height);  

  48. buffer=new uint8_t[numBytes];  

  49. avpicture_fill((AVPicture *)pFrameRGB, buffer, PIX_FMT_RGB24,pCodecCtx->width, pCodecCtx->height);  

  50. pSWSCtx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt, pCodecCtx->width, pCodecCtx->height, PIX_FMT_RGB24, SWS_BICUBIC, NULL, NULL, NULL);  

  51.  

  52. i=0;  

  53. while(av_read_frame(pFormatCtx,&packet)>=0)  

  54. {  

  55. if(packet.stream_index==videoStream)  

  56. {  

  57. avcodec_decode_video(pCodecCtx, pFrame, &frameFinished,packet.data, packet.size);  

  58. if(frameFinished)  

  59. {  

  60. if(pFrame->key_frame==1)//这里取到关键帧数据  

  61. {  

  62. sws_scale(pSWSCtx, pFrame->data, pFrame->linesize,0, pCodecCtx->height, pFrameRGB->data,pFrameRGB->linesize);  

  63. i++;    

  64. }  

  65. }  

  66. }  

  67. av_free_packet(&packet);  

  68. }  

  69.  

  70. av_free(pFrameRGB);  

  71.  

  72. av_free(pFrame);  

  73.  

  74. sws_freeContext(pSWSCtx);  

  75.  

  76. avcodec_close(pCodecCtx);  

  77.  

  78. av_close_input_file(pFormatCtx);  

  79.  

  80. return 0;  

  81.  

  82. }

live555+ffmpeg如何提取关键帧(I帧,P帧,B帧)

开发流媒体播放器的时候,特别是在windows  mobile,symbian(S60)平台开发时,很可能遇到需要自己开发播放器的情况。

S60平台提供了CVideoPlayUtility接口可以实现流媒体播放器,但由于非开源,所以相对于自己开发播放器,很多操作受到限制。

live555主要用于网络流接收,ffmpeg则是对接收到的数据进行编码/解码

I帧,P帧,B帧是视频流中三种分类,其中I帧也就是关键帧是基础帧,P帧一般根据I帧确定,而B帧需要前面两着的信息。

举例说:

the Input sequence for video encoder

1  2   3   4   5    6   7

I    B   B   P  B   B   I

 

Let's take 1,2,3.. as PTS for simplification

 

the out sequence for video encoder ( this equals the decoder sequence)

1  4   2    3   7   5   6

I   P    B   B   I    B   B

 

播放器LIVE555收到的序列顺序就应该是:

 

1  4  2  3  7  5  6 

 

经过解码器解码,顺序又回到1 2 3 4 5 6 7这种正常顺序。

 

所以我们可以根据avcodec_decode_video来判断帧别。

avcodec_decode_video之后的顺序是一定的。严格按照1 2 3 4。。。这样的顺序来。

判断I帧,P,B帧方法:

(1):假如解码成功,则不是I帧就是P帧(根据AVFrame->keyframe判断是否是I帧)。

假如不是I帧,也不是P帧,则只能是B帧(通过pts判断)。

(2):采用AVFrame->pict_type综合pts的办法:

if(FF_I_TYPE==picture->pict_type)

                        {

                                Printlog("");

                        }

                        else if(FF_P_TYPE==picture->pict_type)

                        {

                                Printlog("");

                        }

                        else if(FF_B_TYPE==picture->pict_type)

                        {

                                Printlog("");

                        }

                        else if(FF_S_TYPE==picture->pict_type)

                        {

                                Printlog("");

                        }

                        else

                        {

                                Printlog("");

                        }

正常情况下是不会打印出B帧的,因为解码成功的肯定是I帧或者是P帧.

你可能感兴趣的:(FFmpeg)