ffmpeg 打包TS介绍

FFmpeg代码里面有ts打包和解包的代码,这里简单介绍下怎么使用吧。


先来看下FFmpeg目录结构:
libavformat :用于各种音视频 封装格式 的生成和解析,包括获取解码所需信息以生成解码上下文结构
和读取音视频帧等功能;
libavcodec :用于各种类型声音/ 图像 编解码;
libavutil :包含一些公共的工具函数;
libswscale :用于视频场景比例缩放、色彩映射转换;
libpostproc :用于后期效果处理;
ffmpeg :该项目提供的一个工具,可用于格式转换、解码或 电视卡 即时编码等;
ffsever :一个 HTTP 多媒体即时广播串流服务器;
ffplay :是一个简单的播放器,使用ffmpeg 库解析和解码,通过SDL显示;


libavformat目录下 mpegtsenc.c,mpegts.c 分别是ts打包和解包的代码:
下面介绍下mpegtsenc.c一些重要函数(原理请看 iso 13818-1):


1)mpegts_write_pat(AVFormatContext *s);
      mpegts_write_pmt(AVFormatContext *s, MpegTSService *service)

      mpegts_write_sdt(AVFormatContext *s)//节目描述表

     pat,pmt这两个表是ts打包最重要的表,这两个表说白了就是多路复用的一个索引,解码器需要更具PAT知道有哪些节目(可以理解为电视节目),根据PMT知道每个节目里面有哪些es流(每个电视节目都有音频和视频),这两个函数一般是不需要改动的;

     pat,pmt的信息并不是只是开始打包的时候出现,看mpegts_write_pes代码会发现着两个表是根据retransmit_si_info计算出来的。

    看下mpegts_write_pmt部分代码:
  1. //nb_streams 对应es流,如果一路音频一路视频,nb_streams=2
  2.     for(i = 0; i < s->nb_streams; i++) {
  3.         AVStream *st = s->streams[i];
  4.         MpegTSWriteStream *ts_st = st->priv_data;
  5.         switch(st->codec->codec_id) {
  6.         case CODEC_ID_MPEG1VIDEO:
  7.         case CODEC_ID_MPEG2VIDEO:
  8.             stream_type = STREAM_TYPE_VIDEO_MPEG2;
  9.             break;
  10.         case CODEC_ID_MPEG4:
  11.             stream_type = STREAM_TYPE_VIDEO_MPEG4;
  12.             break;
  13.         case CODEC_ID_H264:
  14.             stream_type = STREAM_TYPE_VIDEO_H264;
  15.             break;
  16.         case CODEC_ID_MP2:
  17.         case CODEC_ID_MP3:
  18.             stream_type = STREAM_TYPE_AUDIO_MPEG1;
  19.             break;
  20.         case CODEC_ID_AAC:
  21.             stream_type = STREAM_TYPE_AUDIO_AAC;
  22.             break;
  23.         case CODEC_ID_AC3:
  24.             stream_type = STREAM_TYPE_AUDIO_AC3;
  25.             break;
  26.         default:
  27.             stream_type = STREAM_TYPE_PRIVATE_DATA;
  28.             break;
  29.         }
  30.         *q++ = stream_type;
  31.         put16(&q, 0xe000 | ts_st->pid);
复制代码
从上面看出ts打包支持 MPEG1, MPEG2, MPEG4,h264视频以及PCM,mp2,mp3,AAC,AC3音频,音频方面标准不支持G711等G开头的音频,当然如果自己开发客户端的话是可以自定义的。


2)mpegts_write_header(AVFormatContext *s)


初始化 AVFormatContext参数,在正式封装开始加入PAT,PMT,SDT一些信息。代码中有基本的注释;

3)mpegts_write_pes(AVFormatContext *s, AVStream *st,
                             const uint8_t *payload, int payload_size,
                             int64_t pts, int64_t dts)

这个函数就是TS打包的主函数了,这个函数主要功能就是把一帧数据拆分成188字节(感觉效率低了点),并加入PTS,DTS同步信息,这个函数封装的对象是一帧视频或者音频数据, payload,payload_size分别是数据和大小。
上面提到的PAT,PMT表在每个188字节都会检查一次,
  1.     //一帧数据拆成188字节
  2.     while (payload_size > 0) {

  3.         retransmit_si_info(s);
复制代码
retransmit_si_info 函数如下,可以看出条件( ++ts->pat_packet_count == ts->pat_packet_freq )成立,就会加入PAT,PMT信息,而 ts->pat_packet_freq这个值是根据码流大小计算出来。
  1.     MpegTSWrite *ts = s->priv_data;
  2.     int i;
  3. //printf("sdt f:%d pat:%d nb:%d\n",ts->sdt_packet_freq,ts->pat_packet_freq,ts->nb_services);
  4.     if (++ts->sdt_packet_count == ts->sdt_packet_freq) {
  5.         ts->sdt_packet_count = 0;
  6.         mpegts_write_sdt(s);
  7.     }
  8.     if (++ts->pat_packet_count == ts->pat_packet_freq) {
  9.         ts->pat_packet_count = 0;
  10.         mpegts_write_pat(s);
  11.         for(i = 0; i < ts->nb_services; i++) {
  12.             mpegts_write_pmt(s, ts->services[i]);
  13.         }
  14.     }
复制代码
PTS,DTS就是音视频同步时间戳,时间戳其实就是一次采样的颗粒(简单理解就是数据),以视频来举例,视频同步时钟90K hz(27M/300),如果帧率是25fps的话,一帧数据采样时间40ms,那么时间戳就是90K x 40ms = 3600(估算值)。

4)mpegts_write_packet(AVFormatContext *s,  AVPacket *pkt)

这个函数功能比较简单,就是把一帧数据拆分成几个块来封装成pes,因为pes头信息的长度只有两个字节长度(当时可能面向标清),高清的I帧数据肯定一次包不完的。



你可能感兴趣的:(音频)