移动端直播应用的开发流程

(一)推流端

推流,就是将采集到的音频,视频数据通过流媒体协议发送到流媒体服务器。

一、选择流媒体协议

现在直播应用,采用RTMP协议居多,也有部分使用HLS协议。
采用RTMP协议,就要看下它与流媒体服务器交互的过程,RTMP协议的默认端口是1935,采用TCP协议。并且需要了解FLV的封装格式。
采用HLS协议,因为涉及到切片,延时会比较大,需要了解TS流。

二、采集音视频数据

做直播,数据的来源不可缺少,就是采集摄像头,麦克风的数据。
iOS平台上采集音视频数据,需要使用AVFoundation.Framework框架,从captureSession会话的回调中获取音频,视频数据。

三、硬编码,软编码音视频数据

软编码就是利用CPU资源来压缩音视频数据,硬编码与之相反。
软编码的话,现在广泛采用FFmpeg库结合编码库来实现,FFmpeg+X624来编码视频数据YUV/RGB输出H264数据,
FFmpeg+fdk_aac来编码音频数据PCM输出AAC数据。

四、根据所选流媒体协议封包音视频数据

将音频,视频打包成packet。

五、与服务器交互发送封包数据

根据所选流媒体协议,发送相应指令连接服务器,连接服务器成功后,就可以发送packet数据了。

(二) 拉流端

拉流,就是从流媒体服务器获取音频,视频数据。

一、解析协议

播放器端根据URL解析所用的流媒体协议(RTMP,HLS)。

二、解封装

解封装,就是demux的过程,从容器格式(FLV,TS)中,分离出音视频数据。

三、解码

解码,就是把获取到的数据解压缩,恢复成原始数据。解码就是将H264变成YUV,AAC变成PCM。
解码可以使用软解码,硬解码。
软解码就是利用CPU资源去解压缩数据,采用的方式是FFmpeg解码。
硬解码,对于iOS平台来说,可以使用VideoToolbox.Framework(该框架只能在iOS 8.0及以上系统使用)
硬解码视频数据。Android平台上,可以使用MediaCodec来硬解码视频数据。

四、渲染数据

采用OpenGL渲染YUV数据,呈现视频画面。将PCM送入设备的硬件资源播放,产生声音。
iOS播放流式音频,使用Audio Queue 的方式,即,利用AudioToolbox.Framework 框架。

你可能感兴趣的:(移动端直播应用的开发流程)