前言:以下是有关直播中视频编解码、推拉流等流程解析,仅用于个人记录和学习
一、视频编码
1、为什么编码?
编码就是对视频进行压缩,由于网络带宽和硬盘存储空间都是非常有限的,因此,需要先使用视频编码技术(比如H.264编码)对原始视频进行压缩,然后再进行存储和分发。H.264编码的压缩比可以达到至少是100:1。
2、什么是编码?
编码就是按照一定的格式记录采样和量化后的数据。
3、编码中软编码和硬编码的区别?
- 硬编码: 使用非CPU进行编码,例如使用GPU芯片处理。
- 软编码: 使用CPU来进行编码计算。
4、软编码与硬编码的区分?
- 软编码: 实现直接、简单,参数调整方便,升级易,但CPU负载重,性能较硬编码低,低码率下质量通常比硬编码要好一点。
- 硬编码:性能高,低码率下通常质量低于硬编码器,但部分产品在GPU硬件平台移植了优秀的软编码算法(如X264)的,质量基本等同于软编码。
可以这样理解:
- 硬编码就是使用GPU计算,获取数据结果,优点速度快,效率高。
- 软编码就是通过CPU来计算,获取数据结果。
5、压缩算法
压缩算法分为2种,有损压缩与无损压缩。
- 无损压缩:解压后的数据可以完全复原,在常用的压缩格式中,无损压缩使用频次较低。
- 有损压缩:解压后数据不能完全复原,会丢失一部分信息。压缩比越小,丢失的信息就会越多。信号还原的失真就会越大。
需要根据不同的场景(考虑因素包括存储设备,传输网络环境,播放设备等)选用不同的压缩编码算法。
二、视频解码
1、什么是解码?
解码,就是把获取到的数据解压缩,恢复成原始数据。解码就是将H264变成YUV,AAC变成PCM。
2、解码方式
解码可以使用软解码,硬解码。
- 软解码就是利用CPU资源去解压缩数据,采用的方式是FFmpeg解码。
- 硬解码,对于iOS平台来说,可以使用VideoToolbox.Framework(该框架只能在iOS 8.0及以上系统使用)硬解码视频数据。Android平台上,可以使用MediaCodec来硬解码视频数据。
三、直播
1、直播项目流程8个步骤
- 音视频采集
- 视频滤镜
- 音视频编码
- 推流
- 流媒体服务器处理
- 拉流
- 音视频解码
- 音视频播放
2、采集视频,音频
- 使用iOS原生框架 AVFoundation.framework
3、视频滤镜处理
- 使用iOS原生框架 CoreImage.framework
- 使用第三方框架 GPUImage.framework
3.1、CoreImage 与 GPUImage 框架比较:
- 在实际项目开发中,开发者更加倾向使用于GPUImage框架。
- 首先它在使用性能上与iOS提供的原生框架,并没有差别;其次它的使用便利性高于iOS原生框架。
- 最后也是最重要的GPUImage框架是开源的.而大家如果想要学习GPUImage框架,建议学习OpenGL ES,其实GPUImage的封装和思维都是基于OpenGL ES。
4、视频\音频编码压缩
4.1、硬编码
- 视频: VideoToolBox框架
- 音频: AudioToolBox 框架
4.2、软编码
- 视频: 使用FFmpeg,X264算法把视频原数据YUV/RGB编码成H264
- 音频: 使用fdk_aac 将音频数据PCM转换成AAC
5、推流
5.1、什么是推流?
推流就是将采集的音频、视频数据通过流媒体协议发送到流媒体服务器。
5.2、推流技术
- 流媒体协议: RTMP\RTSP\HLS\FLV
- 视频封装格式: TS\FLV
- 音频封装格式: Mp3\AAC
6、流媒体服务器
- 数据分发
- 截屏
- 实时转码
- 内容检测
7、拉流
7.1、什么是拉流?
拉流就是从流媒体服务器中获取音频\视频数据。
7.2、流媒体协议
流媒体协议: RTMP\RTSP\HLS\FLV
8、音视频解码
8.1、硬解码
- 视频: VideoToolBox框架
- 音频: AudioToolBox 框架
8.2、软解码
- 视频: 使用FFmpeg,X264算法解码
- 音频: 使用fdk_aac 解码
9、播放
- ijkplayer 播放框架
- kxmovie 播放框架
备注:ijkplayer、kxmovie 都是基于FFmpeg框架封装的
四、音视频处理的一般流程:
数据采集→数据编码→数据传输(流媒体服务器) →解码数据→播放显示。
1、数据采集:
摄像机及拾音器收集视频及音频数据,此时得到的为原始数据。
1.1、涉及技术或协议:
摄像机:CCD、CMOS。
拾音器:声电转换装置(咪头)、音频放大电路。
2、数据编码:
使用相关硬件或软件对音视频原始数据进行编码处理(数字化)及加工(如音视频混合、打包封装等),得到可用的音视频数据。
2.1、编码方式:
编码方式:CBR、VBR
2.2、编码格式
视频:H.265、H.264、MPEG-4等,封装容器有TS、MKV、AVI、MP4等
音频:G.711μ、AAC、Opus等,封装有MP3、OGG、AAC等。
3、数据传输:
将编码完成后的音视频数据进行传输,早期的音视频通过同轴电缆之类的线缆进行传输,IP网络发展后,使用IP网络优传输。
3.1、涉及技术或协议:
传输协议:RTP与RTCP、RTSP、RTMP、HTTP、HLS(HTTP Live Streaming)等。
控制信令:SIP和SDP、SNMP等。
4、解码数据:
使用相关硬件或软件对接收到的编码后的音视频数据进行解码,得到可以直接显示的图像/声音
4.1、涉及技术或协议:
一般对应的编码器都会带有相应的解码器,也有一些第三方解码插件等
5、播放显示:
在显示器(电视、监视屏等)或扬声器(耳机、喇叭等)里,显示相应的图像画面或声音
5.1、涉及技术或协议:
显示器、扬声器、3D眼镜等
四、视频推流与视频拉流的工作过程解析:
1、视频推流端
推流,就是将采集到的音频,视频数据通过流媒体协议发送到流媒体服务器。
1.1、选择流媒体协议
现在直播应用,采用RTMP协议居多,也有部分使用HLS协议。
采用RTMP协议,就要看下它与流媒体服务器交互的过程,RTMP协议的默认端口是1935,采用TCP协议。并且需要了解FLV的封装格式。
采用HLS协议,因为涉及到切片,延时会比较大,需要了解TS流。
1.2、采集音视频数据
做直播,数据的来源不可缺少,就是采集摄像头,麦克风的数据。
iOS平台上采集音视频数据,需要使用AVFoundation.Framework框架,从captureSession会话的回调中获取音频,视频数据。
1.3、硬编码,软编码音视频数据
软编码就是利用CPU资源来压缩音视频数据,硬编码与之相反。
软编码的话,现在广泛采用FFmpeg库结合编码库来实现,FFmpeg+X624来编码视频数据YUV/RGB输出H264数据,
FFmpeg+fdk_aac来编码音频数据PCM输出AAC数据。
1.4、根据所选流媒体协议封包音视频数据
将音频,视频打包成packet。
1.5、与服务器交互发送封包数据
根据所选流媒体协议,发送相应指令连接服务器,连接服务器成功后,就可以发送packet数据了。
2、拉流端
拉流,就是从流媒体服务器获取音频,视频数据。
2.1、解析协议
播放器端根据URL解析所用的流媒体协议(RTMP,HLS)。
2.2、解封装
解封装,就是demux的过程,从容器格式(FLV,TS)中,分离出音视频数据。
2.3、解码
解码,就是把获取到的数据解压缩,恢复成原始数据。解码就是将H264变成YUV,AAC变成PCM。
2.3.1、解码可以使用软解码,硬解码。
- 软解码就是利用CPU资源去解压缩数据,采用的方式是FFmpeg解码。
- 硬解码,对于iOS平台来说,可以使用VideoToolbox.Framework(该框架只能在iOS 8.0及以上系统使用)硬解码视频数据。Android平台上,可以使用MediaCodec来硬解码视频数据。
2.4、渲染数据
采用OpenGL渲染YUV数据,呈现视频画面。将PCM送入设备的硬件资源播放,产生声音。
iOS播放流式音频,使用Audio Queue 的方式,即,利用AudioToolbox.Framework 框架。
五、iOS开发之 iOS 直播平台 常见的视频直播相关协议详解
5.1、 RTMP(Real Time Messaging Protocol,实时消息传送协议)
RTMP是Adobe Systems公司为Flash播放器和服务器之间音频、视频和数据传输开发的开放协议。它有三种变种:
工作在TCP之上的明文协议,使用端口1935;
RTMPT封装在HTTP请求之中,可穿越防火墙;
RTMPS类似RTMPT,但使用的是HTTPS连接;
RTMP协议是被Flash用于对象、视频、音频的传输。这个协议建立在TCP协议或者轮询HTTP协议之上。RTMP协议就像一个用来装数据包的容器,这些数据既可以是AMF格式的数据,也可以是FLV中的视音频数据。一个单一的连接可以通过不同的通道传输多路网络流,这些通道中的包都是按照固定大小的包传输的。
2、RTSP(Real Time Streaming Protocol,实时流传输协议)
RTSP定义了一对多应用程序如何有效地通过IP网络传送多媒体数据。RTSP提供了一个可扩展框架,数据源可以包括实时数据与已有的存储的数据。该协议目的在于控制多个数据发送连接,为选择发送通道如UDP、组播UDP与TCP提供途径,并为选择基于RTP上发送机制提供方法。
RTSP语法和运作跟HTTP/1.1类似,但并不特别强调时间同步,所以比较能容忍网络延迟。代理服务器的缓存功能也同样适用于RTSP,并且因为RTSP具有重新导向功能,可根据实际负载情况来切换提供服务的服务器,以避免过大的负载集中于同一服务器而造成延迟。
3、RTP(Real-time Transport Protocol,实时传输协议)
RTP是针对多媒体数据流的一种传输层协议,详细说明了在互联网上传递音频和视频的标准数据包格式。RTP协议常用于流媒体系统(配合RTCP协议),视频会议和一键通系统(配合H.323或SIP),使它成为IP电话产业的技术基础。
RTP是建立在UDP协议上的,常与RTCP一起使用,其本身并没有提供按时发送机制或其它服务质量(QoS)保证,它依赖于低层服务去实现这一过程。
参考:https://www.jianshu.com/p/3bf57b5b3637
参考:https://www.jianshu.com/p/a7c1408a89e3