直播中视频编解码、推拉流等流程解析

前言:以下是有关直播中视频编解码、推拉流等流程解析,仅用于个人记录和学习

一、视频编码

1、为什么编码?

编码就是对视频进行压缩,由于网络带宽和硬盘存储空间都是非常有限的,因此,需要先使用视频编码技术(比如H.264编码)对原始视频进行压缩,然后再进行存储和分发。H.264编码的压缩比可以达到至少是100:1。

2、什么是编码?

编码就是按照一定的格式记录采样和量化后的数据。

3、编码中软编码和硬编码的区别?

  • 硬编码: 使用非CPU进行编码,例如使用GPU芯片处理。
  • 软编码: 使用CPU来进行编码计算。

4、软编码与硬编码的区分?

  • 软编码: 实现直接、简单,参数调整方便,升级易,但CPU负载重,性能较硬编码低,低码率下质量通常比硬编码要好一点。
  • 硬编码:性能高,低码率下通常质量低于硬编码器,但部分产品在GPU硬件平台移植了优秀的软编码算法(如X264)的,质量基本等同于软编码。
可以这样理解:
  • 硬编码就是使用GPU计算,获取数据结果,优点速度快,效率高。
  • 软编码就是通过CPU来计算,获取数据结果。

5、压缩算法

压缩算法分为2种,有损压缩与无损压缩。

  • 无损压缩:解压后的数据可以完全复原,在常用的压缩格式中,无损压缩使用频次较低。
  • 有损压缩:解压后数据不能完全复原,会丢失一部分信息。压缩比越小,丢失的信息就会越多。信号还原的失真就会越大。

需要根据不同的场景(考虑因素包括存储设备,传输网络环境,播放设备等)选用不同的压缩编码算法。

二、视频解码

1、什么是解码?

解码,就是把获取到的数据解压缩,恢复成原始数据。解码就是将H264变成YUV,AAC变成PCM。

2、解码方式

解码可以使用软解码,硬解码。

  • 软解码就是利用CPU资源去解压缩数据,采用的方式是FFmpeg解码。
  • 硬解码,对于iOS平台来说,可以使用VideoToolbox.Framework(该框架只能在iOS 8.0及以上系统使用)硬解码视频数据。Android平台上,可以使用MediaCodec来硬解码视频数据。

三、直播

1、直播项目流程8个步骤

  • 音视频采集
  • 视频滤镜
  • 音视频编码
  • 推流
  • 流媒体服务器处理
  • 拉流
  • 音视频解码
  • 音视频播放

2、采集视频,音频

  • 使用iOS原生框架 AVFoundation.framework

3、视频滤镜处理

  • 使用iOS原生框架 CoreImage.framework
  • 使用第三方框架 GPUImage.framework

3.1、CoreImage 与 GPUImage 框架比较:

  • 在实际项目开发中,开发者更加倾向使用于GPUImage框架。
  • 首先它在使用性能上与iOS提供的原生框架,并没有差别;其次它的使用便利性高于iOS原生框架。
  • 最后也是最重要的GPUImage框架是开源的.而大家如果想要学习GPUImage框架,建议学习OpenGL ES,其实GPUImage的封装和思维都是基于OpenGL ES。

4、视频\音频编码压缩

4.1、硬编码

  • 视频: VideoToolBox框架
  • 音频: AudioToolBox 框架

4.2、软编码

  • 视频: 使用FFmpeg,X264算法把视频原数据YUV/RGB编码成H264
  • 音频: 使用fdk_aac 将音频数据PCM转换成AAC

5、推流

5.1、什么是推流?

推流就是将采集的音频、视频数据通过流媒体协议发送到流媒体服务器。

5.2、推流技术

  • 流媒体协议: RTMP\RTSP\HLS\FLV
  • 视频封装格式: TS\FLV
  • 音频封装格式: Mp3\AAC

6、流媒体服务器

  • 数据分发
  • 截屏
  • 实时转码
  • 内容检测

7、拉流

7.1、什么是拉流?

拉流就是从流媒体服务器中获取音频\视频数据。

7.2、流媒体协议

流媒体协议: RTMP\RTSP\HLS\FLV

8、音视频解码

8.1、硬解码

  • 视频: VideoToolBox框架
  • 音频: AudioToolBox 框架

8.2、软解码

  • 视频: 使用FFmpeg,X264算法解码
  • 音频: 使用fdk_aac 解码

9、播放

  • ijkplayer 播放框架
  • kxmovie 播放框架

备注:ijkplayer、kxmovie 都是基于FFmpeg框架封装的

四、音视频处理的一般流程:

数据采集→数据编码→数据传输(流媒体服务器) →解码数据→播放显示。

1、数据采集:

摄像机及拾音器收集视频及音频数据,此时得到的为原始数据。

1.1、涉及技术或协议:

摄像机:CCD、CMOS。

拾音器:声电转换装置(咪头)、音频放大电路。

2、数据编码:

使用相关硬件或软件对音视频原始数据进行编码处理(数字化)及加工(如音视频混合、打包封装等),得到可用的音视频数据。

2.1、编码方式:

编码方式:CBR、VBR

2.2、编码格式

视频:H.265、H.264、MPEG-4等,封装容器有TS、MKV、AVI、MP4等
音频:G.711μ、AAC、Opus等,封装有MP3、OGG、AAC等。

3、数据传输:

将编码完成后的音视频数据进行传输,早期的音视频通过同轴电缆之类的线缆进行传输,IP网络发展后,使用IP网络优传输。

3.1、涉及技术或协议:

传输协议:RTP与RTCP、RTSP、RTMP、HTTP、HLS(HTTP Live Streaming)等。
控制信令:SIP和SDP、SNMP等。

4、解码数据:

使用相关硬件或软件对接收到的编码后的音视频数据进行解码,得到可以直接显示的图像/声音

4.1、涉及技术或协议:

一般对应的编码器都会带有相应的解码器,也有一些第三方解码插件等

5、播放显示:

在显示器(电视、监视屏等)或扬声器(耳机、喇叭等)里,显示相应的图像画面或声音

5.1、涉及技术或协议:

显示器、扬声器、3D眼镜等

四、视频推流与视频拉流的工作过程解析:

1、视频推流端

推流,就是将采集到的音频,视频数据通过流媒体协议发送到流媒体服务器。

1.1、选择流媒体协议

现在直播应用,采用RTMP协议居多,也有部分使用HLS协议。

采用RTMP协议,就要看下它与流媒体服务器交互的过程,RTMP协议的默认端口是1935,采用TCP协议。并且需要了解FLV的封装格式。

采用HLS协议,因为涉及到切片,延时会比较大,需要了解TS流。

1.2、采集音视频数据

做直播,数据的来源不可缺少,就是采集摄像头,麦克风的数据。

iOS平台上采集音视频数据,需要使用AVFoundation.Framework框架,从captureSession会话的回调中获取音频,视频数据。

1.3、硬编码,软编码音视频数据

软编码就是利用CPU资源来压缩音视频数据,硬编码与之相反。

软编码的话,现在广泛采用FFmpeg库结合编码库来实现,FFmpeg+X624来编码视频数据YUV/RGB输出H264数据,

FFmpeg+fdk_aac来编码音频数据PCM输出AAC数据。

1.4、根据所选流媒体协议封包音视频数据

将音频,视频打包成packet。

1.5、与服务器交互发送封包数据

根据所选流媒体协议,发送相应指令连接服务器,连接服务器成功后,就可以发送packet数据了。

2、拉流端

拉流,就是从流媒体服务器获取音频,视频数据。

2.1、解析协议

播放器端根据URL解析所用的流媒体协议(RTMP,HLS)。

2.2、解封装

解封装,就是demux的过程,从容器格式(FLV,TS)中,分离出音视频数据。

2.3、解码

解码,就是把获取到的数据解压缩,恢复成原始数据。解码就是将H264变成YUV,AAC变成PCM。

2.3.1、解码可以使用软解码,硬解码。
  • 软解码就是利用CPU资源去解压缩数据,采用的方式是FFmpeg解码。
  • 硬解码,对于iOS平台来说,可以使用VideoToolbox.Framework(该框架只能在iOS 8.0及以上系统使用)硬解码视频数据。Android平台上,可以使用MediaCodec来硬解码视频数据。

2.4、渲染数据

采用OpenGL渲染YUV数据,呈现视频画面。将PCM送入设备的硬件资源播放,产生声音。

iOS播放流式音频,使用Audio Queue 的方式,即,利用AudioToolbox.Framework 框架。

五、iOS开发之 iOS 直播平台 常见的视频直播相关协议详解

5.1、 RTMP(Real Time Messaging Protocol,实时消息传送协议)

RTMP是Adobe Systems公司为Flash播放器和服务器之间音频、视频和数据传输开发的开放协议。它有三种变种:

  • 工作在TCP之上的明文协议,使用端口1935;

  • RTMPT封装在HTTP请求之中,可穿越防火墙;

  • RTMPS类似RTMPT,但使用的是HTTPS连接;

RTMP协议是被Flash用于对象、视频、音频的传输。这个协议建立在TCP协议或者轮询HTTP协议之上。RTMP协议就像一个用来装数据包的容器,这些数据既可以是AMF格式的数据,也可以是FLV中的视音频数据。一个单一的连接可以通过不同的通道传输多路网络流,这些通道中的包都是按照固定大小的包传输的。

2、RTSP(Real Time Streaming Protocol,实时流传输协议)

RTSP定义了一对多应用程序如何有效地通过IP网络传送多媒体数据。RTSP提供了一个可扩展框架,数据源可以包括实时数据与已有的存储的数据。该协议目的在于控制多个数据发送连接,为选择发送通道如UDP、组播UDP与TCP提供途径,并为选择基于RTP上发送机制提供方法。

RTSP语法和运作跟HTTP/1.1类似,但并不特别强调时间同步,所以比较能容忍网络延迟。代理服务器的缓存功能也同样适用于RTSP,并且因为RTSP具有重新导向功能,可根据实际负载情况来切换提供服务的服务器,以避免过大的负载集中于同一服务器而造成延迟。

3、RTP(Real-time Transport Protocol,实时传输协议)

RTP是针对多媒体数据流的一种传输层协议,详细说明了在互联网上传递音频和视频的标准数据包格式。RTP协议常用于流媒体系统(配合RTCP协议),视频会议和一键通系统(配合H.323或SIP),使它成为IP电话产业的技术基础。

RTP是建立在UDP协议上的,常与RTCP一起使用,其本身并没有提供按时发送机制或其它服务质量(QoS)保证,它依赖于低层服务去实现这一过程。

参考:https://www.jianshu.com/p/3bf57b5b3637
参考:https://www.jianshu.com/p/a7c1408a89e3

你可能感兴趣的:(直播中视频编解码、推拉流等流程解析)