这里将了解到的和一些博客网站讲到的音视频基础相关的内容总结整理到了一起,方便系统的学习和回顾记录。
首先一个最简易的音视频图解,包括一下几个部分:
对于一个实时音视频应用共包括几个环节:采集、编码、前后处理、传输、解码、缓冲、渲染等很多环节。每一个细分环节,还有更细分的技术模块。比如,前后处理环节有美颜、滤镜、回声消除AEC、噪声抑制NS、静音控制VAD、自动增益控制AGC等,采集有麦克风阵列等,编解码有VP8、VP9、H.264、H.265等。
典型的实时音视频应用数据流转过程如下:
下面这张图可能更具体一点:
整个图包含了音视频数据从打包、编解码、传输、推拉流、播放等整个过程,这里边包含了很多音视频基础知识,下边归纳整理一下。
CDN构成:
①边缘结点:用户会先从边缘结点获取服务;
②二级结点(主干结点):主要是用于缓存,减轻源站的压力。如果边缘结点没有服务,会先从主干结点上拉取缓存的数据到边缘结点,然后用户再从边缘结点获取数据;
③源站:(会有多个源节点)内容提供商会将内容放在源站上。如果边缘结点和主干结点都没有获取到服务,则会访问源站。
①ffmpeg
②ffplay:也是基于ffmpeg
③flashplayer
①音调(音频)
②音量
③音色(根材质有关)
听觉范围:
①<20HZ,次声波
②20HZ~20KHZ,可以听见的
③>20KHZ,超声波
①采样大小:也就是采样的纵坐标对应的值,表示一个采样用多少位存放。一般为16bit(2^16 = 65535),也可以是8位,但是8位对应的是256,比较小,一般采用16位。
②采样率:一般由8k,16k,32k,44.1k(AAC用这个),48k
可以把它理解为,要采集的总量,拿44.1k举例,比如说,现在要采集20HZ的,就要采集(44100/20=)2000次,而要采集20KHZ的,就要采集(44100/20000=)2次;
③声道:单声道、双声道、多声道(上下左右等都有一个喇叭)
采样率 x 采样大小 x 声道数
比如:
采样率为:44.1k
采用大小为:16bit
双声道的PCM编码的WAV文件,它的码率为:
44.1k x 16 x 2=1411.2kb/s--->除以8--->176.4kB/s
类型 | 特点 | 应用场景 |
---|---|---|
OPUS | 最流行的,内部有两个核心模型:基于口和基于耳,内部自主进行选择 | 实时互动(口模型),声音乐器等高保真的(耳模型);不适用与泛娱乐化场景,因为泛娱乐化场景中是用的rtmp协议,这个协议可以支持AAC和Speex; |
AAC | 泛娱乐化 | |
Vorbis | ||
Speex | 除了音视频编解码之外,还可以进行回音消除,降噪 | |
iLBC | ||
AMR | ||
G.711 | 音视频会议会用到固话,固话用的就是G.711和G.712 |
性能对比:OPUS>AAC>Vorbis
为什么这么重要?
①应用范围广,在泛娱乐化中大部分都是用的这个;
②协议的支持:在泛娱乐化中要用的是rtmp协议,而AAC支持这个协议
③它的高保真可以保证音频的质量
目的:取代MP3
原因:MP3的规范是MPEG-2,这个规范在音频方面的处理是有损压缩,也就是说还原回来的数据和原数据不能一模一样,对音质有损耗;而AAC的损耗更小,且压缩率更高,他是基于MPEG-4规范的;
规则 | 全名 | 特点 | 码流 |
---|---|---|---|
AAC LC | Low Complexity | 低复杂度, 码流为 128k | |
AAC HE V1 | AAC LC + SBR(Spectral Band Replication 分频复用) | 将一个音频的频带分成两部分:低频和高频,分别进行编码 | 码流为64k左右 |
AAC HE V2 | AAC LC + SBR + PS(Parametric Stereo ) | 对于双声道来说,只完整保存其中一个声道的音频,另一个只保存差异性的数据就行了,因为两个声道关联性很强,可以通过一些公式,得到原始的数据 | 码流为32k左右 |
格式 | 全名 | 特点 | 区别 |
---|---|---|---|
ADIF | Audio Data Interchange Format | 在一个音频文件的开始加一个头(如:采样大小/采样率/声道数等),之后取出的每一帧都套用这个头去编解码; | 只能从头部开始解码,常用在磁盘文件中 |
ADTS | Audio Data Transport Stream | 在音频文件的每一帧签名都加7~9个字节,表示它的采样大小等 | 可以从任意位置开始解码,类似于数据流格式 |
AAC编码库哪个好?
Libfdk_AAC > ffmpeg AAC > libfaac > libvo_aacenc
1.几种帧:
GOP:一组帧,在一组帧的前面会有SPS(Sequence Parameter Set,序列参数集)和PPS(Picture Parameter Set,图像参数集)
2.视频花屏和卡顿的原因
花屏主要是有帧的丢失:比如P帧或者是I帧丢失了;
卡顿主要是为因为为了解决避免花屏的情况,就把丢失的那一组帧全部扔掉,然后就会卡屏了;
3.编码器分类:
名字 | 特点 |
---|---|
x264/x265 | x264的性能更好,x265的压缩比高,但是CPU占用也高,不适合直播 |
openH264 | 是使用的svc,比如说把一帧分成3层(小中大),当网络较差的时候,只发送内核层,较好的时候,多发送异常,这样以此类推,多一层,画质就会更清晰一些 |
vp8/vp9 | 是goole推出的,vp8是基于x264,vp9是基于x265的 |
H264编码原理:
压缩技术:
宏块划分
从上面的图中可以看出,整张图宏划分后就是这样的了;
分层:
一个帧的拆包和组包都是在这里完成的;(为什么要拆包和组包呢?因为网络的最大传输单元是1500字节,而每一帧大于1500字节,所以得拆包)
码流:
名字 | 特点 |
---|---|
SODB | 原始数据比特流,由VCL层产生,不一定是8的倍数 |
RBSP | SODB + traling bits,在SODB的末尾加1,还不足8位的,补0 |
EBSP | 压缩流,在帧的开头加一个起始位,一般是16进制的0000 0001或者是00 00 01,因为压缩流中可能也会有连续的0,所以在压缩流中连续的0前面加 0x03; |
NALU | NAL头(1个字节)+EBSP |
4.NAL(NAL header + body)
+---------------+
|0|1|2|3|4|5|6|7|
+-+-+-+-+-+-+-+-+
|F|NRI| TYPE |
F:禁止位,在H264中规定必须为0
NRI:指示重要性,暂时不用
Type:表示NALU单元的类型,常用的类型有5(IDR图像的片,关键帧的一部分)
、7(序列参数集 FPS)、8(图像参数集 PPS)、28/29(分片的单元-->分片之后再通过FU Header组合)
+---------------+
|0|1|2|3|4|5|6|7|
+-+-+-+-+-+-+-+-+
|S|E|R| TYPE |
S:分片的开始
E:分片的结束
R:未使用,设置为0
Type:分片NAL的类型
5.YUV(YCbCr)
Y:明亮度,又叫灰阶值
U和V:表示色度,描述影像的色彩及饱和度,用于指定像素的颜色
用途:还是为了节省存储空间
常见格式:
存储格式:
平面(Planer)
打包(packed)
具体有哪些协议呢 ?
1)音视频在传输前,怎么打包的,如:FLV,ts,mpeg4 等;
2)直播推流,有哪些常见的协议,如:RTMP,RSTP 等;
3)直播拉流,有哪些常见的协议,如:RTMP,HLS,HDL,RTSP 等;
4)基于 UDP 的协议有哪些?如:RTP/RTCP,QUIC 等。
韩国GoodTV:rtmp://mobliestream.c3tv.com:554/live/goodtv.sdp
湖南卫视:rtmp://58.200.131.2:1935/livetv/hunantv
http://playertest.longtailvideo.com/adaptive/bipbop/gear4/prog_index.m3u8
http://devimages.apple.com/iphone/samples/bipbop/bipbopall.m3u8
http://devimages.apple.com/iphone/samples/bipbop/gear1/prog_index.m3u8
参考链接:
https://blog.csdn.net/qq_42510533/article/details/101775388
https://www.jianshu.com/p/fca1201d9067
福利贴:最全实时音视频开发要用到的开源工程汇总 http://www.52im.net/thread-1395-1-1.html