研究音视频的数字化技术之前,必须对声音和图像的的物理性质有基本的了解。音视频技术的本质就是声音和图像信息的采集、存储和回放。学习音视频的数字化技术,不能上来就去编解码,这样有点本末倒置。
通过阅读本文,你将会回顾中学关于光学和声学部分知识,并了解音视频技术中的一些关键概念。
物体通过振动,对空气(传播介质)产生挤压,使空气有节奏的振动并产生疏密变化,从而形成疏密相间的纵波。
1、频率
频率决定音调的高低
频率与波长成反比,频率越低,波长越长。低频波传递距离较长(可对比,寺庙的钟声和轮船的鸣笛)。
2、 振幅
振幅决定音量
音量是能量大小的表现,通常用分贝来表示音量大小,超过一定分贝的声音对人体是有害的。
3.、波形
波形决定音色
不同的声源,在同等频率,同等振幅的情况下,声波的形状是不同的,从而发出的声音也是有差异的。
数字化音频技术,就是声音的采集、存储和回放。
1、采样
- 采样就是在时间轴上数字化声音信号。
- 为了提高采样质量,根据采样定理,需要按比声音最高频率高2倍以上的频率对声音进行采样。人耳能听到的声音频率范围20Hz~20KHz,所有典型的采样率为44.1kHz(表示一秒钟采集44100次数据)。
2、量化
量化就是每个具体采样点的声音在振幅轴上的数字化表示。
3、编码
通常所说的音频裸数据就是PCM(Pulse Codec Modulation脉冲编码调制)
PCM数据涉及四个概念:
1、sampleFormat(采样格式):可理解为一多少字节存储声音,典型的量化格式为16bit。
2、sampleRate(采样率):这就不用说了吧,典型的采样率为44.1KHz。
3、channel(声道数):为了造成立体声效果,数字声音分为左、右两个声道。
4、比特率:对于数字音频而言,比特率是个关键概念。定义为:一秒时间内的比特数,用于衡量单位时间音频数据量的大小。
我们来计算一下一分钟未经编码的数据占有多少字节:
以CD音质为例:
CD 音质参数:
采样格式(sampleFormat)为16byte(2字节)
采样率(sampleRate)为44.1KHz
声道数(channel) 为2
所以,一分钟的数据大小为:
44100 * 16 * 2 * 60 / 8 / 1024 = 10.09 MB
也许按照现在的存储技术,这个大小勉强能够接受,倒是如果要实时传输的话,那就太勉强了。所以必须对数据进行编码。
编码,也称为压缩编码。它的实质是通过特殊的算法压缩掉冗余信号。
冗余信号: 指不能被人耳感知的信号。
压缩比: 是压缩编码的基本标准之一,小于1。压缩又分为有损压缩,和无损压缩。常用压缩格式中,常用有损压缩。压缩比越小,丢失信息越多,丢失的信息不可恢复。
白色光能被分解为多种色光,实验证明,红绿蓝三种色光无法分解,这就是我们说的三原色。
另外,物体之所以能在我们的眼中呈像,是因为物体反射的光,进入了眼睛。但在视频技术中,却稍有不同。
因为手机或者电脑屏幕都是自发光原,并不需要反射光。
一块分辨率为1280 * 720的屏幕,水平方向有1280个像素点,竖直方向有720个像素点。每个像素点由三个子像素组成(有条件可以通过显微镜观察),分别表示RGB。屏幕显示图片时,将每一个像素点的RGB通道分别对应屏幕的子像素点,从而显示出照片。
不管是通过常识,还是通过阅读本文,相信你已经知道任何图像都可以由RGB组成。
每个像素点的子像素有两种表示:
对于一般图像,通常使用整数表示。如计算一张分辨率为1280 * 720,格式为RGBA-8888的图像大小:
1280 * 720 * 4 = 3.516MB
RGBA-8888格式:一个字节表示透明度三个字节表示RGB分量。
以上计算出的大小,就是位图(bitmap)在内存中占据的大小。因为数据量较大,不利于网络传输。所以就有了各种压缩格式。
对于视频而言,它的裸数据更多的使用YUV格式表示。和RGB比较,最大的优点在于占用较少的频宽(RGB要求三个独立的视频数据分量同时传输),另外YUV可以很好的向黑白电视兼容。
其中:
Y亮度分量的建立,是通过叠加RGB输入信号的特定部分完成。
U和V色度分量,定义了色调和饱和度两方面,分别用Cr和Cb表示。Cr反映RGB输入信号红色部分和亮度值之间的差异。Cb则反映RGB输入信号蓝色部分和亮度值之间的差异。
YUV格式表示的数据,Y分量和U、V是分离的。只有Y分量的数据,表现出来就是黑白视频,这正是YUV格式能兼容黑白电视的原因。
YUV 常用的格式是4 :2 :0(关于YUV格式的种类和计算方式,以后单独开篇讲解)。
Y、U、V都是使用8个bit表示。
和音频数据相似,视频的编码也是通过去除冗余数据实现。不同数据在于,视频数据在时间和空间上有较强的相关性。所以这些冗余信息包括时间冗余和空间冗余。
帧内编码用于去除时间冗余。关于帧间编码技术实现细节,可以先熟悉一下概念,暂时不用了解细节,这将在以后介绍。
帧间编码技术,是去除时间冗余的方式,包括以下方面:
* 运动补偿: 通过之前的图像来预测、补偿当前图像,是减少帧序列冗余信息的有效方法。
* 运动表示: 不同区域的图像需要使用不同的运动适量来描述运动信息。
* 运动估计: 是一中从视频序列中抽取运动信息的一整套技术。
帧内编码用于去除空间冗余。关于帧内编码技术实现细节,可以先熟悉一下概念,暂时不用了解细节,这将在以后介绍。
帧内编码编码标准有很多,且都需要大量篇幅介绍,这里只作大致介绍。一类是MPEG,主要包括四个版本:1、Mpeg1(用于VCD)。2、Mpeg2(用于DVD)。3、Mpeg4(现在流行的流媒体)。第二类是H.26*系列,包括H264。
GOP
英文全称为Group Of Picture,意思是,两个I帧之间形成的一组图片。通常在为解码器设置参数时,需要指定gop_size的值,因为I帧的压缩率是最低的,对一个视频源而言,gop_size越大,相对来说I帧就越少,节约出来的空间就可以保存更多的I帧,所以画质就会越好。所以,应该根据业务场景,选择适当的gop_size值,从而提高视频质量。
常见的压缩率:
I帧: 7
P帧: 20
B帧: 50
mux的全称是multiplex,译为多路传输。在音视频中,其实就是混流。意思是将多路流包括音频、视频流混合/封装到一个流文件中。
demux自然就是相反的意思,表示分流,意思是将经过混流后的流文件拆分开来,方便后续处理。
muxer和demuxer,则可以分别表示为混流器、分流器。
muxing与demuxing加上ing后缀,表示动作,可以分别理解为混流操作和分流操作。
编解码后的音频、视频、字幕等流文件通过混流器封装(打包)到一个文件中,同时作为数据传输,传输完毕后,又通过分流器对数据进行解封(拆包),将音频、视频、字幕等数据分流出来,进一步处理。
如有任何有描述不清,或者有误之处,欢迎流言交流。更音视频相关内容将持续更新,敬请期待。