[Camera]摄像头图像处理及色彩模型

参考链接:
1.凹凸思 https://www.zhihu.com/people/jiao-tao-52
2.纸上浅谈 https://glumes.com/post/ffmpeg/understand-yuv-format/

1.名词解释

  • 光通量(Φ):指人眼所能感觉到的辐射功率,它等于单位时间内某一波段的辐射能量和该波段的相对视见率的乘积。单位:流明。
  • 发光强度(光强):在给定方向上(该方向上的辐射强度为(1/683)瓦特/球面度))的单位立体角发出的光通量.单位:坎德拉.
  • 亮度(辉度Lv):指发光体光强与人眼所“见到”的光源面积之比,定义为该光源单位的亮度,即单位投影面积上的发光强度.单位:坎德拉/平方米(cd/m2)
  • 感光度(ISO):是衡量底片对于光的灵敏程度的量.
a. 胶片相机的感光度:是胶片对光线的化学反应速度,也是制造胶片行业中感光速度的标准。

b. 数码相机的感光度:是一种类似于胶卷感光度的一种指标,实际上,数码相机的ISO是通过调整感光元件的灵敏度或者合并感光点来实现的,也就是说是通过提升感光器件的光线敏感度或者合并几个相邻的感光点来达到提升ISO的目的。(简单的说:感光度就是传感器的对光的敏感程度。)感光度越高,对光的敏感度越高,曝光值也会越高。

c. 感光度的参数和表述:感光度一般使用前缀ISO+参数的方式来表述感光度的数值如:感光度 100可以写成ISO100

d. 感光度常用的数值:ISO50、 ISO100 、ISO 200、ISO400、ISO800、ISO1600、ISO3200、ISO6400 (在光圈快门相同的情况下,感光度每增加一倍,曝光量便会增加一倍。)
  • 曝光量

[Camera]摄像头图像处理及色彩模型_第1张图片

①AV是孔径值:

AV = 2 * log2 (F number) ,F number是镜头的光圈F值,如F5.6,F值就是5.6。

②TV是时间值:

TV = - log2 (exposure time) ,exposure time是曝光时间单位是秒sec。

③BV是被摄景物的亮度:

BV =log2(B/0.3K) , B是景物亮度单位是Cd/cm2。

LV=BV+5。

④SV是感光材料的感光度值:

SV = log2(0.3S), ISO100的S值就是100.

⑤EV是曝光量:

则曝光公式为:

在这里插入图片描述

2. 3A(AWB,AE,AF)

2.1 AE(Auto Exposure)自动曝光

2.1.1 AE算法思想和曝光量公式

(1)AE的基本概念:Auto Exposure即自动曝光,是相机根据外界光线的强弱自动调整曝光量和增益,防止曝光过度或者不足的一种机制。

[Camera]摄像头图像处理及色彩模型_第2张图片

可见,AE的输入为当前影像的亮度值Y,输出为sensor的曝光时间和增益,isp增益和镜头光圈(如果镜头光圈可调)。当AE algorithm得到当前帧的亮度后,便会与target Y做比较,然后计算出下一次需要调整的参数,以便让影像的亮度越来越接近target Y,如下所示(target并非一个固定值,而是一个range)。

[Camera]摄像头图像处理及色彩模型_第3张图片

(2)影响曝光的因素:

	AE算法的要求是“快,准,稳”。即要很快的能收敛到target附近,而且亮度要准确,收敛过程要平滑,收敛完成后要稳定。

影响AE算法的因素:图片亮度的统计,AE target,AE table,收敛速度控制。

实际操作中调节的因素有:

  1. 调节曝光时间;
  2. 调节光圈大小;
  3. 调节Sensor的ISO感光度

(3)AE控制模块:

[Camera]摄像头图像处理及色彩模型_第4张图片

(4)调节曝光的方法步骤和算法:

A.读入现在设定值所得到的亮度值;

B.经过AE weight table后得到我们想要计算的亮度;

C.将得到的计算值,趋近我们的期望值(如:135);

D.计算出一组新的设定值;

E.重复以上动作,直到亮度值在我们的期望值收敛范围内(Example : 131~139)。

[Camera]摄像头图像处理及色彩模型_第5张图片

(5)曝光时间的控制:

因为Sensor本身并没有时间的概念,它是通过pixel clock数和pixel clock的频率来表示sensor曝光时间的。为了得到简便的表达方式,就用曝光行数表示曝光时间了。曝光行数=pixel clock数/每条line的pixel数。 只需要知道sensor的pixel clock频率和每行的pixel数(有效pixel+dummy pixel),便可以计算出任何曝光时间,sensor需要曝光多少行。

(6)sensor曝光过程:

​ 如下图过程可见,曝光是逐个像素从上往下进行的,当读到图中红色块时就说上面的五行已经曝光完成了,也说明sensor的曝光时间是5条lines。

[Camera]摄像头图像处理及色彩模型_第6张图片

(7) AE table:

不同的曝光时间和ISO组合方式,表和图示如下:

[Camera]摄像头图像处理及色彩模型_第7张图片

(8)AE 收敛

[Camera]摄像头图像处理及色彩模型_第8张图片

et是曝光时间;agc指sensor的感光度sensorgain即sensor的ISO值;iris是光圈值的大小。

收敛的概念就是无限趋近。

(9)AE中的问题:flicker,过曝、曝光不足、AE peak、AE震荡等。

Flicker:

现象:图像因为sensor曝光时间不是光源频率的整数倍导致图像上出现Banding即明暗相间的条纹。

产生原因:

  • 曝光时间小于1/100秒,且曝光时间处于波峰时,图片亮度比较亮

  • 曝光时间小于1/100秒,且曝光时间处于波谷时,图片亮度比较暗

从能量的角度看,就是当sensor逐像素吸收外界能量成像时,外界能量有时大有时小,像素就有的亮有的暗。因此产生flicker现象。

解决办法:

  • 所以只有曝光时间=光源周期的整数倍的时候,保证每个像素吸收的光能是稳定的。

才可以避免flicker。国内市电,50HZ.

[Camera]摄像头图像处理及色彩模型_第9张图片

AE Peaking:AE的峰值,图像亮度平稳时,突然出现亮度高的画面。

AE震荡:图像亮度忽明忽暗。

2.1.2 测光模式

①平均测光,取画面亮度均值作为曝光依据,画面主体、背景亮度差异大时,容易造成曝光过度或者曝光不足的现象。

[Camera]摄像头图像处理及色彩模型_第10张图片

②中央点测光(Spot Metering),仅测量中央很小范围内景物的亮度作为自动曝光依据,
[Camera]摄像头图像处理及色彩模型_第11张图片

③多点测光(Multi-Spot Metering):简单理解为点测光+记忆装置,拍摄时使被摄体中不同的部位,先后位于取景视场中心进行点测光,照相机内的电子线路将每次的结果记忆下来,并按各点的平均值进行曝光。可兼顾画面不同部分的亮度,精度高,操作麻烦。多点测光适合于拍摄风景、人像等静止不动的物体,不适合拍摄动体

④中央重点测光,是平均测光与点测光方式的折衷形式,中央部分亮度权重较高,边缘权重较低 能同时兼顾被摄主体和四周景物的亮度,因此对被摄主体的测光精度较高,尤其适合于拍摄带风景的人物照片。但对于亮度不均匀或反差太大的场合,容易造成曝光过度或者曝光不足的现象。

⑤局部测光:佳能首创,中央重点加权平均测光和点测光方式的折中,测光区域较点测光大。

[Camera]摄像头图像处理及色彩模型_第12张图片

⑥分区式测光(Multi-Pattern Metering),又称多幅面测光、多模式测光或区域分割式测光,主要原理是将画面分成几个区,先测取每个区的亮度,然后经过综合计算,从而决定每个区域的测光加权比重,给出一个能兼顾各区的曝光值。从理论上讲,分区式测光方式都具有自动逆光补偿能力。
[Camera]摄像头图像处理及色彩模型_第13张图片

2.2 AF(Auto Focus) 自动对焦

2.2.1 光学原理

​ 透镜成像:成像点不一定落在焦平面上面,需要通过调整镜头,使成像点落在焦平面上面,使sensor清晰成像,这个过程就是聚焦过程。
[Camera]摄像头图像处理及色彩模型_第14张图片

2.2.2 AF 基本方法

[Camera]摄像头图像处理及色彩模型_第15张图片

(1)Lens-motion-type AF移动镜头:根据图像的清晰度(一般为边缘信息)或者物距信息,通过AF算法判断对焦情况,从而计算镜头的移动方向和大小,然后驱动电路使镜头移动来改变聚焦位置。

(2)Lens-modification-type AF改变焦距:通过liquid lens或者solid-state electro-optical devices这些可变焦的器件来改变镜头的焦长。

(3)Extended depth of field AF (EDOF)全焦技术:通过光学和数字信号处理技术集合,对光学信息编码,再用计算机信息处理技术解码,使得景深得到扩展,从而实现无运动部件的AF功能。

(4)手机摄像头多使用AF是VCM驱动镜头前后移动的方案。通过给线圈通电流,在永磁体的作用下,使镜头前后移动,同时前后两个弹簧片控制移动位置。

[Camera]摄像头图像处理及色彩模型_第16张图片

2.2.3 摄像头中AF系统示意图

[Camera]摄像头图像处理及色彩模型_第17张图片

这里的AF算法的信息基础有被动式和主动式两类。

采用对比度法,手机摄像头的AF系统架构图如下:

[Camera]摄像头图像处理及色彩模型_第18张图片

2.2.4 AF 算法流程

[Camera]摄像头图像处理及色彩模型_第19张图片
[Camera]摄像头图像处理及色彩模型_第20张图片

2.2.5 AF算法中信息收集方法

  1. 基于镜头与被摄目标之间距离测量的测距方法。

A、三角测量法:由电路控制可动反光镜的转动,当透射光影和反射光影的重合时可以计算距离。

B、红外线测距法:由照相机主动发射红外线作为测距光源,并用红外发光二极管的转动代替可动反光镜的转动。需要一个获得当前照片对比度的设备来量测

  1. 超声波测距法:该方法是根据超声波在摄像机和被摄物之间传播的时间进行测距的
  2. 激光测距法:
  3. 基于调焦屏上成像清晰的聚焦检测方法。

A、对比度法 :手机上通过获得照片的Focus Value (Edge)来判断当前位置的清晰度,通过检测影像的轮廓边缘实现自动调焦的。

B、相位法PDAF。该方法是通过检测像的偏移量实现自动调焦的。

2.2.6 AF算法中图像清晰度评价方法

(1)常用的图像清晰度评价方法:

A、图像统计:

  • 灰度熵法(灵敏度不高) ;

在这里插入图片描述

pi是图像中灰度值为i的像素出现的概率,L为灰度级总数

  • 灰度方差法 – SMD filter ;
  • 直方图法。

B、图像边缘检测:

  • Laplacian算子(中心算子);
  • Sobel算子(highpass filter) (有一个水平方向算子,一个垂直方向算子,取最大值);
  • Robert算子(一个左上右下对角线算子,一个右上左下对角线算子) ;
  • Prewitt算子(有一个水平方向算子,一个垂直方向算子,取最大值)

C、空间域特征 :tenengrad filter(能量梯度函数)。

(2)函数举例

能量梯度函数:

在这里插入图片描述

Laplace算子:

在这里插入图片描述

模数偏差总和SMD(sum-modulus-difference)算 子:

在这里插入图片描述

2.2.7 AF算法中找最佳对焦点的方法

  1. 曲线拟合

[Camera]摄像头图像处理及色彩模型_第21张图片

(1)测得局部最大值peak点(FV):计算当前Step对应的FV值,判断当前FV值是不是在此前连续记录的四个step点FV值中的最大值,是最大值的话,就再判断它是否大于next Step点的FV值。用此方法判断极大值点,若有噪声造成step-FV曲线的微小波动,则通过各波动区域的极大值点对比,以最大值作为局部的MAX点。

(2)拟合曲线获取最佳对焦位置:因为step并不连续,测得Peak点的可能并不是真正最佳的对焦点,此时可通过poly fit曲线拟合的方法来找peak点。对于step-FV曲线采用

y=a*x^2+b*x+c

​ 就可以近似拟合,采用max point点和前、后相邻两个点,共三个点采用最小二乘法拟合抛物线。将抛物线的顶点最为最佳对焦点,反馈给VCM控制电路来驱动Lens移动到最佳对焦位置。

  1. AF Table

    根据不同距离处物体在sensor上成像的边缘信息即FV(Focus Value)值,绘制多条step-FV曲线。图中虚线表示每个物距处,图像认为清晰时可接受的最小FV值,虚线以上FV对应景深范围内物体成像信息。

[Camera]摄像头图像处理及色彩模型_第22张图片

根据上图绘制对应的step-DOF(Depth Of Field)曲线

[Camera]摄像头图像处理及色彩模型_第23张图片

  1. 连续对焦

    连续对焦:连续对焦中并不是找到焦点就停止,而是根据场景的变化不停的找最佳对焦位置,这样就需要判断镜头移动方向,这里也是主要使用爬山算法。

  2. 不同颜色格式对焦

[Camera]摄像头图像处理及色彩模型_第24张图片
[Camera]摄像头图像处理及色彩模型_第25张图片

2.3 AWB(Auto White Balance) 自动白平衡

2.3.1 什么是AWB

不同色温环境下,通过ISP的算法调整,抵消色温引起的偏色,使得拍出来的成像效果接近人眼视觉习惯.

2.3.2 为什么要做AWB

因为camera和人眼存在差异.

  • 对人眼,是主观的,本质上白色的物体,不同色温,反射光线颜色是不一样的,但是经过我们的视觉系统的校正后还是白色的.
  • 对于camera,是客观的,不同色温,反射光线颜色不一致,直接成像就会出现和人眼不一样的效果,也就是色偏.所以需要AWB,这个AWB就是类似于经过我们的视觉系统校正.

2.3.3 AWB算法有那些

1.最大亮度法

2.灰度世界法

3.色域界限法

4.图框区域分割法

5.光源预测法

6.完美反射法

7.动态阈值法

8.模糊逻辑法

2.4 ISP(Image Signal Process)

通常的ISP data patch:
[Camera]摄像头图像处理及色彩模型_第26张图片

(1)BLC(Black Level Correction)/ Black Level Compensate (OBC) :黑电平校正。所谓黑电平就是在DNP下,将曝光时间和增益都调到最小时拍摄图片的亮度值,理想情况下应该是0,但是实际中因为sensor暗电流作用,全黑像素值大于0。(这一个值,在后面可能会受到AWBGain,CCM,Gamma的影响)。

(2)DPC/BPD(Defect Pixel Correction/Bad Pixel Detect):坏点校正/坏点检测。相机中成像坏点一般是白色或者黑色的点,和周围像素点的差异明显。

(3)FPN(Fix Pattern Noise):固定模式噪声。由于CMOS每个感光二极体旁都搭配一个ADC 放大器,如果以百万像素计,那么就需要百万个以上的 ADC 放大器,但是每个像素结构中的光电二极管的尺寸、掺杂浓度、生产过程中的沾污以及MOS场效应管的参数的偏差等都会造成像素输出信号的变化。对于给定的单个像素它是固定的。通常消除固定模式噪声采用“双采样降噪”方法,这是CMOS 感光器件特有的一种降噪方式。在光线较暗的环境下使用时,画面会有明显的噪声,这时通过对景物进行两次不同曝光率和敏感度的采样,然后将两次采样的结果进行综合处理,就可以有效解决低照度下的图像噪声问题。

[Camera]摄像头图像处理及色彩模型_第27张图片

(4)LSC(Lens Shading Correction)/Color Shading :阴影校正。Lens Shading是由于镜片从边缘到中心对入射光线的反射程度不同,造成拍摄均匀亮度的画面,图像从中心到边缘亮度不均匀逐渐变暗。Color Shading是由于Lens从中心到边缘,其R、G、B变暗的速率不一样,总体表现就是Gb/Gr像素值差异较大,两个像素之间有细微纹理。找出shading的distribution,然后用最小的模型来建模将其导入
[Camera]摄像头图像处理及色彩模型_第28张图片

Correction原理:

[Camera]摄像头图像处理及色彩模型_第29张图片

找到中心点后,以中心点为原心,向周围以圆为单位补Gain,离中心点越远,补的越大

(5)Flare offset:光学上称Flare也叫stray light,耀斑补偿。镜片的表面反射或镜筒、反光镜组的内面所引起的反射光,到达底面后造成画面整体或一部份产生了雾蒙,降低了图像的鲜锐度。镜片的镀膜及内面防反射处理的加强,固然可以大幅度地减少光斑,但被摄体的状况并不相同,不可能完全消除。

[Camera]摄像头图像处理及色彩模型_第30张图片

(6)AE(Auto Exposure):自动曝光。

(7)AF(Auto Focus):自动对焦。

(8)AWB(Auto White Balance ):自动白平衡。解决环境光不同色温导致整幅图片偏色的情况。

(9)DM(Demosaicing/Color Filter Array Interpolation/CFA插值):CMOS Sensor出来的RawData是Bayer格式的图像,每个像素只有一个通道的信息。DM是将Bayer格式的图像恢复成每个像素用RGB三通道表示的方式。DM的主要依据是图像在平滑的局部区域,各分量的ratio是相等的。插值算法的好坏会影响图片的细节,如摩尔纹。

[Camera]摄像头图像处理及色彩模型_第31张图片

(10)CCM(Color Correction Matrix/ DSC color calibration):颜色校正矩阵。拍摄color checker24色板,将相机拍摄图片值与色板标准值之间进行对比(RGB颜色空间),得出一组能将拍摄值校正到最接近标准值的3x3矩阵。通过这个矩阵对所有相机拍摄的图片进行颜色校正。

(11)NR(Noise Reduction/Denoise):去噪。采用特定的LPF(Low Pass Filter)对图片进行滤波,滤除图像的噪声成分,而Bilateral filtering即双边滤波器,它是一种保护边缘的平滑滤波器,这样既可以滤除噪声,edge又可以保留下来。

[Camera]摄像头图像处理及色彩模型_第32张图片

(12)EE(Edge Enhancement/Edge Sharpening):锐化,边缘增强。通过滤波器获取图像的高频分量,按照一定的比例将高频部分和原图进行加权求和获取锐化后的图像。

[Camera]摄像头图像处理及色彩模型_第33张图片

(13)DRC/HDR(Dynamic Range Compression/ High-Dynamic Range):宽动态。高动态图像的拍摄出来的结果通常会有,亮部太亮,暗部太暗的问题。DRC是调整图像暗部亮度使之变亮,调整亮部亮度使之变暗,而且保持图像的对比度。

(14)PCA/VDE:Hue,Saturation,Contrast,Brightness调试。单独针对Hue,Saturation,Contrast,Brightness各图像分量进行调节。

(15)Histogram:直方图均衡化。重新分布图片的亮度。使图片的亮度分布更加均匀。

(16)FlashLight Control:闪光灯控制

(17)Cross talk:Optical cross-talk是当主光线进光角度过大,导致光线不能有效地进入本像素的Microlens内,而是进入相邻像素单元或其他无效区域内的现象。
[Camera]摄像头图像处理及色彩模型_第34张图片

Electric cross-talk:相邻单元之间的光生少数载流子通过衬底扩散和漏电相互影响造成相邻单元的现象。
[Camera]摄像头图像处理及色彩模型_第35张图片

上述原因导致结果都是图像在对角线上相邻两个像素的Gr和Gb value差异较大而产生不平滑的纹理状。

(18)Gradation Control(GDC):可能是对图像数据精度进行的操作

(19)Scaler:对图像进行缩放,缩放的过程中采样和插值直接影响图像的细节质量。

(20)Adaptive tone scale:(这个没有办法处理多种场景)进来的影像,根据histogram,可以调节,让其明暗亮度的曲线比较好看。因此,它最重要的就是histogram equalization,其关键是在哪个domain去做。目前我们的做法应该是在L*做histogram,但只做edge的histogram,这样就ok了。

(21)Dynamic Range Compression:就是把暗的地方变亮一些,亮的地方变暗一些。AE的主要目的是避免亮度饱和的pixels,其余exposure的pixel可以通过DRC校准回来。

(22)gamma:所谓伽玛校正就是对图像的伽玛曲线进行编辑,以对图像进行非线性色调编辑的方法,检出图像信号中的深色部分和浅色部分,并使两者比例增大,从而提高图像对比度效果。计算机绘图领域惯以此屏幕输出电压与对应亮度的转换关系曲线,称为伽玛曲线(Gamma Curve)。
[Camera]摄像头图像处理及色彩模型_第36张图片

3. 色彩模型

3.1 色彩模型,色彩空间,色域

色彩模型就是用一定规则来描述(排列)颜色的方法

在一个色彩模型下可以有不同的色彩空间,它们根据排列的条件的不同会有不同的色域(所能表示色彩的范围)和含义,色彩模型只有具体到一种色彩空间上才有实用性。

色域只是指某个对象能表示色彩范围,而不同色彩空间的色域大多是根据色彩空间设计者的具体需求和应用场景,人为决定的。
比如某显示器能显示的色彩范围是 xxx ,就可以设计一个刚好包含包含这个范围的色彩空间。比如用于数字电影的 ACES 系统的色域完全包括并超出了人类可见色域:
[Camera]摄像头图像处理及色彩模型_第37张图片

​ 色彩空间和色彩模型是容易混淆的概念,色彩模型是把色彩按规则排列的模型,而色彩空间是其在一定条件下排列的结果,在一个色彩模型下可以有不同的色彩空间,它们根据排列的条件的不同会有不同的色域(所能表示色彩的范围)和含义,色彩模型只有具体到一种色彩空间上才有实用性。Adobe RGB、sRGB、Apple RGB 就是同在 RGB 色彩模型下的不同色彩空间。

3.2 常见色彩模型

1.RGB

[Camera]摄像头图像处理及色彩模型_第38张图片
[Camera]摄像头图像处理及色彩模型_第39张图片

[Camera]摄像头图像处理及色彩模型_第40张图片

2.YUV,YCbCr,YIQ

YUV 是一种目的为把颜色的视觉亮度分离来建立的色彩空间,Y (Luminance) 代表颜色的视觉亮度,U、V 则是剩余的色彩分量。
​ 与 HSB、HSL 的亮度或明度不同,视觉亮度代表的是颜色在人实际感受的亮度,之所以不同是因为不同色相的颜色的视觉亮度是不同的,比如纯绿色和纯蓝色,HSB 和 HSL 的模型里他们的亮度是一致的,但是在人眼中纯绿色明显要亮很多。

​ 一般的 YUV 模型中红绿蓝的视觉亮度比是:0.299:0.587:0.114

​ YUV 模型是在 1938 年法国工程师 Georges Valensi 为彩色电视制定的模型,为的是在彩色电视信号传输中用 Y 视觉亮度通道能与黑白电视共用一个信号通道,达到既向下兼容黑白电视信号,又节约信号带宽的目的。

	**YCbCr** 通常被当做 YUV 的另一种形式,相比 YUV, Cb 和 Cr 通道分别更向红、蓝偏移,而且通常进行压缩。YCbCr 常用在图像压缩领域,JPEG 图片内部的色彩空间就使用 YCbCr 模型。

​ YIQ 是另一种视觉亮度拆分模型,与 YUV 很相似,是 NTSC 彩色电视的标准,国内不太常见,因为国内用的是 PAL 标准,PAL 标准使用的是 YUV。

[Camera]摄像头图像处理及色彩模型_第41张图片

3.CMY,CMYK

​ 印刷色彩模式。C是青色Cyan、M是品红色Magenta、Y是黄色 Yellow,而K是Black最后一个字母。印刷色大多是根据这CMY三种颜色的油墨按照不同比例调出的。

​ CMY 是与 RGB 相对应的颜色,青、洋红、黄分别是红、绿、蓝的补色,也就是说颜色中青色成分越多代表红色成分越少,洋红、黄与蓝、绿也是这个关系,CMY 实际上相相当于在 RGB 都为 100% 的基础上减少颜色,比如 20%的 C 相当于 100% – 20% 的蓝。这就是根据反射光的减色原理制度的模型,用于颜料。

​ 在现实中由于颜料的纯度达不到理想的纯度,所以用 CMY 混合无色彩的灰、黑是很困难的,所以就增加了一个专门的黑色通道:K,(之所以不用 B (Black)来表示黑是为了不与蓝色(Bule)混淆),印刷界使用的色彩模型就 CMYK,所以它又被称为 印刷四分色模型。

[Camera]摄像头图像处理及色彩模型_第42张图片

4.HSB/HSV,HSL

[Camera]摄像头图像处理及色彩模型_第43张图片

HSB 与 HSL 是很相似的 2 个色彩空间,都是把色相与饱和度、亮度分离,不同的是 HSB 和 HSL 对亮度、饱和度拆分不同, HSB 的 B 明度(Brightness)是从黑色到色相颜色,而 HSL 的 L 亮度(Lightness)是从最暗到色相颜色再到白色,这意味着 HSL 取最大亮度时不管饱和度和色相如何都是白色,而 HSB 最大明度时是色相颜色,要达到白色还需要饱和度最小。

也就是说 HSB 的饱和度代表颜色远离白的程度,明度代表颜色远离黑的程度。而 HSL 的饱和度是颜色远离灰色的程度,亮度则代表了颜色在最暗到最亮之间的位置。
HSB 和 HSL 那种更方便一直是一场争论,PhotoShop 中拾色器使用的是 HSL 模型,而“色相\饱和度”命令用的是 HSB 模型,在 W3C 制定的网页标准中支持了 HSL 。

另外,HSL 实际上视觉亮度分布也很不均匀(同亮度值的颜色看起来实际亮度可能相差很大),所以有 HUSL 等对 HSL 改进的模型,它们视觉亮度分布更加均衡,对人类选择色彩更加直观(同亮度值颜色看起来亮度更加相等),不过由于计算更加复杂,并没有被广泛使用。

  1. HWB
  2. photaYCC
  3. Lab

3.3 色彩空间

RGB模型色彩空间:

sRGB

Adobe RGB

Apple RGB

Prophoto RGB

ScRGB

CMYK模型色彩空间

Japan color 2001coated

US web coated(SWOP)

4. 图像格式及转换

4.1 常见图像格式

[Camera]摄像头图像处理及色彩模型_第44张图片

详情参考

4.2 RGB,YUV颜色编码

4.2.1 RGB颜色编码

​ RGB 三个字母分别代表了 红(Red)、绿(Green)、蓝(Blue),这三种颜色称为 三原色,将它们以不同的比例相加,可以产生多种多样的颜色。

​ 在图像显示中,一张 1280 * 720 大小的图片,就代表着它有 1280 * 720 个像素点。其中每一个像素点的颜色显示都采用 RGB 编码方法,将 RGB 分别取不同的值,就会展示不同的颜色。

[Camera]摄像头图像处理及色彩模型_第45张图片

​ RGB 图像中,每个像素点都有红、绿、蓝三个原色,其中每种原色都占用 8 bit,也就是一个字节,那么一个像素点也就占用 24 bit,也就是三个字节。一张 1280 * 720 大小的图片,就占用 1280 * 720 * 3 / 1024 / 1024 = 2.63 MB 存储空间。

4.2.2 YUV 颜色编码

​ YUV 颜色编码采用的是 明亮度色度 来指定像素的颜色。其中,Y 表示明亮度(Luminance、Luma),而 U 和 V 表示色度(Chrominance、Chroma)。而色度又定义了颜色的两个方面:色调和饱和度。使用 YUV 颜色编码表示一幅图像,它应该下面这样的:

[Camera]摄像头图像处理及色彩模型_第46张图片

​ 和 RGB 表示图像类似,每个像素点都包含 Y、U、V 分量。但是它的 Y 和 UV 分量是可以分离的,如果没有 UV 分量一样可以显示完整的图像,只不过是黑白的。

​ 对于 YUV 图像来说,并不是每个像素点都需要包含了 Y、U、V 三个分量,根据不同的采样格式,可以每个 Y 分量都对应自己的 UV 分量,也可以几个 Y 分量共用 UV 分量。

4.3 RGB 到YUV转换

​ 对于图像显示器来说,它是通过 RGB 模型来显示图像的,而在传输图像数据时又是使用 YUV 模型,这是因为 YUV 模型可以节省带宽。因此就需要采集图像时将 RGB 模型转换到 YUV 模型,显示时再将 YUV 模型转换为 RGB 模型。

​ RGB 到 YUV 的转换,就是将图像所有像素点的 R、G、B 分量转换到 Y、U、V 分量。

有如下公式进行转换:
[Camera]摄像头图像处理及色彩模型_第47张图片

​ 此时的转换结束后,每个像素点都有完整的 Y、U、V 分量。而之前提到 Y 和 UV 分量是可以分离的,接下来通过不同的采样方式,可以将图像的 Y、U、V 分量重新组合。

4.4 YUV采样格式

YUV 图像的主流采样方式有如下三种:

  • YUV 4:4:4 采样
  • YUV 4:2:2 采样
  • YUV 4:2:0 采样

4.4.1 YUV 4:4:4采样

​ YUV 4:4:4 采样,意味着 Y、U、V 三个分量的采样比例相同,因此在生成的图像里,每个像素的三个分量信息完整,都是 8 bit,也就是一个字节。

如下图所示:

[Camera]摄像头图像处理及色彩模型_第48张图片

其中,Y 分量用叉表示,UV 分量用圆圈表示。

举个例子 :

假如图像像素为:[Y0 U0 V0]、[Y1 U1 V1]、[Y2 U2 V2]、[Y3 U3 V3]

那么采样的码流为:Y0 U0 V0 Y1 U1 V1 Y2 U2 V2 Y3 U3 V3 

最后映射出的像素点依旧为 [Y0 U0 V0]、[Y1 U1 V1]、[Y2 U2 V2]、[Y3 U3 V3] 
	可以看到这种采样方式的图像和 RGB 颜色模型的图像大小是一样,并没有达到节省带宽的目的,当将 RGB 图像转换为 YUV 图像时,也是先转换为 YUV 4:4:4 采样的图像。

4.4.2 YUV 4:2:2采样

	YUV 4:2:2 采样,意味着 UV 分量是 Y 分量采样的一半,Y 分量和 UV 分量按照 2 : 1 的比例采样。如果水平方向有 10 个像素点,那么采样了 10 个 Y 分量,而只采样了 5 个 UV 分量。

如下图所示:

[Camera]摄像头图像处理及色彩模型_第49张图片

其中,Y 分量用叉表示,UV 分量用圆圈表示。

 举个例子 :
  
 假如图像像素为:[Y0 U0 V0]、[Y1 U1 V1]、[Y2 U2 V2]、[Y3 U3 V3]

 那么采样的码流为:Y0 U0 Y1 V1 Y2 U2 Y3 V3 

 其中,每采样过一个像素点,都会采样其 Y 分量,而 U、V 分量就会间隔一个采集一个。

 最后映射出的像素点为 [Y0 U0 V1]、[Y1 U0 V1]、[Y2 U2 V3]、[Y3 U2 V3]

采样的码流映射为像素点,还是要满足每个像素点有 Y、U、V 三个分量。但是可以看到,第一和第二像素点公用了 U0、V1 分量,第三和第四个像素点公用了 U2、V3 分量,这样就节省了图像空间。

一张 1280 * 720 大小的图片,在 YUV 4:2:2 采样时的大小为:

(1280 * 720 * 8 + 1280 * 720 * 0.5 * 8 * 2)/ 8 / 1024 / 1024 = 1.76 MB 。

可以看到 YUV 4:2:2 采样的图像比 RGB 模型图像节省了三分之一的存储空间,在传输时占用的带宽也会随之减少。

4.4.3 YUV 4:2:0采样

​ YUV 4:2:0 采样,并不是指只采样 U 分量而不采样 V 分量。而是指,在每一行扫描时,只扫描一种色度分量(U 或者 V),和 Y 分量按照 2 : 1 的方式采样。比如,第一行扫描时,YU 按照 2 : 1 的方式采样,那么第二行扫描时,YV 分量按照 2:1 的方式采样。对于每个色度分量来说,它的水平方向和竖直方向的采样和 Y 分量相比都是 2:1 。

如下图所示:

[Camera]摄像头图像处理及色彩模型_第50张图片

其中,Y 分量用叉表示,UV 分量用圆圈表示。

假设第一行扫描了 U 分量,第二行扫描了 V 分量,那么需要扫描两行才能够组成完整的 UV 分量

举个例子 :
 
假设图像像素为:
 
[Y0 U0 V0]、[Y1 U1 V1]、 [Y2 U2 V2]、 [Y3 U3 V3]
[Y5 U5 V5]、[Y6 U6 V6]、 [Y7 U7 V7] 、[Y8 U8 V8]
 
那么采样的码流为:Y0 U0 Y1 Y2 U2 Y3 Y5 V5 Y6 Y7 V7 Y8
 
其中,每采样过一个像素点,都会采样其 Y 分量,而 U、V 分量就会间隔一行按照 2 : 1 进行采样。
 
最后映射出的像素点为:

[Y0 U0 V5]、[Y1 U0 V5]、[Y2 U2 V7]、[Y3 U2 V7]
[Y5 U0 V5]、[Y6 U0 V5]、[Y7 U2 V7]、[Y8 U2 V7]

从映射出的像素点中可以看到,四个 Y 分量是共用了一套 UV 分量,而且是按照 2*2 的小方格的形式分布的,相比 YUV 4:2:2 采样中两个 Y 分量共用一套 UV 分量,这样更能够节省空间。

一张 1280 * 720 大小的图片,在 YUV 4:2:0 采样时的大小为:

(1280 * 720 * 8 + 1280 * 720 * 0.25 * 8 * 2)/ 8 / 1024 / 1024 = 1.32 MB 。

可以看到 YUV 4:2:0 采样的图像比 RGB 模型图像节省了一半的存储空间,因此它也是比较主流的采样方式。

4.5 YUV存储格式

YUV 的存储格式,有两种:

  • planar 平面格式
    • 指先连续存储所有像素点的 Y 分量,然后存储 U 分量,最后是 V 分量。
  • packed 打包模式
    • 指每个像素点的 Y、U、V 分量是连续交替存储的。

根据采样方式和存储格式的不同,就有了多种 YUV 格式。这些格式主要是基于 YUV 4:2:2 和 YUV 4:2:0 采样。

常见的基于 YUV 4:2:2 采样的格式如下表:

YUV 4:2:2 采样
YUYV 格式
UYVY 格式
YUV 422P 格式

常见的基于 YUV 4:2:0 采样的格式如下表:

YUV 4:2:0 采样 YUV 4:2:0 采样
YUV 420P 类型 YV12 格式 YU12 格式
YUV 420SP 类型 NV12 格式 NV21 格式

更多的 YUV 格式信息参考这里:YUV pixel formats

4.5.1 基于YUV 4:2:2采样的格式

YUV 4:2:2 采样规定了 Y 和 UV 分量按照 2: 1 的比例采样,两个 Y 分量公用一组 UV 分量。

1.YUYV格式

YUYV 格式是采用打包格式进行存储的,指每个像素点都采用 Y 分量,但是每隔一个像素采样它的 UV 分量,排列顺序如下:

Y0 UO Y1 V0 Y2 U2 Y3 V2

Y0 和 Y1 公用 U0 V0 分量,Y2 和 Y3 公用 U2 V2 分量….

[Camera]摄像头图像处理及色彩模型_第51张图片

2.UYVY格式

UYVY 格式也是采用打包格式进行存储,它的顺序和 YUYV 相反,先采用 U 分量再采样 Y 分量,排列顺序如下:

U0 Y0 V0 Y1 U2 Y2 V2 Y3

Y0 和 Y1 公用 U0 V0 分量,Y2 和 Y3 公用 U2 V2 分量….

根据 UV 和 Y 的顺序还有其他格式,比如,YVYU 格式,VYUY 格式等等,原理大致一样了。

在这里插入图片描述

3.YUV 422P格式

​ YUV 422P 格式,又叫做 I422,采用的是平面格式进行存储,先存储所有的 Y 分量,再存储所有的 U 分量,再存储所有的 V 分量。

4.5.2 基于YUV 4:2:0 采样的格式

1.分类

基于 YUV 4:2:0 采样的格式主要有 YUV 420P 和 YUV 420SP 两种类型,每个类型又对应其他具体格式。

  • YUV 420P 类型
    • YU12 格式
    • YV12 格式
  • YUV 420SP 类型
    • NV12 格式
    • NV21 格式

YUV 420P 和 YUV 420SP 都是基于 Planar 平面模式 进行存储的,先存储所有的 Y 分量后, YUV420P 类型就会先存储所有的 U 分量或者 V 分量,而 YUV420SP 则是按照 UV 或者 VU 的交替顺序进行存储了,具体查看看下图:

YUV420SP 的格式:

[Camera]摄像头图像处理及色彩模型_第52张图片

YUV420P 的格式:

[Camera]摄像头图像处理及色彩模型_第53张图片

2.YU12 和 YV12 格式

YU12 和 YV12 格式都属于 YUV 420P 类型,即先存储 Y 分量,再存储 U、V 分量,区别在于:YU12 是先 Y 再 U 后 V,而 YV12 是先 Y 再 V 后 U 。

YV 12 的存储格式如下图所示:
[Camera]摄像头图像处理及色彩模型_第54张图片

YU 12 又称作 I420 格式,它的存储格式就是把 V 和 U 反过来了。

3.NV12 和 NV21 格式

NV12 和 NV21 格式都属于 YUV420SP 类型。它也是先存储了 Y 分量,但接下来并不是再存储所有的 U 或者 V 分量,而是把 UV 分量交替连续存储。

NV12 是 IOS 中有的模式,它的存储顺序是先存 Y 分量,再 UV 进行交替存储。

[Camera]摄像头图像处理及色彩模型_第55张图片

NV21 是 安卓 中有的模式,它的存储顺序是先存 Y 分量,在 VU 交替存储。


个人博客:https://www.letcos.top/

你可能感兴趣的:(android,模块分类)