传统胶片与数码相机的实质与人眼分别

总是说什么色阶连续,颜色连贯,照片多通透,有那么神么?!

其实绝大多数都是ps的功劳。其中色阶一项占了很大一块技术。 光线其实是没有色阶这一概念的,因为光线的亮度本身就是连续的。
但是当我们进行摄影,特别是数码摄影,我们实际上是将现场的光线进行采样(sampling),CMOS技术参数中的颜色深度,即说的多少位:

8bit,12bit或14bit,指的就是采样精度,而采样之后的图像亮度,肯定就已经不是连续的了,以数学的方式说明,即是将采样空间里的无数个点,变成有限个点,以此来节省样本数据量。(题外话,这也是为什么说任何东西经过数字化之后就丢失了绝大部分细节的原因,也正是因为数字化丢失了巨量的细节,因此数码的处理速度远远高于模拟的处理数度)。
那么,为什么丢失了绝大部分细节的数字化处理方式,仍然能够得到流行?除了处理速度快意外,主要是因为人类肉体本身的弱点决定的。

 

其一,即使我们观察自然光线,巨量的信息向我们铺面而来,但注意,人类肉眼的分辨率是有极限的,人类大脑处理的数度也是有极限的,因此我们在观察的过程中,本身就进行了取样,亦即是说,丢掉细节。

其二,即使我们将自然光线一丝不漏地保存下来,然是当我们进行输出的时候,不论是在显示器上输出,还是在打印机上进行输出,现时现代的技术决定了,输出阶段也必然丢失大量的细节。 那么,按照木桶原理,最终的效果是取决于最短的那块木板,如果摄影技术最后总是要人来看的话,那么无论如何我们也无法得到完整的细节,从成本的角度而言,技术发展的高度只要超过人眼就好了,如此一来,对肉眼来说,取样和现场其实毫无分别。

 

 按照现时的商用电子感光技术,已经能做到14bit的取样率,而我们绝大部分的显示器输出都是在8bit以下的(32位色),因此,照道理来讲,我们在照片上应该很难分辨照片亮度的不正常才对。 但实际上,有几点限制了电子感光片发挥最大功效:

1,摄影镜头。所有的光线都是经过镜头然后汇聚到感光片上,在镜头上不可避免会损失一些光线,造成的影响是,某些颜色在某些亮度上无法被底片感光。
2,CMOS的滤光片,低通滤镜,以及微透镜,这些除了本身的功能(比如低通滤镜取出伪色)外还会损害现场颜色的纯净度的。
3,CMOS的质量也会造成某些部分的亮度与现场不符。 总之这些工艺和技术原因污染了采样之前的光线。 本来有一些光线的,在底片上可能却无法感光,或者是本来有某些颜色的,在底片上却无法感光。诸如此类的污染。因此最后的成像实际上是有了一种“色阶压缩”的效果,即黑色被记录成深灰色,白色被记录成浅灰色,RAW原片往往看起来发灰,就是这个原因。

 

由于色阶压缩的影响,实际上,标称14bit的CMOS,往往可能只能利用到10bit以下的色阶。 那么在进行后期显像处理时,往往会进行反向操作,即色阶扩张。
在Photoshop里面有一个功能大家一定要多使用,即“Auto Level”,这个功能将被压缩了的色阶重新插值扩张到完整的亮度域,因此经过auto level之后,照片看起来会通透得多。
既然是插值,那么肯定会不准。 已实际环境做例子,现场的光线从0线性增加到255,被CMOS记录了6个点,即30,70,110,150,190,230,那么原片看起来肯定是发灰的,
因为已经丢弃了0-29和231-255的色阶。那么再经过auto level扩展到0-255,6个点的色阶变成了0,51,102,154,205,255。 
这时照片看起来就通透多了。但大家注意,6个点之间的亮度差异变大了。 因此原来我们肉眼看起来觉得连续的亮暗过渡,现在也许就不再那么连续了。
因此看到发差色阶对于照片的重要性了吧。不行你找个没后期的raw文件看看,灰不灰。

你可能感兴趣的:(传统胶片与数码相机的实质与人眼分别)