非常难得的 CMOS sensor 工作原理的深入技术科普

关于大像素和高像素(高像素密度)的争论从D70和350D时代就开始了,到了D700和5D2的时代不仅没有争论出正确的结论,反而得出了一个似是而非的结果:高像素好。包括一些号称专业的网站在D3s发布后认为D3s没有大的改进,其理由就是像素没有提高。

特别是某些佳能的FANS更是坚信高像素比大像素好,因为佳能单反相机的像素数量在D3X出现之前一直领先于尼康的单反相机。起先是350D的800万像素对D70的600万像素,现在是5D2的2100万像素对D700的1200万像素,因此,佳能的技术要领先尼康,高像素传感器要比大像素传感器的性能好。

他们却没有想到,如果传感器的尺寸相同或相近,像素的数量越多,表示像素的密度越高。因此,350D的像素密度高于D70,5D2的像素密度也高于D700。以为5D2的像素比D700多就说明5D2比D700性能优异、技术先进实际上就等于是认为像素的密度越高、传感器的性能就越好,技术也就越先进。

然而,他们忽视的一个事实是,如果传感器的像素密度高就代表性能先进、技术领先的话,那么早在D2X时代尼康的技术就领先佳能了,因为D2X的像素密度不仅远超过同代的1DsMKII和5D,而且超过现在的D3X,更不用说1DsMKIII和5D2了。他们也无法解释的另一个事实是,目前像素密度最高的是一些小DC,那么是否可以据此认为这些小DC的传感器就代表了目前的最高技术水平?所以,仅看像素密度这一项指标是无法评价传感器性能的,更无法证明厂家的技术水平高低。

如果说在D3出现之前,厂家发布的数据只有像素的数量才是衡量相同画幅数码相机性能的唯一指标的话,那么,D3的出现彻底改变了这一点。不仅像素的数量和密度是衡量性能的指标,能够设置到多高ISO也成了衡量数码相机的重要指标。D3在市场上的成功使得佳能也开始在提高ISO上下功夫,从而使得技术的竞争不但是像素数量的提高,还必须包括ISO的提高。而ISO的提高与像素数量的提高在同一时期、同样技术水平、同样画幅尺寸的情况下从原理上来讲是不可兼得的。要提高ISO,必须要加大像素面积,而在同样画幅下增加像素面积势必降低像素的数量,反之亦然。厂家必须要根据自己对市场的判断来决定推向市场的产品是大像素高ISO呢,还是高像素低ISO?

对消费者来说,厂家推出侧重点不同的产品是好事,可以根据自己的情况和需要来作出选择。比如主要以灯光摄影为主的影室或摄影棚的用户,D3X和1DsMKIII是不二之选,其分辨率很高且在低ISO时的宽容度也很好。而记者或类似的用户可以考虑D3s或1DMKIV,可以在高ISO下获得满意的图像。选择D700还是5D2也类似,可以或喜欢在光线比较好、有要出高分辨率图像的用户,比如人像摄影和光线好才拍片的用户可以选择5D2,而纪实摄影(包括生活照)和喜欢暗光摄影的用户选D700,并不是一味的要追求高像素。同样画幅的高像素传感器和大像素传感器其实是各有优劣,取决于拍摄者的用途而已

开贴的目的是想从原理上来探讨这一点。因为原理是通用的。对任何厂家都适用,就像牛顿定律一样,无论是丰田生产的汽车还是本田生产的汽车都不可能违背。而科学原理是客观的,不像评价照片的好坏那样要通过评选来决定。所以,本贴只限于从原理上来探讨大像素与高像素的优劣,不讨论其它问题。既然是从科学原理上来讨论,那么就不是搞调查,更不是搞评选,不以人多为胜,而是以是否符合科学原理和逻辑,能不能经得起事实和实践的验证为依据。所以,希望发表观点的同学本着上述原则来展开讨论。


为了避免门户之争,以尼康自家的D3和D3x为例来说明这个问题。

我们知道,D3的有效像素为1210万,而D3X是2450万,后者的像素为前者的两倍多。D3的最大分辨率为4,256x2,832,D3X为6,048x4,032,取水平方向计算为(6048-4256)/4256X100 = 42%,从分辨率这项指标看D3x比D3要高出42%。所以,高像素传感器的优势是分辨率得到提升,但像素增加为原来的4倍才能使分辨率提升一倍。

D3的像素数量虽然比D3X少了不止一倍,但单个像素的面积却大了不止一倍。特别是CMOS器件可感光的面积增加的数量更大,因为构成每个像素的CMOS器件都会有一些面积被放大器和转换电路占据(这是CMOS与CCD器件的区别之一),像素越多,电路部分占用的面积就越多。在同样面积下,像素少的传感器其每个像素的感光面积要比像素多的大。所以,D3每个像素的感光面积要比D3X大一倍以上。每个像素的感光面积大意味着其能够接收更多的光线,就像一扇面积大的窗户比面积小的窗户能够让我们的屋子更亮堂一样。由于只有接收到的信号强度达到某一个阈值时才有可能驱动模数转换电路工作,对每个像素来说,如果接收到的光子数量低于某个值就如同没有接收到一样,根本就不会产生输出信号。显然,由于感光面积大的像素比感光面积小的像素能够捕获到更多的光子,因此,在同样照度下,感光面积大的像素比感光面积小的像素更容易使得模数转换电路产生输出或者说更灵敏。

还是以D3和D3X为例。假定需要两个光子才能使模数转换电路产生一个最小的输出,即使得一位二进制数从0变为1。在恰好可在一个D3像素或两个D3x像素的感光面积上产生两个光子的照度下,由于D3的每个像素都接收到两个光子,在模数转换电路上可以产生一个数字信号1。而D3X的每个像素只接收到一个光子,达不到模数转换电路产生输出的阈值没有输出,在模数转换电路上的数字信号为0。而对数值为0的信号无论是放大还是降噪都是没有意义的,0乘以或除以任何数还是0,换句话说,如果一开始就没能获取信息,无论如何变换都不可能将信息生造出来。因此,在这种情况下,D3的大像素比D3X的高像素有利,因为连信息都不能获得再高的分辨率又有什么用呢?所以,官方给出的可用ISO为D3是ISO 200-6400,而D3X的仅为ISO 100-1600。体现传感器灵敏度的高ISO数值D3比D3X高了两档(6400:1600),体现宽容度的ISO范围D3比D3X多了一档(200-6400:100-1600)。能够用较高的ISO拍摄的好处是很多的,除了能拍摄暗光场景外,还可通过提升快门速度来叫减少手震的影响,从而提高成功率。

所以,高像素和大像素传感器各有各的用途,不存在谁优谁劣的问题,关键在于每个人的选择。

在同样面积、采用同样器件(CMOS)的情况下,象素的多少与像素面积的大小成反比,而像素面积的大小与传感器的灵敏度和宽容度正相关,这是一个基本的物理规律。

1DsMKIII的有效像素为2110万,分辨率5616×3744,官方给出的ISO范围为ISO 100–3200,比D3x高一档,低于D3一档,还是比较靠谱的。5D2的像素数量以及分辨率与1DsMKII一样(据说用的也是同一块传感器),ISO却标定为ISO 100–6400就不那么靠谱了。从实际拍摄的表现看,5D2在高ISO暗光情况下明显不如D3和D700,所以只能认为其ISO标定的水份较大。

通过软件采用合并像素的方式来提升高像素相机的宽容度在严格意义上来说是不可能的,因为对使用高像素传感器的相机来说,在获得高分率信息的同时实际上损失了暗部信息,即上面说过的,那些大像素能够记录的信息小像素无法记录。既然没有记录,就不可能生造出来,无论怎么变,还是原来那些信息。反之,也无法从大像素中记录的信息来获得小像素的分辨率,因为缺少如何将一个象素记录的数值按照拍摄时的情况分解到相邻的N个象素上的信息。但有可能通过运算在某种程度上通过软件来合并像素,就如同通过插值运算来提高分辨率一样,而合并或插值的结果只是对真实情况的某种近似,毕竟原始信息已经丢失。
=============================================

在讨论中发现对数码相机涉及到的一些基本概念和原理存在着很大的分歧,其中有一些是需要探讨后才能搞清楚的,另外一些是有定论的,还有一些是有定论但经常容易混淆的。而搞清楚这些概念和原理不但对本主题的讨论有帮助,而且对如何更好的使用数码相机拍片也是有意义的。所以,将涉及到的概念和原理分成两个部分,一部分是有定论的,一部分是待探讨的。当然,这里说的有定论的是指业界普遍认可的,可在任何一本有关专业书中找到,我引用的定义不是我的杜撰而是来自于这些权威文献中,就不一一注明出处。只会对一些有定论但一般人涉及较少或容易引起混淆的概念和原理注明出处。而讨论清楚的概念和原理会从正在讨论的原理和概念中移到有定论的概念和原理中,作为继续讨论的出发点。

在待探讨的概念和原理中,有一些是我认为有问题或存在歧义的观点,还有一些是我根据有定论的概念和原理推理出来的。因此,存在着我对有定论的原理和概念理解有误或者逻辑推理有问题的可能,欢迎参与讨论的专家和同学指出。如果确实是我错了,我会欣然接受并向指出错误的专家和同学表示由衷的感谢。

如果我的观点没有被推翻,那么只能认为在被推翻之前都是正确的。如果有同学或其他人士同意我的观点并加以引用,请注明出处,说清楚是我的观点而不是你的观点。这一点我先声明一下,以免我认为你在剽窃我的观点。谢谢!

有定论的概念和原理
-----------------------------------
ISO、曝光指数(exposure index)和感光度(sensitivity)

ISO是国际标准化组织的缩写。在胶片相机上表示胶片的感光速度(Film speed),在数码相机上表示ISO感光速度(ISO speed),ISO的设置也被称为曝光指数(EI)。

实际上ISO感光速度并不是由ISO所制定的标准单位。ISO规定,感光速度以美国标准ASA单位及德国标准Din单位两者为主,简称“ISO : ASA / Din ”。但大部份厂商都只写数字,没写前面数字是以ASA为单位,后面也没写是以DIN为单位,就成了“ISO 100/21(度)”。常用的感光速度是ASA 100度/ Din 21度,但人们常常习惯只说前面的数字,所以往后误称为ISO 100。因此,现在常见的ISO xxxx 其实是指 ASA xxxx。

按照ISO 12232:2006的规定,曝光指数(EI)的标定取决于传感器的感光度,传感器噪声以及由此产生的图象。

数码相机的ISO标定是由数码相机的生产厂家按国际标准ISO 12232:2006中提供的5种(由厂家选择)技术来对数码相机在不同感光度(sensitivity)下的曝光指数进行测定。这5种技术中的三种来自于ISO 12232:1998。2006版新增加的两种测定方法主要是对JPEG输出文件。标准指定测量的是整个数码相机而不是传感器的感光度。

ISO12232:1998指定了基于饱和的ISO速度Ssat和基于噪声的ISO速度Snoise10和Snoise40。

基于饱和的ISO速度定义为Ssat = 78/Hsat,其中Hsat是数码相机的输出在被截断或出现光晕前的最大可能曝光量。

基于噪声的ISO速度定义为在单独的像素中产生给定信噪比的曝光量。使用两种比值,即40:1(“极好图像质量”)和10:1(“可接受图像质量”)比值。

除了上述ISO速度外,标准还定义了标准输出感光度(SOS)。在输出图像的曝光量与数字象素值相关。其被定义为:Ssos = 10/Hsos。其中Hsos是在8位像素中产生数值118(这个数值是图像按sRGB或 gamma = 2.2时,饱和值的18%)对应的曝光量。

标准指定了应该怎样报告数码相机的速度。如果基于噪声的速度(40:1)比基于饱和的速度高,应该将基于噪声的速度舍入降至标准值(例如 200、250、320或400)来报告。理由是基于饱和的速度对应的曝光量较低,将会导致图像欠曝。此外,可规定曝光宽容度,范围从基于饱和的速度到10:1基于噪声的速度,即Ssat到S10:1之间的范围。如果基于噪声的速度(40:1)比基于饱和的速度低或因为高噪声而不能定义,指定基于饱和的速度并舍入降至标准值,因为使用基于噪声的速度将导致图像过曝。

例如,某型数码相机的传感器有下列特性:S40:1 = 107, S10:1 = 1688并且Ssat = 49。按照标准,此型数码相机应该报告其感光度为:
ISO 100(日光)
ISO 速度 宽容度 50-1600
ISO 100(SOS,日光)

用户可以控制SOS速度。对某种有较高噪声的传感器,其特性或许是S40:1=40,S10:1 = 800, Ssat = 200,在这种情况下,此数码相机应该报告为ISO 200(日光)

尽管定义了标准的细节,一般的数码相机并没有清楚的指示用户ISO设置是基于噪声的速度、基于饱和的速度或是指定输出感光度,有些甚至为了市场目的虚标数值。
http://en.wikipedia.org/wiki/Film_speed

从严格意义上来说,ISO速度、曝光指数和感光度是三个不同的概念。曝光指数是指具体ISO速度的值或设置,比如ISO 100。感光度是感光元件(胶片或光电传感器)在对应曝光指数时的感光能力。而ISO标定就是测定感光元件在不同感光度下所对应的曝光指数。在ISO标定后,曝光指数即可视为感光度。所以,一般也称数码相机的ISO速度为感光度。

但厂家标定ISO速度时一般是对某一个具体的型号而不是对此型号的每一台相机。因此,具体到每台相机其实际感光度与标定的曝光指数可能会有差距,用户可以自己校准曝光指数。

光通量和光强

由于人眼对不同波长的电磁波具有不同的灵敏度,我们不能直接用光源的辐射功率或辐射通量来衡量光能量,必须采用以人眼对光的感觉量为基准的单位----光通量来衡量。光通量的用符号Φ表示,单位为流明(lm)。

表示光强的概念和单位有两个,一个是发光强度(cd),另一个是照度(lux)。

发光强度的单位为坎德拉,符号为cd,它表示光源在某球面度立体角(该物体表面对点光源形成的角)内发射出1lm的光通量。 1cd=1lm/1sr (sr为立体角的球面度单位)。

照度是反映光照强度的一种单位,其物理意义是照射到单位面积上的光通量,照度的单位是每平方米的流明(lm)数,也叫做勒克斯(lux),即:1lux=1lm/m2。

三者之间的关系为:1lux=1lm/平方米=1cd×sr/平方米

由于摄影一般不是拍光源,所以摄影界一般用照度作为光强单位。

一般情况下:
夏日阳光下为100000LUX;
阴天室外为10000LUX;
室内日光灯为100LUX;
距60W台灯60cm桌面为300LUX;
电视台演播室为1000LUX;
黄昏室内为10LUX;
夜间路灯为0.1LUX;
烛光(20cm远处)10~15LUX。

曝光值(exposure value,EV)和曝光量(photometric exposure)

曝光值是一个以2为底的对数刻度系统。

150021_1263987758.jpg

其中N是光圈(f值);t是曝光时间(快门),单位秒。

曝光值0(EV0)对应于曝光时间为1秒而光圈为f/1.0的组合或其等效组合。如果曝光值已经确定了下来,那么就可以依据它来选择曝光时间和光圈的组合。

曝光值每增加1将改变一挡曝光,也就是将曝光量减半,比如将曝光时间或光圈面积减半。这一点可能会引起迷惑。之所以是减少而不是增加,是因为曝光值反映的是相机拍摄参数的设置,而非底片的照度(这一点将在下面提到)。曝光值的增加对应于更快的快门速度和更大的f值。因此,明亮的环境或是较高的感光度(IS0)应当对应于较大的曝光值。

“曝光值”其实是一个被误用的名词,因为它反映的是拍摄参数的组合,而不是曝光量(photometric exposure)。曝光量的定义是:

150021_1263987517.jpg

其中H是曝光量,E是影像平面的照度,而t是曝光时间。

照度E由f值所控制,但也取决于环境亮度。为了避免混淆,一些作者使用机身曝光(camera exposure)来指代拍摄参数(camera settings)。1964年的ASA照相机自动曝光控制标准(ASA PH2.15-1964)采用了相同的途径,并使用了更确切的术语“机身曝光参数”(camera exposure settings)。然而,摄影师通常既使用“曝光”来指代拍摄参数,又用其来指代曝光量。
http://zh.wikipedia.org/zh-cn/%E6%9B%9D%E5%85%89%E5%80%BC

CMOS、CCD光传感器以及填充系数(fill factor)

CMOS传感器与CCD传感器的主要区别在于CMOS传感器将放大器等晶体管以及相关的金属布线做到了像素里面。因此,在势阱中存储的光生电荷形成的电压可以在像素内通过放大器放大后经过金属布线输出。而CCD势阱中存储的光生电荷是通过电荷通道输出至 CCD 像素外的放大器进行放大后输出。因此,CMOS传感器的每个像素至少有3个晶体管(1个放大管、两个门管)以及相应的金属布线。而CCD像素中没有这些东西。

下图是SONY的Exmor R CMOS背面照明技术感光元件与传统CMOS感光元件的区别:
非常难得的 CMOS sensor 工作原理的深入技术科普_第1张图片

如上图所示,由于传统CMOS传感器(左边)的金属布线在光电二极管的上面,因此会遮挡住一部分入射的光线,减少光通量,同时还会反射一部分光线造成噪声。因此,传统的CMOS传感器与CCD传感器比较,光电二极管的受光面积会减少。CMOS像素光电二极管的实际受光面积与其本身受光面积的比值就叫做填充系数(fill factor)或者开口率。

由于填充系数(fill factor)或开口率这个概念从逻辑上来说是一个包括若干个种概念的属概念,笼统地讲填充系数或开口率不但说明不了问题而且会制造混乱。因此,有必要对不同含义的填充系数进行准确的定义,尽管这些定义未必与某些文献或资料上的一致,但由于还没有一致公认的定义,我将在使用这些概念时进行定义并加以说明。所以,上述填充系数(fill factor)或开口率的概念或术语是特指CMOS填充系数(fill factor)或开口率,其内涵定义为:CMOS像素光电二极管的实际受光面积与其本身受光面积的比值。以下说到CMOS填充系数时其含义就是指的这个定义。

而SONY的背照式技术将金属布线做到了光电二极管的背面,光线可不受阻碍的全部照射到光电二极管的受光面上。因此,Exmor R CMOS传感器(右边)的CMOS填充系数接近1或100%。

CMOS填充系数实际上与像素的大小有关。因为金属布线的宽度和晶体管的尺寸与制程有关,而与像素的面积无关。随着技术的不断进步,布线宽度和晶体管尺寸可以做得越来越小,但在同一时期、同样的技术水平下大像素和小像素的布线宽度和晶体管的尺寸是一样的,因此,在小像素中CMOS填充系数是0.5,在大像素中CMOS填充系数就会大于0.5。例如一个8平方微米的小像素,其CMOS填充系数是0.5,也就是有一半的受光面积被金属布线遮挡,这部分的面积是4平方微米。而金属布线占用的面积在一个16平方微米的大像素中还是4平方微米,因此,对大像素来说其CMOS填充系数为(16-4)/16 = 12/16 = 0.75,而不是0.5。

由于单反的像素面积比小DC大不少,所以这项技术对单反的意义不是太大,但对小DC的性能和画质则会有显著的提升。这就是为何SONY要将这项技术首先用于小DC的根本原因。

CMOS填充系数对单反的影响与像素的面积正相关。假定D3的填充系数是0.8,D3的像素面积是71.38平方微米,其中金属布线和晶体管的面积占了14.28平方微米。假定CMOS制程和工艺不变,D3X的像素面积为35.14平方微米,CMOS填充系数 = (35.14-14.28)/ 35.14 = 0.59。同样,佳能5D2的像素面积是41.1平方微米,金属布线和晶体管的面积占了14.28平方微米,CMOS填充系数 = (41.1-14.28)/41.1 = 0.65。7D的像素面积为18.55平方微米,其CMOS填充系数只有(18.55-14.28)/18.55 = 0.23。

可见,随着像素密度的增加,CMOS填充系数对像素的影响越来越大,从D3的0.8降到7D的0.23。因此,对7D这种像素密度接近小DC的单反相机来说,SONY的这种背光技术还是有意义的。

还有一种填充系数是微透镜的覆盖率,其定义为微透镜覆盖象素的面积/象素的几何面积,即透镜是否可以将整个像素的面积全部覆盖。从富士的这张图上可以看出,由于工艺上的问题,微透镜之间不可能没有缝隙,因此微透镜不可能100%的覆盖。而制造和安装微透镜的工艺与CMOS的制程一样,在同一时期、同样技术水平下是一样的,因此微透镜之间的缝隙大小与像素的面积无关,是一个定值。

非常难得的 CMOS sensor 工作原理的深入技术科普_第2张图片

微透镜覆盖率与CMOS填充系数一样,与像素的面积正相关,象素面积越大,微透镜的覆盖率越大,象素面积越小,微透镜覆盖率越低。如D3的象素面积大,其微透镜覆盖率可能为90%,其面积为71.38平方微米,间隙面积为7.1平方微米。对S5pro来说,其像素面积为29.4平方微米,微透镜覆盖率为(29.4-7.1)/29.4 = 0.758。对5D2来说,其象素面积为41.09平方微米,微透镜覆盖率为0.827。对7D来说其像素面积为18.55平方微米,微透镜覆盖率为(18.55 – 7.1)/18.55 = 0.61。

非常难得的 CMOS sensor 工作原理的深入技术科普_第3张图片

由于CMOS传感器不仅受到CMOS填充系数的影响,同时还会受到微透镜覆盖率的影响,因此对使用CMOS传感器的D3、5D2和7D来说,其综合填充系数为CMOS填充系数X透镜覆盖率。如果D3的CMOS填充系数为0.8,透镜覆盖率为0.9,则综合填充系数D3为0.8X0.9=0.72,5D2为0.65X0.827 = 0.538,7D为0.23X0.61 = 0.142。S5不受CMOS填充系数影响,其综合填充系数即微透镜覆盖率为0.758。受填充系数的影响,像素面积最大的D3损失了28%的光线,采用CCD的S5损失了24%的光线,5D2损失了46%的光线,7D损失了85%的光线。

技术的进步会使得填充系数变大,如果将D3的CMOS填充系数提升到0.85,透镜覆盖率提升到0.95,D3的综合填充系数为0.81,D3X的综合填充系数为0.63,5D2的为0.68,7D的为0.34。可见,技术的进步对高像素意义重大,大像素的D3的综合填充系数仅增加了0.08,10%左右,而高像素的7D综合填充系数增加了0.2,翻了一倍多。所以,CMOS制程和微透镜工艺的进步是像素密度得以提高的基本要素。

CCD(电荷耦合元件,Charge-coupled Device)

北京时间2009年10月6日,2009年诺贝尔物理学奖揭晓,瑞典皇家科学院诺贝尔奖委员会宣布将该奖项授予一名中国香港科学家高锟(Charles K. Kao)和两名科学家威拉德.博伊尔(Willard S. Boyle)和乔治.史密斯(George E. Smith)。高锟因为“在光学通信领域中光的传输的开创性成就” 而获奖,科学家威拉德.博伊尔和乔治.史密斯因 “发明了成像半导体电路——电荷藕合器件图像传感器CCD” 获此殊荣。

实际上,威拉德.博伊尔和乔治.史密斯1969年在美国贝尔实验室发明的还不是作为图像传感器的CCD,而是一种他们称之为电荷“气泡”元件(Charge "Bubble" Devices)的装置,这种装置的特性就是它能沿着一片半导体的表面传递电荷。由于当时贝尔实验室正在发展半导体气泡式内存,这种新装置的用途首先尝试作为记忆装置。其原理如下图所示:

非常难得的 CMOS sensor 工作原理的深入技术科普_第4张图片

在栅极(G)上提供正电压建立势阱(黄色)收集电荷包(电子,蓝色),按正确的顺序向栅极提供正电压传递电荷包。

CCD的第一项工作是一个8bit的移位寄存器。当CCD作为一种存储装置开始其生命的时候,只能通过输入寄存器将电荷“注射”到这个装置中。不过,很快就发现CCD能够借助于光电效应积累电荷并且可以建立电子图像。到了1971年,贝尔实验室的研究人员米切尔.F.汤普斯特( Michael F. Tompsett )等人已经能够用简单的线性装置捕获图像,CCD图像装置由此而诞生。

有数家公司,包括仙童半导体(Fairchild Semiconductor)、美国无线电公司(RCA)和德州仪器(Texas Instruments)等接手这项发明并进行发展规划。在前贝尔实验室的研究人员阿米利欧(Gil Amelio)的领导下,仙童公司通过努力在1974年有了一个500单元的线阵装置和一个2维100X100像素的装置。

在岩间和夫(Kazuo Iwama)的领导下,索尼公司对CCD的研发投入了大量的资金(十年投入200亿日元),在全公司的支援下,开发团队克服重重困难,终于在1978年3月制造出了被人认为“不可能的”、在一片电路板上装有11万个元件的集成块。以后,又花了2年的岁月去提高图像质量,终于造出了世界上第一个CCD彩色摄像机。在这个基础上再改进,首次实现了CCD摄像机的商品化。当时,CCD的成品率非常低,每100个里面才有一个合格的,生产线全开工运转一周也只能生产一块。有人开玩笑说:这哪里是合格率,这简直就是发生率!索尼接到全日空13台CCD摄像机的订单,其中用的CCD集成块的生产足足花了一年。

1980年1月,升任社长的岩间又给了开发团队新的目标:“开发使用CCD技术的录像录音一体化的摄像机”。又是苦斗,经过了公布样品、统一规格、CCD摄像机开发团队和普通摄像机开发团队的携手大奋战,1985年终于诞生了第一部8毫米摄像机“CCD-V8”。从开始着手CCD的研究,直到生产出第一台8毫米CCD摄像机,已经经历了15年的岁月了。岩间和夫因癌症于1982年8月去世,一片CCD芯片摆放在他的墓碑上以表彰他对CCD所做出的贡献。

CCD分为两种,一种是全帧转移CCD(FULL FRAME TRANSFER CCD),另外一种是行间转移CCD(INTERLINE TRANSFER CCD)。

典型的消费级的数码相机,用的一般都是行间转移CCD。它的结构如下图。在一块半导体上集成制造出感光器件:光电二极管和一些电路。每个单元呈整齐的矩阵式排列,多少行多少列。行数乘以列数就是这个CCD的象素数量。每个象素单元中(左下角的小图),有大约30%的面积用来制造光电二极管(红色部分)。在剩余的可用面积中,会放置一个转移寄存器(紫色部分,SHIFT REGISTER)。在接受一个指令后,光电二极管感受到的光强会被放置在这个转移寄存器中并保持住。这是一个模似量。

非常难得的 CMOS sensor 工作原理的深入技术科普_第5张图片

下一步,就是把这每一个象素中的光强值变成数字量,再由相机中的处理器组合成一幅数字图像。首先,并行时钟启动第一行;串行时钟依次启动第1、2、3……列。这样第一行中的每个像素都被按顺序送出CCD,进入ADC(模拟/数字转换器,这种器件专门用来把模拟量转换成数字量)。然后并行时钟启动第二行;串行时钟依次启动第1、2、3……列。这样第一行中的每个像素都被按顺序送出CCD进入ADC。这样依次下去,每一行每一列的像素都被有序的转换成数字信号。相机的处理器再把这些数字化的象素组合成一幅数字图像。  

每一个像素单元中的移位积存器整齐的排成一列一列的,把真正起感光作用的光电二极管夹在中间。所以,这种器件被叫作行间转移CCD。由于每个象素单元中真正用于感光的面积只占30%左右,感光效率比较低。因此真正的成品会在每个象素单元的上面再做一个微透镜(图的左下方就是微透镜的示意图),微透镜在光电二极管的正上方,面积造得比较大,这样就能把更多的入射光集中到光电二极管上,使等效的感光面积达到象素面积的70%左右。  

可见,除了微透镜覆盖率之外,CCD还有一个填充系数,即CCD的光电二极管感光面积/像素的几何面积。光电二极管感光面积之外的面积是用于存储和转移电荷用的势阱面积。实际上,每个CCD像素之间还留有一定的非激活面积(即Clark所说的dead space),这部分面积是用来防止在感光时电荷溢出或像素之间相互隔离用的,是一个定值。在Clark给出的理论模型中,2008年12月以前,对APS-C以上面积的传感器是1微米,此后为0.5微米。也就是说,实际的激活面积要从像素的边长中先减去0.5微米再来计算。

虽然上面说得是CCD,但对CMOS传感器也存在同样的问题,即CMOS传感器的每个像素面积同样分为三部分:光电二极管的受光面积、存储电荷的势阱面积以及用于防止溢出和隔离用的隔离区。具体的图例会在讨论CMOS像素的时候再给出。

上面给出的CCD的工作原理图中有一个问题,就是没有标出放大器的位置,无法与CMOS传感器作比较。从DALSA公司的Dave Litwiller写的《CCD vs. CMOS》一文中找了一张图来说明这个问题。如下图所示,CCD阵列的所有像素通过前面所述的电荷转移模式将每个像素的电荷输出到传感器外面,分别进行电子—电压转换、放大后再做模数转换。而CMOS-APS传感器是在每一个像素内进行电子-电压转换以及放大。换句话说就是CCD一般只有一个电子-电压转换和放大电路,而CMOS-APS则是每一个像素都有一个电子-电压转换以及放大器电路,这一点是CCD与CMOS-APS传感器最大的区别。

非常难得的 CMOS sensor 工作原理的深入技术科普_第6张图片

CMOS(Complementary Metal-Oxide-Semiconductor,互补式金属氧化物半导体)

CMOS本意是指构建集成电路的一种技术或制程。CMOS技术被用于微处理器、微控制器、静态RAM以及其它数字逻辑电路。CMOS技术也广泛应用于模拟电路,如图像传感器、数据转换器以及用于通信领域的多种高度集成的收发器等。弗兰克.威纳尔斯(Frank Wanlass)在1967年成功的获得CMOS的专利(美国专利 US Patent 3,356,858)。
http://en.wikipedia.org/wiki/CMOS

对数码相机而言,我们说的CMOS是特指CMOS图像传感器。

CMOS图像传感器的研究起始于20世纪60年代末,由于当时受工艺技术的限制,直到90年代初才发展起来,至今已研制出三大类CMOS图像传感器,即CMOS无源像素传感器(CMOS Passive Pixel Sensor简称CMOS-PPS)、CMOS有源像素传感器(CMOS Active Pixel Sensor简称CMOS-APS)和CMOS数字像素传感器(CMOS Digital Pixel Sensor简称CMOS-DPS)。

在此基础上又问世了CMOS视觉传感器(CMOS Visual Sensor)、CMOS应力传感器(CMOS Stress Sensor)、对数极性CMOS传感器(Log-Polar CMOS Sensor)、CMOS视网膜传感器(CMOS Retinal Sensor)、CMOS凹型传感器(CMOS Foveated Sensor)、对数变换CMOS图像传感器(Logarithmic-Converting CMOS Image Sensor)、轨对轨CMOS有源像素传感器(Rail-to-Rail CMOS Active Pixel Sensor)、单斜率模式CMOS图像传感器(Single Slopemode CMOS Image Sensor)和CMOS指纹图像传感器(CMOS Fingerffing Sensor)、FoveonX3全色CMOS图像传感器、VMISCMOS图像传感器等。

CMOS-DPS不像CMOS-PPS和CMOS-APS的模/数(A/D)转换是在像素外进行,而是将模/数(A/D)转换集成在每一个像素单元里,每一像素单元输出的是数字信号,该器件的优点是高速数字读出,无列读出噪声或固定图形噪声,工作速度更快,功耗更低。
http://zhidao.baidu.com/question/58206426.html

数码相机一般采用有源像素传感器,即CMOS-APS。

有源像素传感器(Active pixel sensor)

有源像素传感器(APS),是一种集成电路包含了像素传感器阵列的图像传感器,每个像素包含了一个光电二极管和一个有源放大器。包括用于手机、web摄像头以及一些DSLR的CMOS-APS在内的有源像素传感器有多种类型。这类图像传感器通过CMOS制程来生产(因此也被称为CMOS传感器),并且已经成为电荷耦合器件(CCD)图像传感器的替代品。

历史

术语有源像素传感器(Active pixel sensor)是奥林巴斯公司从事电荷调制装置有源像素传感器方面工作的中村勉(Tsutomu Nakamura)创造的,更明确的定义是由埃瑞克.佛休姆(Eric Fossum)在其1993年的论文中给出。

图像传感器单元有在像素中的放大器是诺博尔(Peter J. W. Noble)在1968年,维迈尔等人(P. K. Weimer, W. S. Pike, G. Sadasiv, F. V. Shallcross, and L. Meray-Horvath )在1969年描述的。维迈尔等人其时正在调查被动式像素传感器(passive-pixel sensors)——即传感器像素没有自己的放大器——是否可成为真空管图像装置的替代品。MOS被动式像素传感器只是在像素中使用了一个简单的开关读出光电二极管积累的电荷。像素按照二维结构组成阵列,每行像素共享存取使能线,每列共享输出线。每列的末端是一个放大器。被动式像素传感器存在许多限制,如高噪声、读取慢并且缺乏可扩展性。通过在每个像素中增加一个放大器来解决这些问题,导致了有源像素传感器的创新。诺博尔(Noble)在1968年,张伯伦(Chamberlain)在1969年创建了每个像素均含有源MOS读出放大器的传感器阵列。1970年贝尔实验室发明CCD。由于MOS制程很难控制并且MOS晶体管的特性随时间而改变(电压随时间变化),而CCD的电荷域操作更容易制造, MOS被动式和有源像素传感器很快就黯然失色。一个低分辨率且“主要为数字”、有内部像素放大器、应用于光学鼠标的nMOS成像器在1981年被演示。

另一种类型的有源像素传感器是用于红外线谱的混合红外焦平面阵列(IRFPA),设计成在低温下操作。这种装置有两片像三明治一样放在一起的芯片:一片芯片包含了用铟镓砷或碲镉汞制造的检测器单元,另一片芯片是用硅制造用于读出的光电探测器。这类装置源头的准确日期是保密的,但在1980年代中期得到广泛的应用。

80年代后期至90年代早期,CMOS制程与稳定性控制过程共同建立起来并且成为几乎所有逻辑和微处理器的基准制程。用于低端图像应用的被动式像素传感器和用于低分辨率高性能应用例如视网膜仿真的有源像素传感器开始复苏。但CCD仍然具有很低的瞬时噪声和固定模式噪声优势并且是消费类应用例如摄像机以及广播级摄影机采用的主要技术,从而全面取代了视频摄像管。

埃瑞克.佛休姆(Eric Fossum)等人发明了使用内部像素电荷转移器以及在像素内的放大器和真正的相关双采样(CDS)电路,有较低的瞬时噪声操作和在片上的电路用于减少模式噪声,而且发表了第一篇影响深远的文章,预言APS成像器将成为CCD在商业上的接替者。在1993年到1995年期间,喷气推进实验室(Jet Propulsion Laboratory)开发了一系列原型装置,验证了技术上的关键性能。虽然原始,但这些装置示范了在高读出速度及低功耗的情况下可获得好的图像性能。

1995年,来自于JPL(喷气推进实验室)的人员成立了Photobit公司,继续开发和商业化APS技术用于不同的应用,如web摄像头、高速和运动捕获摄像机、数字放射摄影、内窥(丸)摄像机、DSLR、当然还有照相手机等等。许多其它小图像传感器公司也开始发展起来,使得CMOS制程被广泛接受并且迅速推动了有源像素传感器的应用。

与CCD的比较

APS像素解决了被动式像素传感器的速度和扩展性问题。其功耗远远少于CCD,图像延迟更少,能够在更便宜也更通用的生产线上生产。与CCD不同,APS传感器能够组合图像传感器功能和图像处理器功能在同一个集成电路中。

APS传感器已经成为许多消费类应用选择的技术,最显著的是迅速成长的移动电话摄影机市场。无论如何,APS图像传感器已经在摄影和成像领域获得了长足的进展。包括数字放射照相、军用超高速图像采集、高分辨‘智能’安全摄像机、光学鼠标以及许多其它消费应用。

相当数量的半导体厂商提供各种类型的APS传感器。包括Aptina Imaging (从 Micron Technology剥离的半独立公司,其在2001年收购了Photobit公司)、三星、STMicroelectronics、Toshiba、OmniVision Technologies、Sony和 Foveon以及其它的公司。

像素(pixel)

今天标准的CMOS APS像素由一个光电二极管以及转移门管、复位门管、选通门管和源跟随器读出管等4个晶体管组成,因此被称为4T(4晶体管)单元。

JFET光电二极管或pinned光电二极管最初用在行间转移CCD上是因为其暗电流较低并且对蓝色响应较好。当连接到转移门管时,允许消除从光电探测器完全转移电荷时的滞后。像素内部使用电荷转移门管以及采用相关双采样技术能够获得较低的噪声。

诺博尔(Noble)3T像素由于其制造容易仍然经常使用。一个晶体管Mrst如同一个开关复位这个装置。当这个晶体管导通,光电二极管有效的连接到电源Vrst,清除全部积累的电荷。由于此复位晶体管是N型,像素的工作方式是软复位。

第二个晶体管Msf如同一个缓冲器(确切地说,是源跟随器),放大器允许在不移出积累电荷的情况下测量像素的电压。其电源VDD通常是与复位晶体管连在一起的。

第三个晶体管Msel是行选择晶体管。是一个允许像素阵列的行选通信号在读出像素电子时接通的开关。

非常难得的 CMOS sensor 工作原理的深入技术科普_第7张图片

其它像素的创新如5T和6T像素也存在。通过增加额外的晶体管,诸如整体快门,而不是常见的卷帘快门,也是可能的。
http://en.wikipedia.org/wiki/Active-pixel_sensor

为了增加对CMOS-APS像素的感性认识,贴一张美国Fairchild Imaging 公司刘新乔等(Xinqiao (Chiao) Liu, Boyd Fowler, Hung Do, Steve Mims, Dan Laxson, and Brett Frymire)在论文《High Performance CMOS Image Sensor for Low Light Imaging》中给出的CMOS像素的设计图。此像素的尺寸为10.8 X 10.8微米(D3的像素仅为8.46 X 8.46微米),CMOS填充系数为81%。像素为5T(5个晶体管)电路。没有色彩滤镜和微透镜。

下图左边为像素的横截面,右边为像素布局。中文标注为译者所加。

非常难得的 CMOS sensor 工作原理的深入技术科普_第8张图片
上图右边象素布局图中的“死空间(dead space)”一词应译为“隔离区”,特此说明并向hit100兄致谢。

图像噪声(Image  Noise)和噪声源(Noise Sources)

图像噪声是数码相机或扫描仪的电路以及传感器在图像生成过程中亮度或色彩信息的随机变化。图像噪声也源于胶片的颗粒和一个理想光子探测器不可避免的散粒噪声。



图像噪声通常被认为是在图像捕获时不受欢迎的副产品。虽然这些不需要的波动被称之为“噪声”是将其类比于不需要的声音,但其实这种“噪声”是听不见的,并且在某些应用中实际上还会带来好处,例如抖动(dithering)。

类型

放大器噪声(高斯噪声,Gaussian noise)
放大器噪声的标准模型是加性高斯噪声(Additive Gaussian Noise),独立于每个像素并且与信号强度无关,主要是由约翰逊—尼奎斯特噪声(Johnson–Nyquist noise,热噪声)引起的,包括来自电容的复位噪声(kTC噪声)。彩色数码相机用于蓝色通道的放大率比绿色或红色通道要多,因此在蓝色通道中的噪声也更多。

放大器噪声是图像传感器“读出噪声”的主要部分,也就是说,是图像暗部固有的噪声电平。

盐和胡椒噪声(Salt-and-pepper noise)
胖尾分布(Fat-tail distributed)或“冲击”(impulsive)噪声在有些时候被称为盐和胡椒噪声或尖峰(spike)噪声。

非常难得的 CMOS sensor 工作原理的深入技术科普_第9张图片

一幅包含盐和胡椒噪声的图像将在亮部有暗像素并且亮像素在暗部。这种类型的噪声一般是由像素坏点、模数转换器错误以及在传输过程中的比特错误等引起的。

这可以使用暗帧减法以及在暗/亮像素周围插值的方式来解决。

散粒噪声(Shot noise)
在来自于图象传感器的图像中较亮部分的主要噪声一般是由量子涨落统计引起的,也就是说,在一个给定的曝光水平上所感应到的光子数量的变化,这种噪声被认为是光子散粒噪声。散粒噪声均方根与图像强度的方根成正比,不同像素的噪声是彼此独立的。散粒噪声服从泊松分布(Poisson distribution),通常与高斯噪声没有很大的不同。

除了光子散粒噪声外,还存在着图像传感器暗漏电电流引起的散粒噪声,这种噪声有时也被称为“暗散粒噪声”(dark shot noise)或“暗电流散粒噪声”(dark-current shot noise)。图像传感器中的“热像素”(hot pixels)暗电流最大;正常的可变暗电荷以及热像素能够被减掉(使用“暗帧减法”),留下的仅是漏电电流的散粒噪声或随机分量。如果不能做暗帧减法或如果曝光时间过长使得热像素电荷超过线性电荷容量,这种噪声将不仅仅是散粒噪声,热像素将表现为盐和胡椒噪声。

量化噪声(Quantization noise,uniform noise)
量化感知图像的像素到离散数字量时产生的噪声被称为量化噪声;其大致为一致性分布,可取决于信号,虽然如果其它噪声源大到引起抖动或者如果明确适用于抖动其将与信号无关。

非各向同性噪声(Non-isotropic noise)
有些噪声源会在图像中表现出明显的方向性。例如,图象传感器有时候会出现行噪声或列噪声。在胶片中,划痕是非各向同性噪声的一个例子。

数码相机的噪声问题
在暗光下,正确的曝光要求较长的快门速度或较高的增益(感光度)或者二者同时使用。在大多数相机中,较长的快门速度将导致由于光电二极管漏电电流引起的盐和胡椒噪声的增加。在付出读噪声方差加倍(读噪声标准差增加41%)的成本后,大部分盐和胡椒噪声能够被暗帧减法消除。

由于较少的光子被计数(散粒噪声)并且需要对信号放大更多,读噪声以及散粒噪声增加的相关效应是减少曝光,增加对应的ISO感光度。

图象传感器的尺寸或每个像素传感器光线收集区域的效果是信号电平、信噪比以及由此决定的可见噪声电平的最主要决定因素。一个给定图象传感器在相同噪声电平下的感光度大致与传感器的面积成比例。例如,一个4/3传感器在ISO 800时产生的噪声电平大致相当于一个全幅传感器(面积大致为4倍)在ISO 3200的噪声电平或一个1/2.5”的小DC传感器(大致为1/8的面积)在ISO 100时的噪声电平。这种在高感光度下获得可接受图象的能力是驱动用户选择DSLR相机,使用比紧凑型传感器更大的传感器的主要因素。由于传感器在同样面积下有更多的象素按照自然规律就必须采用更小的象素,因此传感器像素的数量极大的影响着每个象素的噪声电平。不过,当在屏幕上缩放到同样尺寸或打印出同样尺寸的照片时,按像素计数的可见噪声电平只有很小的差别。
http://en.wikipedia.org/wiki/Image_noise

维基百科上述对图像噪声的分类和定义以及关于数码相机噪声问题的分析比较概括,还可以做更深入的分析和探讨。以下观点有些源自于其它资料,有些是我根据包括维基百科以及其它资料做出的推论,引用的观点我会注明出处,没有注明的是我的推论,欢迎批评指正。

实际上,数码相机的图像噪声还可以按照噪声来源分为两类,即数码相机本身的噪声以及来源于数码相机外部,在拍摄时产生的噪声。

数码相机本身的噪声一般是指数码相机的本底噪声,对应的英文单词有:Noise floor,Noise level,Noise background等。按照维基百科上述有关图像噪声的定义,放大器噪声(包括电容噪声)、由像素坏点、模数转换器错误以及在传输过程中的比特错误产生的盐和胡椒噪声、散粒噪声中的暗散粒噪声或暗电流散粒噪声、量化噪声等都属于数码相机的本底噪声。

按照Clark的说法,读出噪声可视为数码相机的本底噪声(Read noise is expressed in electrons, and represents a noise floor for low signal detection)。Clark认为:本底噪声是传感器噪声、模数转换限制以及放大器噪声的组合。这三个参数在评估数码相机的时候不能分开并且通常被称为读出噪声(The noise floor is a combination of the sensor read noise, analog-to-digital conversion limitations, and amplifier noise. These three parameters can not be separated when evaluating digital cameras, and is generally called the read noise)。显然,Clark所说的放大器噪声不是指传感器像素中的放大器产生的噪声(这部分噪声被他归入了传感器噪声),而是指传感器之外包括ISO放大器在内的其它放大器带来的噪声。也许Clark认为ADC的量化噪声可忽略不计,所以只说了模数转换器的限制(12位或14位),没有提到量化噪声的问题。
http://www.clarkvision.com/image ... erformance.summary/

源于数码相机外部,在拍摄时产生的噪声也有两类:一类与镜头、微透镜以及各类滤镜有关,包括镜头的分辨率、像差、色差、衍射、反射等带来的噪声。一般情况下,传感器的分辨率越高(像素密度越高),镜头质量越差,这类噪声出现的概率也越大。但为了简化问题,在下面的讨论中我们假定数码相机使用的是一个具有无限分辨率、没有像差、色差、衍射、反射等问题的理想镜头。像素的微透镜和各类滤镜也具有同样性质。因此,可以认为由此产生的噪声在讨论中不存在。

另一类数码相机外部产生的噪声一般是指维基百科在图像噪声中定义的光子散粒噪声(photon shot noise),简称光子噪声(photon noise)。这类噪声是由于光子到达传感器的数量在时间和空间上具有随机性而产生的。一般认为,光子噪声是光子数量的平方根(见下图)。
非常难得的 CMOS sensor 工作原理的深入技术科普_第10张图片

Clark在其网页中也认为:由于光子到达的时间是随机的,所以在光子的物理计数上,信号中的噪声是光子数量的平方根,服从泊松分布(In the physics of photon counting, the noise in the signal is equal to the square root of the number of photons counted because photon arrival times are random. The reason for this dependence is Poisson Statistics)。

Clark还认为,数码相机的噪声模型是:

150021_1265531298.jpg

式中N是以电子为单位的总的噪声,P是光子的数量,r是以电子为单位的读出噪声,t是以电子为单位的热噪声。
http://www.clarkvision.com/image ... erformance.summary/

我认同以上观点。可以看出,数码相机的噪声主要由两部分构成:1、相机的本底噪声;2、光子噪声。而光子噪声是光子数量的函数(平方根),传感器接收的光子越多,光子噪声也越多,没有接受到光子(如全黑状态),光子噪声为零,只有本底噪声存在。但光子噪声的增长速度没有光子数量(信号)增长得快。所以,光子噪声不会降低信噪比,反而会增加信噪比,因为信号(光子数量)是光子噪声的平方。这也是一般认可的观点,如下图所示。

非常难得的 CMOS sensor 工作原理的深入技术科普_第11张图片

图中的坐标是对数单位,横轴是传感器接收的光子数量即输入,纵轴是传感器输出的电子数量。红色的部分是噪声,由两部分组成:左边的是暗电流以及读出噪声,右边的是光子噪声。蓝色的是信号,绿线表示最大阱容。可以看出,当电子数(以及对应的光子数)达到最大阱容时,信号就不再增加(噪声也不再增加),噪声比信号增长的慢。

从这张图上我们可以看到,传感器在光子数达到一个阈值后才开始有信号的(图上是在10与100个光子之间),也就是说如果传感器接受的光子数少于某个阈值,就不会有信号输出。这个阈值一般认为是读出噪声。

那么,读出噪声是由什么决定的呢?按照维基百科和有关资料的说法,读出噪声就是传感器的放大噪声(约翰逊—尼奎斯特噪声,Johnson–Nyquist noise)和电容噪声(kTC noise)。

我们先来看一下放大器噪声。对CMOS-APS传感器来说,由于每一个像素都有一个放大器,而这些放大器不可能做的完全一致,因此对信号的放大也会不一致,噪声由此产生。而且像素也多,放大器也越多,产生放大器噪声的概率也就越多。

而CCD在一般情况下只有一个放大器,所有像素的信号都是通过这个放大器来放大,没有CMOS-APS传感器每个象素都有一个放大器所带来的不一致性问题。因此,一般也认为CCD传感器的噪声要小于CMOS传感器。

不过,CCD与CMOS-APS都存在一个共同的问题,就是电容噪声(kTC noise)。无论是CCD还是CMOS-APS都需要将光电二极管产生的光生电荷存储在势阱中。二者的差别只是CCD需要通过电荷通道将每个象素势阱中存储的光生电荷传递到传感器外面转换为电压信号后再放大。CMOS-APS象素势阱中的光生电荷直接在势阱中转换为加在放大器管栅极上的电压信号。而势阱的电容也会有不一致的问题,不可能将上千万个像素的势阱电容都做成一样的。更何况还有暗电流的问题。因此,无论是CCD还是CMOS传感器首先要解决势阱电容的不一致性带来的噪声。

此外,在快门开启前需要对势阱复位,使得上次拍摄时在势阱中积累的电荷释放,为本次拍摄作准备。由于暗电流的存在,使得复位很难做到让势阱中的电荷全部释放,必须解决电荷无法全部释带来的噪声问题。

放大器和电容噪声(包括复位噪声)可分为两类,一类为模式噪声(pattern noise),这类噪声是按空间分布的,一般是制造时产生的不一致性所引起的。另一类是随机噪声,具有不确定性,有时出现在这个位置,有时候又出现的另一个位置。

对模式噪声一般采用相关双采样(CDS)技术来消除。下面是佳能全幅CMOS白皮书中关于片上降噪技术的介绍:

CMOS传感器通常会比CCD传感器有更多的噪声,因此会带来较差的图像质量。将成百上千万个光电二极管和放大器集成到传感器将必然会在性能上带来不可避免的不一致性,像素在性能上的微小变化将会在输出图像中产生噪声。为了克服这些问题,佳能开发了片上技术来记录每个象素在曝光前的噪声并且在图像创建后自动的从图象中减去这些噪声。降低混合噪声使得可读取无噪声信号。这种片上电路仅可用于CMOS传感器,无法用在CCD上,因为二者采用不同的生产制造方式。

佳能也改变了传统的3T(晶体管)CMOS像素结构(一个光电二极管、一个MOSFET放大器和一个初始化光生电荷的复位开关),3T COMS像素结构对像素电容复位时引起的复位噪声(即kTC噪声,其中k = 波尔茨曼常数,T = 工作温度,C = 表现在放大管栅极上的总电容)会带来不利的影响。 为了消除这种噪声,佳能增加了第4个晶体管作为转移门。柯达公司在其专有的配置中有4T(晶体管)CMOS像素设计,但尼康的LBCAST传感器是3T像素。

非常难得的 CMOS sensor 工作原理的深入技术科普_第12张图片

佳能在其白皮书中还有大量篇幅来论证其片上降噪技术的优越性,并且给外界造成了相关双采样(CDS)技术以及采用4T像素的全电荷转移技术等CMOS-APS的核心技术是佳能的专利技术的印象。对此,包括Clark在内的众多佳能粉丝都信以为真,并以此作为佳能公司在COMS传感器技术上领先的依据。

可惜的是这不是真的,只不过是佳能公司发起的广告攻势而已。

在上面所引的佳能公司全幅CMOS传感器白皮书中,关于3T像素的定义就是错的。按照CMOS-APS像素的定义,诺博尔(Noble)3T像素的3个晶体管是指复位管Mrst,放大管Msf和行选择管Msel,没有光电二极管什么事。佳能公司的技术人员居然在技术白皮书里将3T像素说成是光电二极管+复位管+放大管,完全忘记了行选择管。

如果上面说的这个问题是不小心造成的表述错误,不是什么大问题的话。那么,将CDS技术和4T像素说成是佳能公司的专利就比较严重了。

CDS(相关双取样)技术是一种公知技术,不仅用于图像传感器也用于其它领域。在谷歌上搜索相关双采样有34万条纪录,相关双取样有101万条。CCD传感器必须要采用CDS技术来消除放大器噪声,否则无法工作。任何一种CMOS-APS像素,包括3T像素在内,也都要用到CDS技术,否则无法工作,维基百科中说到的暗帧减法就是指CDS。因此,CDS不可能是佳能的专利技术。

正如我前面所引用的维基百科关于APS像素的资料所指出,今天标准的CMOS APS像素由一个光电二极管以及转移门管、复位门管、选通门管和源跟随器读出管等4个晶体管组成,因此被称为4T(4晶体管)单元。也就是说,有转移门管的4T像素现在是CMOS传感器的标准配置,佳能在白皮书中说尼康的LBCAST传感器是3T像素已经是过时的黄历,D3以及其后的传感器不可能还是3T像素,佳能在CMOS片上降噪技术方面与索尼和尼康相比并没有什么优势。

事实是包括4T像素在内,所有的核心专利都在美国人手中。从2003年起,美国人就开始在CMOS传感器方面发力,目前最大的CMOS传感器公司都是美国公司,包括索尼在内的日本公司在CMOS传感器方面都落后于美国公司。美国人希望通过在CMOS传感器市场上报让CCD传感器市场落入日本人手中的一箭之仇。因此,决不会让日本公司在CMOS传感器市场上再独占鳌头。

美国人不仅通过市场竞争,更是通过专利诉讼利用法律来打击日本公司。2008年10月,拥有JPL(喷气推进试验室)专利的加利福尼亚理工大学以专利侵害为由起诉了奥林巴斯、佳能、三星、索尼,松下、尼康,这就是为何佳能的网站一夜之间将所有作为佳能专利技术向外界介绍,也是佳粉们引以自豪的片上降噪技术的网页全部撤下来的原因。如果官司败诉,以CMOS-APS为核心技术的佳能公司将受到致命的打击。

日系厂商中是索尼而不是佳能一直在CMOS-APS传感器方面获得专利来摆脱美国人的控制,比如CMOS传感器的背光技术。采用背光技术的产品美国OmnVision公司发布的更早。但索尼在OmniVision之后依然发布了采用背光技术的EXMOR传感器,显然是掌握了绕开OmniVision专利的技术,可见在信息社会企图通过专利来阻止对手是很不容易的。

背光技术是CMOS传感器下一步能够提高像素密度的关键技术,因为CMOS填充系数造成的问题对高像素来说比大像素严重的多,只有采用这一技术才有可能使得CMOS传感器与CCD传感器并驾齐驱。索尼如将这一技术用于DSLR,将有可能大幅提高传感器的像素密度。

索尼公司的EXMOR传感器还包括了集成CDS电路的列并行转换电路,以下是索尼网站的有关介绍:

列并行模数转换来增加速度

提速的关键是并行信号处理。CMOS传感器有将模拟信号转换为数字信号的模数(A/D)转换电路(图2)。在水平阵列组织数以千计的模数转换电路并允许其同时操作可以增加速度。用于SONY CMOS传感器的模数转换电路有一些重要特性,包括减少产生噪声的模拟电路尺寸以及自动的噪声消减。这种电路设计可在减低噪声的同时提高速度。



图2:列并行模数转换电路

从像素中的晶体管读出像素信号。但在数百万个像素中,每个像素中的晶体管存在着不同的阈值电压,这些不同可通过读取原始的像素信号(VSIG)来消减,这是通过读出每个晶体管的初始值(复位电平,VRST)和对应入射光的信号电平(VSIG+VRST)二者之间的差异即相关双采样(CDS)来实现的。Sony的CMOS传感器执行CDS(相关双采样)操作是指数字信号处理。


图3:A/D转换技术时序图

1 在计数器下计数期间检测复位电平(VRST)(初次数字采样)。

2 复位电平检测后,在上计数期间从计数器值被存储的状态检测信号电平(VSIG+VRST)(第二次数字采样)

3 通过从最终计数值(VSIG+VRST)减去复位电平(VRST)检测净信号值(VSIG)。这种数字减法也能用于抵消每列比较器的规格差异,并且以这种方式来转移用于比较的斜波。这允许以最小的噪声进行快速的模数转换。
http://www.sony.net/SonyInfo/tec ... /theme/cmos_02.html

实际上这是索尼公司绕开美国人专利的一种做法,而不是如有些人以为的那样是为了绕开佳能的专利。理由很简单,关于介绍这个技术的网页目前仍然在SONY的网站上,而佳能网站上介绍其片上降噪技术的网页已经全部删除了。这说明索尼的技术没有侵权,而佳能的技术有侵权的嫌疑。

事实上CDS是一种在电子测量中普遍使用的公知技术,不仅用于CMOS 4T像素,包括3T 像素和CCD传感器都必须要使用,否则无法消除由于电容以及放大器(对CMOS-APS像素而言)的不一致性带来的固定模式噪声。更一般的,非图像传感器的电子测量也大量使用CDS技术。所以,CDS不可能是佳能在2004年发明并成为业界的标准。这不过是某些不懂装懂的人杜撰出来的一个神话。

在无忌中有关佳能的另一个神话是佳能是CMOS图象传感器的老大,实际上佳能在全球CMOS图象传感器中的市场占有率基本上可以忽略不计(见下图)。其生产的CMOS传感器只能给自己使用,在技术迅猛发展并且专业分工越来越细的情况下,未来的局面将会更加被动。

非常难得的 CMOS sensor 工作原理的深入技术科普_第13张图片

上述两个神话应该是中国特色,国外没有这种说法。比如Clark虽然也认为佳能的降噪技术要更好一些(尽管这也是一个神话),但并没有认为尼康的CMOS传感器就没有CDS电路。实际上,佳能公司全幅CMOS传感器白皮书中明确说的是佳能自己开发并且是其独一无二技术的是指全电荷转移的CDS,没有说过CDS技术是佳能的发明。而这种说法(全电荷转移CDS技术是佳能的发明)在遭到美国加州理工大学起诉后也从佳能网站的中文和英文网页中消失了。

按照nickwolf的说法,目前佳能日文网页还保留着“这种降噪技术统称为‘On-Chip 降噪电路’。这种On-Chip降噪电路是基于获得2004年日本全国发明大奖的降噪技术,此项技术现在毫不夸张地说、已成为业界的标准”的说法。而维基百科中明确指出:

Eric Fossum等人发明了使用内部像素电荷转移器以及在像素内的放大器和真正的相关双采样(CDS)电路,有较低的瞬时噪声操作和在片上的电路用于减少模式噪声,而且发表了第一篇影响深远的文章,预言APS成像器将成为CCD在商业上的接替者。在1993年到1995年期间,喷气推进实验室(Jet Propulsion Laboratory)开发了一系列原型装置,验证了技术上的关键性能。

因此,佳能不可能是4T像素以及与此相关的电荷转移CDS的发明者。佳能在2004年实现并获得日本专利的技术也不可能成为业界的标准(按维基百科的说法,业界标准是Eric Fossum等人在1993-1995年期间发明的4T像素以及真正的相关双采样(CDS)电路),至于佳能公司的这个日本专利是否侵权有待于法院的调查和判决。但至少可以说明佳能在CMOS图象传感器方面并没有什么领先索尼和尼康的技术。相反,在诸如背光技术等方面,索尼在CMOS图象传感器方面已经超越了佳能。

由于4T像素以及电荷转移CDS并非佳能的专利,尼康也可以使用。有理由认为,尼康的全幅传感器使用的是4T像素(此前D2X的像素密度太高同时受2004年时的CMOS制程制约,可能采用的是3T像素)以及具有电荷转移的CDS电路。因此,从D3开始,尼康与佳能使用的CDS电路不会有很大的不同,应该是同样的技术水平。Clark的下述说法是不能成立的:

目前佳能在读出噪声性能方面的技术是领先的,较低的读出噪声值 = 较好的性能。尼康目前是将读出噪声的平均值修剪为0,会丢失一些数据。佳能包括了一个偏移量,因此在处理一些原始转换时能保留低端的噪声,这对于用平均多帧来检测低亮度的对象(例如天文摄影)是很重要的。
http://www.clarkvision.com/image ... erformance.summary/

测试结果也表明,D3的读出噪声比5D好的多,与5D2相当。

模拟信号(Analog Signal)、数字信号(digital Signal)以及模数转换电路(Analog to Digital Converter,ADC)

模拟信号一般是指时间连续、幅值也连续的信号,而数字信号是指在时间和幅值上均为离散的信号,模数转换(A/D)是指用数字信号来表示模拟信号。

如下图所示,上面的为在时间t上连续的模拟电压信号,下面为对模拟电压信号在时间t采样并转换为离散电压信号。

非常难得的 CMOS sensor 工作原理的深入技术科普_第14张图片

因此,一般的A/D转换过程是通过取样、保持、量化和编码这四个步骤完成的。典型的ADC电路构成如下图所示:

非常难得的 CMOS sensor 工作原理的深入技术科普_第15张图片

数码相机像素输出的电压信号在时间上是不连续的,每按下一次快门像素才输出一个此次曝光所记录的电压信号。因此,像素输出的信号与一般所认为的模拟信号有所不同,即在时间上是非连续的。

此外,每个像素的坐标位置如同计算机的内存单元一样,是通过行、列的选通电路来获取的,直接就是数字信号,不需要A/D转换。所以,只有像素输出的信号电压在幅值上是连续的,需要通过A/D转换来获得数字信号。

也许就是这个原因,使得包括Sony公司的平山先生在内的众多专业人士认为CMOS-APS像素有A/D转换电路,因为像素输出的电压信号在时间上是一个离散量,对这种信号进行A/D转换的电路也比典型的ADC要简单,没有前面的取样保持电路,只需要后面的量化编码电路。

但既然还需要对像素的输出信号电压进行量化编码,因此只能认为像素输出的是模拟信号,而不能认为是数字信号。所以,我在发贴前以及包括百度百科在内的众多中文资料中认为CMOS像素中包括A/D转换电路是不正确的。

由于数字信号不仅在时间上是离散的,而且在数值上的变化也不是连续的。这就是说,任何一个数字量的大小,都是以某个最小数量单位的整倍数来表示的。因此,在用数字量表示取样电压时,也必须把它化成这个最小数量单位的整倍数,这个转化过程就叫做量化。所规定的最小数量单位叫做量化单位,用Δ表示。显然,数字信号最低有效位中的1表示的数量大小,就等于Δ。把量化的数值用二进制代码表示,称为编码。这个二进制代码就是A/D转换的输出信号。

既然模拟电压是连续的,那么它就不一定能被Δ整除,因而不可避免的会引入误差,我们把这种误差称为量化误差。在把模拟信号划分为不同的量化等级时,用不同的划分方法可以得到不同的量化误差。可见,A/D转换时不仅不能消除噪声,而且还会引入噪声——量化误差(量化噪声)。

ADC的主要技术指标包括转换精度和转换时间:

转换精度的指标有两项:

1、分辨率——它说明A/D转换器对输入信号的分辨能力。
A/D转换器的分辨率以输出二进制(或十进制)数的位数表示。从理论上讲,n位输出的A/D转换器能区分2的n次方个不同等级的输入模拟电压,能区分输入电压的最小值为满量程输入的1/2n。在最大输入电压一定时,输出位数愈多,量化单位愈小,分辨率愈高。例如A/D转换器输出为8位二进制数,输入信号最大值为5V,那么这个转换器应能区分输入信号的最小电压为19.53mV。

2、转换误差——表示A/D转换器实际输出的数字量和理论上的输出数字量之间的差别。常用最低有效位的倍数表示。例如给出相对误差≤±LSB/2,这就表明实际输出的数字量和理论上应得到的输出数字量之间的误差小于最低位的半个字。

转换时间——指A/D转换器从转换控制信号到来开始,到输出端得到稳定的数字信号所经过的时间。
不同类型的转换器转换速度相差甚远。其中并行比较A/D转换器转换速度最高,8位二进制输出的单片集成A/D转换器转换时间可达50ns以内。逐次比较型A/D转换器次之,他们多数转换时间在10~50μs之间,也有达几百纳秒的。间接A/D转换器的速度最慢,如双积分A/D转换器的转换时间大都在几十毫秒至几百毫秒之间。在实际应用中,应从系统数据总的位数 、精度要求、输入模拟信号的范围及输入信号极性等方面综合考虑A/D转换器的选用。

从前面给出的Sony列并行ADC电路的时序图来看,其采用的是双积分A/D转换器。

最大阱容(Full Well Capacity)和读出噪声(Read Noise)

最大阱容是每个像素可容纳电子的能力,这些电子是光电二极管从光子转换过来的。当像素容纳的电子越多,其电荷密度也相应增加。当光电二极管转换的电荷量达到或超过最大阱容时,就会出现电荷溢出到相邻像素等负效应。因此,最大阱容也是势阱存储电荷容量的上限,最大阱容是像素面积的函数,像素面积越大,最大阱容也越大。

读出噪声(read noise)用电子数表达,表示弱信号时的本底噪声(noise floor)。例如,读出噪声是10个电子,在一次曝光中如果一个像素中仅有一个光子转换为电子,信号将在噪声中消失。

老一点的CCD读出噪声大约为15-20个或更多。新的CCD在好一点的相机中大致是6-8个电子的范围,有些可以低到3-4个。当前最好的CMOS传感器的读出噪声为3-4个电子。下图是一些数码相机的读出噪声。其反映的趋势是读出噪声与像素的间距(大小)无关。

曝光时间少于一分钟,信噪比很低时,读出噪声占据主导地位。对长时间曝光来说,热噪声通常是主要的因素。热噪声随着温度和曝光时间的增加而增加。热噪声来自于暗电流中的噪声,噪声值为暗电流所产生电子数的平方根。
http://www.clarkvision.com/image ... erformance.summary/

Clark上述关于最大阱容和读出噪声的定义与业界公认的一致,没有什么问题。但5D2和D3的最大阱容居然是一样的,这点甚为可疑。

由于D3的像素面积是5D2的1.74倍,如果二者均按1700个电子/平方微米的密度,D3的最大阱容应该是114,100,高于5D2的65,700,也高于5D和1DMKII的80,000,位居榜首。


正在讨论的概念和原理
---------------------------------------------

动态范围(Dynamic Range)和宽容度(Latitude)
动态范围是在多个领域频繁使用的一个术语,一般用来描述如光和声这样有很大变化范围物理量的最大和最小值的比。

数码相机的动态范围有多种不同的定义,有直接按最暗和最亮光强之比的定义(如dpreview),也有最强信号与最弱信号(SNR>1)之比的定义(dxo)。最明确的是Clark的定义:

动态范围是在每档ISO的最大信号除以本底噪声。而本底噪声是传感器的读出噪声、模数转换限制和放大器噪声的组合。在评估数码相机时,这三个因素无法区分,通常被称为数码相机的读出噪声。所以,动态范围是最大阱容(full-well capacity)/最小读出噪声。
http://www.clarkvision.com/image ... erformance.summary/

由于其它定义存在二义性,讨论以Clark的动态范围定义展开。

宽容度是一个从胶片宽容度引申到数码相机的概念。下图为胶片的H&D曲线:
非常难得的 CMOS sensor 工作原理的深入技术科普_第16张图片

宽容度指的是H&D曲线上直线部分在横坐标上的投影范围,即宽容度定义为感光材料在摄影过程中按正比关系记录景物亮度反差的曝光量范围。这段投影范围没有包括趾部和肩部部分。
http://www2.xitek.com/info/showarticle.php?id=1982

类似胶片宽容度的定义,数码相机的宽容度是指传感器能够感光的最大光强与最小光强之比。

一般认为,数码相机的动态范围与宽容度是一致的。特别是国外的资料,只能找到胶片宽容度(Latitude of an emulsion), 关于数码相机的测评和有关资料中是找不到宽容度(Latitude)的,只有动态范围(Dynamic Range)。而动态范围的定义并不严格,比如维基百科关于动态范围的条目中,电子学的解释类似于Clark的定义,摄影的解释又与我们认为的宽容度类似。对数码相机这种用于摄影的电子产品,除非认为这两个概念是一致的,才能使用同一个概念。
http://en.wikipedia.org/wiki/Dynamic_range

我认为动态范围如果按Clark定义,与宽容度并不完全一致。动态范围和宽容度在上限上是一致的,但动态范围的下限要小于宽容度,即宽容度比动态范围要大。

显然,Clark也意识到了这一点,所以明确了其所指的动态范围是 full-well capacity / best read noise(最大阱容/最小读出噪声)。下面这张关于不同数码相机动态范围的对比图就是按照这个定义来比较的。

非常难得的 CMOS sensor 工作原理的深入技术科普_第17张图片

图中的横坐标是像素间距(微米),纵坐标是动态范围(档)。图上的两条曲线中绿色的读出噪声为2个电子,棕色的为4个电子。由于绿色曲线的读出噪声较小,因此位于其附近的数码相机的动态范围要高。

上图中5D2的动态范围最大。按照Clark给出的数据,5D2的线形动态范围是26300,换算成档为14.7档。是所比较相机中最高的。

然而,Clark的数据中5D2的最大阱容是65700,而D3是65600。这显然是有问题的。

下图为Clark给出的一些数码相机和传感器的最大阱容。

非常难得的 CMOS sensor 工作原理的深入技术科普_第18张图片

图中的横坐标是像素间距,纵坐标是像素的最大阱容。最大阱容是根据1700个电子/平方微米的电子密度计算(更高的电子密度将带来副作用方面的更大问题,包括溢出)。

按照Clark给出的数据:

5D2传感器的长边有5616个像素,短边为3744个像素。长边边长为36毫米,短边边长为24毫米。像素的长边为36/5616 = 6.41微米,短边为24/3744 = 6.41微米,面积为41.09平方微米。

D3传感器的长边有4256个像素,短边有2832个像素。长边边长36毫米,短边边长23.9毫米。像素的长边=36/4256 = 8.46微米,短边 = 23.9/2832 = 8.44微米,面积为71.38平方微米。D3的像素面积是5D2的1.74倍。

按照Clark给出的1700个电子/平方微米的密度来确定最大阱容,5D2的最大阱容为1700 X 41.09 = 69,855个电子,与给出的65,700接近。因此,D3的最大阱容为65700 X 1.74 = 114,100个电子。

按照Clark给出的数据,D3的读出噪声为4.9,线性动态范围 = 最大阱容/读出噪声,D3的线性动态范围 = 114100/4.9 = 23286。虽然仍然小于5D2的26300,但已经高于5D和1DMKII的20000以及1DMKIII的17500,折算为档约在14.5左右(位于5D的14.3和5D2的14.7之间)。

Clark在网页中提到其D3数据的来源:

Nikon D3 info derived from references 16 and 21; Reference 21 derives a saturated full well capacity of 65,568 electrons. This is in contrast to the stated (December 2007) 340,000 electrons in reference 16 (which is several times the full well capacity on a per square micron basis that any other CMOS or CCD sensor). For example, 340,000 gives 4761 electrons per square micron much higher than any published value I have seen. I will use ~137,000 electrons as the full well, which gives 1918 electrons / sq. micron, still a value that is probably too high.
http://www.clarkvision.com/image ... erformance.summary/

其中参考资料21(http://www.brisk.org.uk/photog/d35dcomp.html)给出了D3在ISO 200时的最大阱容为65,568个电子,但作为对比的5D在ISO 100时为61,900个电子,比D3还要低,按照这两个数值,D3的电子密度为918个/每平方微米,5D的电子密度为920个电子/每平方微米,均远低于1700个电子的理论密度。Clark在上图中5D的最大阱容是80,000个电子,比参考资料21给出的61,900高得多。按照上图中给出的数据,5D2的电子密度则为1600个电子/每平方微米。Clark给出1DMKII的最大阱容为79,900个电子,对应的电子密度为1,193个电子/平方微米,都比5D2的电子密度要小得多。如果D3按Clark上面所说137,000个电子的最大阱容计算,D3的线性动态范围将达到27,959,超过5D2。如果D3的最大阱容按5D2最大阱容的1.74倍算出的114,100个电子,则电子密度为1592个电子/平方微米,小于1700个电子/平方微米,与5D2一样。所以,Clark在确定D3的最大阱容以及动态范围时使用的数据是有问题的。

Clark也给出了读出噪声的比较图:

非常难得的 CMOS sensor 工作原理的深入技术科普_第19张图片
横坐标是像素间距,纵坐标是读出噪声。

目前佳能在读出噪声性能方面的技术是领先的,较低的读出噪声值 = 较好的性能。尼康目前是将读出噪声的平均值修剪为0,会丢失一些数据。佳能包括了一个偏移量,因此在处理一些原始转换时能保留低端的噪声,这对于用平均多帧来检测低亮度的对象(例如天文摄影)是很重要的。
http://www.clarkvision.com/image ... erformance.summary/

然而,正如前面所指出,含转移门管的4T像素以及全电荷转移CDS电路并非佳能的发明,索尼和尼康公司均能使用,佳能在读出噪声性能方面的技术并不是领先的。假定佳能5D2的读出噪声比尼康D3的读出噪声要小是不能成立的。

实际上,spot在本贴提出过一种测量相机本底噪声的方法并且测量了5D的本底噪声:

原文由 spot 在2010-01-12 15:33发表
今天做了个简单的试验,觉得很方便而且比较准确,不像拍白墙还有很多主观因素,这样可以省去很多无谓的口水。

不知道大家购机时有没有测试过CMOS的坏点和亮点。常用的一个小程序是DeadPixelTest,下载地址如下:http://www.newhua.com/soft/38746.htm。

这个程序的原理是很简单的,就是全黑拍摄一张照片,读入一个图像,然后计算图像中亮度超过一个指定阚值(Threshold)的象素数量。一般购机时指定的阚值都比较大,比如缺省亮点(hot)的阚值是60,坏点(dead)的阚值是250。我们现在把这个阚值设置成1,那么,这个小程序就转变成统计出图像中所有亮度大于1的象素总数。

全黑拍摄的方法是,盖住镜头盖,再用手或者遮光的东西挡住后面的取景器,把镜头打到MF(手动对焦),相机打到M档(手动曝光),然后只改变ISO设置(切记不要改快门速度),按快门就可以了。拍摄完成后,用原厂RAW转换程序,把图像转换成每通道8位的TIFF文件(JPG文件本身是有损压缩,会增加噪点,不够精确,但最终结论是一样的)。

这种拍摄条件下,毫无疑问,正确的象素应该全都是0,那么,我们认为,凡是大于等于1的都算成噪点。如果噪点来源就是相机CMOS本身固有的噪点,那么在与光线无关,以及相同的温度、湿度、曝光时间等条件下,噪点水平将与ISO无关,基本固定在同一个范围。

以下是我用5D测试的结果:

ISO100 第一次噪点数量170131 第二次噪点数量170249 

ISO1600 第一次噪点数量2229339 第二次噪点数量 2194615

结果很明显,这种全黑拍摄的测试结果,ISO1600下的噪点数量比ISO100下高出将近15倍。

大家都可以自己做一下。

这个试验的结论说明,ISO放大的确会显著增加噪点水平。

另, 补充说明,本测试只针对同一台相机进行不同ISO的比较,大家不要横向互相比较
[spot 编辑于 2010-01-12 15:42]

SPOT提出的这个方法其实是可以用来比较不同相机得本底噪声的,而且可以不受镜头的影响,也比较客观。只不过比较的结果表明尼康在降低相机本底噪声技术上不比佳能差,如果不是更好的话。

将DeadPixelTest的亮点(hot)阈值和坏点(dead)的阈值均设为1
用我的D3关闭机内降噪后,测试结果如下:
ISO     噪点数
100         0
200       362
400      8824
1600    531646
3200   2346234
6400   8332766

借了一台5D2,测试结果如下:
ISO     噪点数
100    293888
200     45323
400       465
1600     47096
3200   1344938
6400  11325530

显然,D3的降噪比5D要好得多。5D2的数据比较特别,可能是我不会用,不知道如何关闭其机内降噪,所以其机内降噪从ISO 200就开始工作,使得ISO200、ISO 400、ISO 1600的噪点数比ISO 100的还少。同时,由于5D2的像素比D3多了近一倍,其噪点数量多于D3很正常(像素越多,不一致性就越大,噪点也会越多)。因此可以认为二者的降噪技术在同一水平。

由于D3的读出噪声与5D2相当,但D3的像素面积是5D2像素面积的1.74倍,如果二者的溢出电荷密度相当,则D3的动态范围将是5D2的1.74倍,大了近一档。而不是Clark所认为的小了近一档。

根据Clark计算的单位增益(Unity Gain),D3的高感比5D2至少大一档。因此我们有理由认为:5D2的ISO比D3虚高了一档。如果严格按照ISO 12232的国际标准,5D2的宽容度比D3小一档。


单位增益(Unity Gain)

Clark认为:
影响传感器感光度的一个重要概念是量子效率。但相机性能的其它因素也起到了一定的作用,包括像素的尺寸以及覆盖在像素上的滤镜(马赛克RGBG滤镜,红外滤镜以及低通滤镜)传递。大像素收集更多的光线,就像一个大桶在暴雨中收集更多的雨滴一样。结合量子效率以及像素尺寸和滤镜(马赛克RGBG滤镜,红外滤镜以及低通滤镜)传递的参数被称为“单位增益ISO”。单位增益ISO是相机的模数转换器数字化1个电子到数字图像中的一个数值(DN)的ISO。进一步,假定一个12位的转换器并按比例将所有相机统一到单位增益ISO。由于1个电子(1个被转换的光子)是可数字化的最小量子,上述单位增益ISO会小量增加ISO(量子效率使小增益得以实现,但ISO增加,动态范围减少)。下图为几种相机和传感器的单位增益ISO。其清楚地显示了ISO性能是像素尺寸的函数。

非常难得的 CMOS sensor 工作原理的深入技术科普_第20张图片

单位增益是像素间距的函数。图中最低值是ISO 100,Canon S70 P&S相机,像素间距2.3微米。数码相机的最高值为ISO 1600,是Canon 5D,像素间距8.2微米。这表明在同样的光圈/快门速度下,5D收集的光子是小像素相机S70的16倍。不过ISO取决于相机生产厂商选择的放大器增益,单位增益ISO仅只是指导。例如5D和1DmkII有着同样像素尺寸,收集同样的光子数,却有着不同的单位增益ISO。尼康D3有8.46的像素间距,已经超出了这张图的顶部,见下图。

非常难得的 CMOS sensor 工作原理的深入技术科普_第21张图片

单位增益是像素间距的函数。与上图为同样的数据,只是比例被扩展。
http://www.clarkvision.com/image ... erformance.summary/

从Clark在其网页的Table 3b表中给出的数据可以看出,从ISO200起,D3在每一档ISO上,单位增益ISO都比5D2高出一倍:

ISO200,5D2为2.03,D3为4.1,ISO400,5D2为1.01,D3为2.1,ISO800,5D2为0.51,D3为1.1,ISO1600,5D2为0.25,D3为0.5,ISO3200,5D2为0.127,D3为0.25。

显然,大像素的D3在高ISO方面比5D2高出一档,也就是如上图所示。在同样光圈/快门下,小像素的S70在ISO100时的感光度,只相当于5D2设在ISO1600,D3设在ISO3200时的感光度。这表明从ISO200开始,5D2的感光度只相当于D3的一半,也就是D3可以比5D2感受更弱的光。

如果Clark给出的数据是正确的,那至少说明两个问题:

1、从ISO200开始,5D2标定的ISO与D3的不一致,与D3的标定相比,高标了一档。

2、D3可以比5D2感受更弱的光线。但按Clark给出的数据,5D2的读出噪声比D3还低一倍(2.5:4.9),而读出噪声是动态范围的下限,如果动态范围与宽容度是一样的,这两个数据明显矛盾。只有将宽容度解释为与动态范围不一致且宽容度的下限比动态范围的下限还要低,才能解释这个矛盾。所以我认为,如果按照Clark动态范围的定义,只能认为宽容度与动态范围是不一样的,宽容度的下限低于动态范围的下限。

根据A/D转换电路的原理,Clark的下述定义是有问题的:

A parameter that combines the quantum efficiency and the total converted photons in a pixel, which factors in the size of the pixel and the transmission of the filters (the Bayer RGBG filter, blur filter, IR blocking filter), is called the "Unity Gain ISO." The Unity Gain ISO is the ISO of the camera where the A/D converter digitizes 1 electron to 1 data number (DN) in the digital image.

结合量子效率以及像素尺寸和滤镜(马赛克RGBG滤镜,红外滤镜以及低通滤镜)传输的参数被称为“单位增益ISO”。单位增益ISO是相机的模数转换器数字化1个电子到数字图像中的一个数值(DN)的ISO。
http://www.clarkvision.com/image ... erformance.summary/

首先,ADC无法数字化一个电子(负电荷)到数字图像中的一个数值(DN),因为CMOS像素输出的信号是电压而是不是电子。因此,输入ADC的模拟信号是电压而不是电子。

其次,使得ADC产生输出的最小输入信号取决于ADC的分辨率和像素输出信号的最大值。例如,如果像素输出信号电压的最大值为5V,则使一个14位ADC输出的最低位从二进制的0转换为1,需要的输入信号电压是0.31毫伏。假定CMOS像素中的放大器Msf增益为10倍,则加在Msf放大管栅极上的电压为0.031毫伏,这个电压 = 电荷量/最大阱容,按照Clark给出的5D2的最大阱容65,700个电子计算,产生0.031毫伏电压的电荷量 = 2个电子(负电荷)。

第三,ADC的最小输出与ISO无关,反映的是传感器的感光度,也就是使得传感器能够产生输出的最小曝光量。如果按Clark给出的45%的量子效率按上面的例子计算,就是像素在接收到2/0.45 = 5个光子时,在不考虑读出噪声的情况下,才能使得14位的ADC产生一个最小输出。

所以,Clark关于单位增益ISO的定义是错误的,有关的图和数据也不应该按照单位增益ISO来解释。



按照Clark的说法:“ISO取决于相机生产厂商选择的放大器增益,单位增益ISO仅只是指导”,厂家要提高ISO似乎只需要改变ISO放大器的增益。而根据ISO 12232:2006的对ISO速度报告的定义,厂家应该按照国际标准测定相机的感光度并据此标定ISO速度,而不是通过改变放大器的增益来确定ISO速度。实际上,ISO 12232明确规定ISO的范围就是宽容度范围,只是某些厂家在某些型号的相机上没有按照ISO12232的要求来标定ISO,造成了用户的误解和困惑。

低照度感光系数(Low-Light Sensitivity Factor)

Clark认为:
单位增益ISO描述了在高ISO时图像的高信号部分(高光),而读出噪声特性则对应照片的低信号端。但如果相机接受更多的光子给像素,读出噪声无法单独反映阴影的特性。“低照度感光系数”描述了在高ISO下的阴影的特性(下图)。其也描述了在高ISO下曝光10秒以上阴影部分的低光特性。在天体摄影中,在热噪声还没有成为主要因素之前曝光,高的低照度感光系数将能记录更昏暗的星星。

非常难得的 CMOS sensor 工作原理的深入技术科普_第22张图片
低照度感光系数描述了在高ISO下显示图象阴影或暗部的相机特性。低照度感光系数 = 读出噪声单位除以单位增益ISO(电子)。较高的值表示在高ISO时具有纪录阴影细节方面更好的性能。
http://www.clarkvision.com/image ... erformance.summary/

低照度感光系数(Low-Light Sensitivity Factor)似乎也只是Clark的一家之言,从其定义看有较大的问题。读出噪声本身就是就是噪声分布的平均值,将其除以单位增益ISO意义不清楚,很难想象这个定义能够更好的表示传感器或相机的暗光性能。Clark搞出这样一个系数的目的很清楚,就是想说明佳能相机降噪好,读出噪声低,可以在一定程度上抵消尼康相机像素面积大、收集光子多的优势。所以,在上图中5D2的低照度感光系数与D3的相差无几。

Clark先生是佳能的粉丝,但比国内的某些佳能粉丝要理性的多。在其文章的最后Clark先生指出:

It is this predictable signal and noise model that allows us to predict the performance of digital cameras. It also shows us that those waiting for the small pixel camera to improve and equal the performance of today's large pixel DSLR will have a long wait: it simply can not happen because of the laws of physics. So, if you need high ISO and/or low light performance, the only solution is a camera with large pixels.

可以预料,信号和噪声的模型允许我们预测数码相机的性能。这告诉我们改进小像素相机使其等于今天的大像素DSLR的性能将要等待很长时间:由于物理定律这不可能简简单单的发生。因此,如果我们需要高ISO以及/或者暗光性能,仅有的解决方案是拥有大像素的相机。
http://www.clarkvision.com/image ... erformance.summary/

有人说过,在爱情面前女人的智商趋于零。我认为在偏见面前男人的理性趋于零,偏见越深,理性越少。即使是Clark这样有理性的人,虽然在DSLR与小DC的比较中他得出了正确的结论,但在DSLR范围内,其结论就只对佳能的DSLR有效了,似乎物理定律只作用于佳能的DSLR而对其它公司的DSLR无效。这一点从其给出的理论模型和数据可以很容易地看出来。

传感器性能模型(Sensor Performance Model) 

Clark在图(即前面引用的除读出噪声之外的图)中给出的曲线是根据其提出的理论模型绘制的。Clark认为:

图中的传感器模型虽然很简单,但精确描述了许多传感器。那些与模型有较大距离的数据点通常是一些老的传感器。比如填充系数较低,低质量的微透镜以及较低的量子效率等等,新的传感器倾向于更接近模型。

模型假定目前的数码相机量子效率相似(约45%),最大阱容 = 1,700个电子/每平方微米(激活面积的电子密度),读噪声 = 4个电子(除非另有其它读出噪声值)以及在像素之间有0.5微米的隔离区(在2008年12月以前在网页中显示的图中,对APS-C和较大的传感器使用过1微米的隔离区,但新的相机数据表明0.5微米的隔离区更合适)。例如,某传感器的像素间距为3.5微米,激活面积为9平方微米,收集9 X 1700 = 15,300个电子。(后面部分涉及到的AIQ图和衍射图暂不涉及,故没有翻译)。
http://www.clarkvision.com/image ... erformance.summary/

无论是Clark先生的图还是给出的数据中,除了单位增益ISO之外,D3的数据都距理论曲线较远,而佳能的相机,特别是5D2,基本上都是在理论曲线上或者附近。这表明要么D3的性能很差,要么Clark先生的理论模型或者D3的数据有问题。但正如Clark正确指出的那样:是物理定律决定了大像素比高像素在高ISO或暗光方面(包括天文摄影在内)有更好的性能,因此只能认为Clark先生的理论模型或使用的数据有问题了。



势阱(Potential Well)和阱容(Well Capacity)

这部分是我的观点,并非定论。如果有同学认为不对,可发表看法提出不同意见来讨论。非常希望有理有据的不同意见和看法来纠正我的错误。如果没有有力的反驳和不同意见,我将坚持我的观点。

从CMOS-APS像素的电路原理图中可以看出,光电二极管、Mrst管和Msf管之间形成了一个电容,快门开启后,光电二极管接收到光子后产生电流,在快门打开期间,电荷量等于电流乘以快门开启时间,这些电荷在这个电容内积累(对时间积分),在快门关闭后这个电容中的电荷就是像素在本次曝光中接受到的电荷量。

非常难得的 CMOS sensor 工作原理的深入技术科普_第23张图片

根据公式电容(C)等于电荷量(Q)除以电压(V),而电容C是一个常量,可以得到电压(V) = 电荷量(Q)/电容(C)。也就是加在Msf管栅极上的这个电压与电荷数成正比,这个电压被Msf管放大,在Msel管选通后做为像素的输出信号电压。

这个电容是MOS电容,在很多资料中被称为势阱(Potential Well)。阱容是每个像素的势阱容纳电荷的能力,而最大阱容(Full Well Capacity)就是势阱中的电荷溢出或饱和时的容量。

在曝光期间,光电二极管受到光的照射后产生电流I,在曝光时间t内光电二极管转换的电荷量Q = I X t。这些电荷存储在像素的势阱中,势阱可以容纳电荷的最大容量就是最大阱容。传感器做好后,最大阱容就是一个确定的值,因此可以应用电容公式:V = Q/C来计算信号电压。式中的C是最大阱容,Q是电荷量,V是电压。这个电压被像素中的放大器放大后作为像素的信号电压输出。从式中可以看出,像素的输出信号电压与电荷量Q成正比。

这里有一个比较关键的问题,就是势阱的容量如何确定?与哪些因素相关?

一般的平板电容按照电容公式与平板的面积成正比,像素的阱容是否也与会与像素的面积成正比呢?按Clark的理论模型:

The model assumes a quantum efficiency similar to current digital camera sensors (~45%), a full well capacity = 1,700 electrons per active square micron (the electron density), read noise = 4 electrons (except where noted for other read noise values) and a 0.5-micron dead space between pixels.
http://www.clarkvision.com/image ... erformance.summary/

即最大阱容于像素面积成正比,最大阱容是像素可记录的最大信号,当信号强度超过最大阱容时将会饱和或溢出。另一方面,像素的感光面积决定了其可检测的最小信号,而像素的感光面积也是与像素的面积成正比。其结构如下图所示:

非常难得的 CMOS sensor 工作原理的深入技术科普_第24张图片

上图是一个CCD像素的结构示意图,我用在这里是想要说明像素的感光面积与势阱面积不是一回事。虽然CCD和CMOS像素是有区别的,但区别不在这里。因为无论是CMOS像素还是CCD像素都有一个光电二极管,这个光电二极管的受光面积才是像素的感光面积,而无论是CMOS像素还是CCD像素也都有一个势阱来存储光生电荷,而这个势阱的面积与光电二极管的受光面积可以做成一样的,也可以做成不一样的。这一点在CCD像素中比较明显,而CMOS像素中不是那么明显。使得很多人误以为像素的感光面积等于像素的势阱面积,而要论证清楚我的观点这一点是非常重要的。

CCD器件没有CMOS器件特有的CMOS填充系数问题。如上图所示,虽然光电二极管(蓝色部分)也只是像素的一部分,但通过微透镜可以将整个像素面积上的所有光线都集中到光电二极管的受光面积上,因为势阱与光电二极管在同一个平面上,所以不会阻挡光线。因此,CCD的CMOS填充系数可以看作是1,或开口率为100%。这就是为何很多小DC用CCD器件的原因,如果撇开CCD器件的其它问题(如大尺寸传感器成品率低等),用CCD器件相当于使用了SONY的背照式技术CMOS。

那么,势阱面积(上图中的红色部分)也就是图中标出的电荷存储区起到了什么作用呢?可以用富士的Super CCD SR来说明这个问题。如下图所示:

非常难得的 CMOS sensor 工作原理的深入技术科普_第25张图片

富士的CCD SR是指CCD传感器的每个坐标位置由两个像素构成,一个是R像素,受光面积小,主要用于接收高光信号。另一个是S像素,受光面积大,主要接受弱光信号。由于是两个不同的像素,所以其光电二极管的受光面积和势阱面积也是不一样的,其原理可用下图来说明:

非常难得的 CMOS sensor 工作原理的深入技术科普_第26张图片

显然,大像素S的光电二极管受光面积大,接受的光子多,小像素R的光电二极管受光面积小,接受的光子少,这一眼就能看出来。但请仔细考虑一下,这是否就表明大像素S就一定会比小像素R先饱和?

上图的横坐标是进光量,在照度不变的情况下,进光量(曝光量)与曝光时间成正比,因此,小像素S达到饱和点的时间是大像素S的4倍(400%比100%),这一点富士是如何做到的?

在前面的讨论中,有同学举了一个比喻来说明像素的受光面积与像素输出电压的关系:

在下雨天中放两个面积不同的两个盆,如果下的雨是均匀的,那么这两个盆的水位是一样的。因此,像素的输出信号电压与像素的受光面积大小无关。

实际也是这么回事,在雨天中,如果下的雨是均匀的(相当于照度不变),大小盆的水位确实是一样高(相当于电压或电荷密度一样高)。也就是说,如果大盆的水位溢出盆外(相当于饱和),小盆的水也会溢出盆外。按照这个推理,当大像素S饱和时,小像素R也必然同时饱和。那么,富士的Super CCD SR技术岂不是没有意义了吗?

几天来很少有同学正面回答这个问题,也许是问题不清晰。我再贴一张截自佳能CMOS传感器白皮书的图来说明这个问题:

非常难得的 CMOS sensor 工作原理的深入技术科普_第27张图片

如上图所示,佳能指出,大像素的面积是小像素的5倍,收集到的光也是小像素的5倍,存储电荷的容量也是小像素的5倍,但大像素和小像素存储电荷的高度是相等的,因此溢出或饱和点是一样的。

那么,富士又是怎么做到让大像素S比小像素R先溢出的?

简单说富士的Super CCD SR实际上是让S象素的感光面积大而电荷存储面积小,而R像素的感光面积小而电荷存储面积大。S像素的感光面积比R像素的感光面积大使得S像素在同样照度下产生的光生电荷比R像素的多。同时,由于S像素的电荷存储面积比S像素的电荷存储面积小使得在同样时间中S像素的电荷密度(电压)比R像素的电荷密度(电压)高。因此,S像素就会比R像素先达到电荷饱和密度(饱和电压)。

用接雨水的例子说明就是S像素的形状像一个有底的漏斗,能够接雨水的面积大但存雨水的面积小。而R像素的形状像一个口小肚大的罐子,能够接雨水的面积小而存雨水的面积大,在二者高度相等、雨量均匀的情况下,漏斗形状的容器比罐子形状的容器会先溢出。

实际上,只要设计好S像素和R像素的感光面积和电荷存储面积,比如S像素的感光面积是R像素的2倍,但S像素的电荷存储面积是R像素的1/2,就可以让R象素的溢出时间是S像素的4倍。这也表明,R像素在传感器芯片上实际占据的面积与S像素是一样大的,只是其开口(感光面积)较小而已。

关于宽容度与ISO设置范围

许多同学认为ISO可设置的范围与传感器的宽容度无关,对我认为ISO可设置范围大表明传感器的宽容度也大的观点提出质疑。我对此问题已经回答过很多次了,但考虑到新加入讨论的同学可能没有看到我的理由。因此将其放到首贴里:

1、无论是模拟还是数字ISO放大器都只可能对输入的信号进行放大,而输入放大器的信号只可能是感光传感器的输出信号。所以,ISO放大器的工作范围必然要在感光传感器的宽容度范围内,其能放大的最小信号就是感光传感器宽容度的下限,也就是感光传感器能够输出的最小信号,最大信号就是感光传感器宽容度的上限,也就是感光传感器能够输出的最大信号。

2、在正常拍摄的情况下需要用到高ISO的时候是光线较弱的时候,光线越暗,需要提升的ISO值也就越高。而光线暗表明感光传感器接收到的信号弱。因此,可设置的最高ISO与感光传感器宽容度的下限对应,即对弱信号有较高的放大能力,但不可能超过宽容度的下限,因为信号如果弱于感光传感器的宽容度下限传感器没有输出信号。另一方面,光线越强,需要设置的ISO越低,起跳ISO对应的是感光传感器宽容度的上限,此时感光传感器接收的光信号也最强,但最低ISO不可能超过感光传感器宽容度的上限,因为信号强度超过传感器宽容度的上限将会使得其饱和。所以,ISO的设置范围只能等于或小于感光传感器的宽容度。

3、由于ISO放大器的增益是要根据ISO的设置来调节的,不同于用于增强信号的固定增益放大器,可作为单独的电路来工作,因此应该尽量避免引入放大噪声,所以,无论其是模拟放大器还是数字放大器都不会是噪声的主要来源。

根据以上三点,认为ISO设置范围与感光传感器的宽容度无关的观点是不能成立的。由于还没有人能推翻以上论点,我依然坚持ISO的设置范围与传感器的宽容度相关,ISO设置范围大的传感器其宽容度也较大,因为ISO的设置范围不可能超过传感器的宽容度。

关于ISO放大电路的原理和机制

一、此前我认为ISO放大电路是数字电路的依据有两点:
1、CMOS像素中有A/D转换电路,而ISO放大器不可能是像素中的放大器,因为ISO放大器的增益必须可调,而像素中的放大器其增益应该是固定的。所以,ISO放大器只可能在A/D之后。在柯纳和DVCOM兄指出我将CMOS-APS当成了CMOS-DPS之后,这个依据自然无法成立,因此我放弃了ISO放大器一定是数字电路的观点。

2、ISO放大电路从原理上看,首先是ISO值可以设置,而设置电路部分不仅要输入(即改变ISO值)数值而且还需要与相机的测光子系统以及除手动之外的P/A/S档联动,这些都需要通过相机的主控CPU才能实现,故ISO放大器的增益控制电路应该是数字电路。因此,即使第1点不成立,ISO放大器或放大电路也必然会包含数字电路部分。

所以,ISO放大电路即使不是数字电路也一定是数模混合电路,而不可能是模拟电路。只是我认为ISO放大电路是数字电路还是模拟电路与本主题讨论的问题关系不大,所以没有查资料来证实这个看法。当spot从网上搜出ISO放大器是一种Programmable Gain Amplifier(可编程增益放大器)时证实了我的这个看法,因为任何可编程的器件要么是数字电路,要么是数模混合电路,唯独不可能是模拟电路。

二、任何信号放大器的目的都是放大信号,但放大器无法识别出信号与噪声,因此放大的时候肯定是眉毛胡子一把抓,将噪声和信号一起放大。如果是模拟放大器,放大器本身也是噪声源。而ISO放大器的增益与光信号的强弱成反比,光线越弱,需要提升的ISO越高或者说放大器的增益越大。而传感器输出的信噪比与入射光线的强弱正相关,也就是光线越强,信噪比越高,光线越弱,信噪比越低。因此,如果ISO放大器本身的噪声也很高的话,那么这种放大将毫无意义,虽然信号被放大但噪声也被放大而且还增加了,反而降低了信噪比。所以,ISO放大器必须是低噪声的器件,也就是不可能是主要的噪声源。认为照片或文件中的噪点主要来源于ISO放大器从逻辑上是不能成立的,拍片实验的结果也证明了这一点。

三、既然ISO放大器不是主要的噪声源,那就说明噪点在被ISO放大器放大前就已经存在并且会被ISO放大器放大。这说明如果面对同一场景(场景应有相当的反差,不能是一张白纸或一堵白墙)时在低ISO设置(比如ISO 200)下拍摄一张照片没有发现噪点,在场景亮度不变的情况下不改变光圈/快门,仅提高ISO(比如到ISO 3200)再拍摄一张照片能够在暗部发现噪点的原因是这些噪点原来是看不见的,通过ISO放大器放大后才能看见。换句话说,在这种特定情况下(对同一场景亮度不变,不改变光圈/快门只提升ISO),低ISO时拍摄的照片中没有看见噪点不等于这些噪点不存在于照片或文件中,只是其没有足够的亮度而不能被看见。在高ISO时能看到这些噪点是因为ISO放大器放大了噪点的亮度使这些噪点变得可见。

由于暗部的信噪比小,所以噪点一般出现在暗部而不是亮部。如果拍摄的场景是一张白纸或一堵白墙的话,由于空白的纸或墙基本上没有反差或反差极小(在直方图上是一个亮度范围很窄的垂直区域),只要在低ISO时曝光正确,无论是低ISO或高ISO(放大前以及放大后)拍的片子都不可能发现噪点,因为其信噪比已经足够高并且是一样的(只有在有反差的情况下才会有不同的信噪比,亮部信噪比高而暗部信噪比低)。

四、数码相机的ISO放大电路与测光系统是关联的,测光前必须先要设定ISO,这一点对许多没有用过测光表的同学来说可能没有意识到。带自动测光系统的相机都预设了起始的ISO,在一般情况下是相机的起跳ISO,比如ISO 100。因此,即使没有设置ISO,在测光的时候ISO实际上也在发挥作用。比如在P档半按快门测光后光圈为5.6,快门速度为1/15S,此时相机可能是设置在ISO 100上而拍摄者完全没有意识到这一点。在同样场景、同样亮度下改变ISO必然会改变相机的快门或光圈。比如将ISO从100提升到200后半按快门测光,在光圈不变的情况下,速度将变为1/30s。所以,在正常拍摄的情况下,改变ISO将会改变光圈快门或者通光量。

从ISO放大电路的原理看,无论其是在A/D转换前还是转换后都对我的基本观点没有什么影响,所以在搞清楚其原理和机制之后对这个问题的讨论就到此结束。当然,如果有同学认为我关于ISO原理和机制的观点有问题,也欢迎继续发表意见,如果提出的意见有道理并且能在实践中得到验证,我会欣然接受并修改自己的观点。

你可能感兴趣的:(非常难得的 CMOS sensor 工作原理的深入技术科普)