CMOS/CCD图像传感器的工作原理

无论是CCD还是CMOS,它们都采用感光元件作为影像捕获的基本手段,CCD/CMOS感光元件的核心都是一个感光二极管(photodiode),该二极管在接受光线照射之后能够产生输出电流,而电流的强度则与光照的强度对应。
但在周边组成上,CCD的感光元件与CMOS的感光元件并不相同,前者的感光元件除了感光二极管之外,包括一个用于控制相邻电荷的存储单元,感光二极管占据了绝大多数面积,换一种说法就是,CCD感光元件中的有效感光面积较大,在同等条件下可接收到较强的光信号,对应的输出电信号也更明晰。而CMOS感光元件的构成就比较复杂,除处于核心地位的感光二极管之外,它还包括放大器与模数转换电路,每个像点的构成为一个感光二极管和三颗晶体管,而感光二极管占据的面积只是整个元件的一小部分,造成CMOS传感器的开口率远低于CCD(开口率:有效感光区域与整个感光元件的面积比值)
这样在接受同等光照及元件大小相同的情况下,CMOS感光元件所能捕捉到的光信号就明显小于CCD元件,灵敏度较低;体现在输出结果上,就是CMOS传感器捕捉到的图像内容不如CCD传感器来得丰富,图像细节丢失情况严重且噪声明显,这也是早期CMOS传感器只能用于低端场合的一大原因。
CMOS开口率低造成的另一个麻烦在于,它的像素点密度无法做到媲美CCD的地步,因为随着密度的提高,感光元件的比重面积将因此缩小,而CMOS开口率太低,有效感光区域小得可怜,图像细节丢失情况会愈为严重。因此在传感器尺寸相同的前提下,CCD的像素规模总是高于同时期的CMOS传感器,这也是CMOS长期以来都未能进入主流数码相机市场的重要原因之一。
每个感光元件对应图像传感器中的一个像点,由于感光元件只能感应光的强度,无法捕获色彩信息,因此必须在感光元件上方覆盖彩色滤光片。在这方面,不同的传感器厂商有不同的解决方案,最常用的做法是覆盖RGB红绿蓝三色滤光片,以1:2:1的构成由四个像点构成一个彩色像素(即红蓝滤光片分别覆盖一个像点,剩下的两个像点都覆盖绿色滤光片),采取这种比例的原因是人眼对绿色较为敏感。而索尼的四色CCD技术则将其中的一个绿色滤光片换为翡翠绿色(英文Emerald,有些媒体称为E通道),由此组成新的R、G、B、E四色方案。不管是哪一种技术方案,都要四个像点才能够构成一个彩色像素,这一点大家务必要预先明确。
在接受光照之后,感光元件产生对应的电流,电流大小与光强对应,因此感光元件直接输出的电信号是模拟的。
CCD传感器中,每一个感光元件都不对此作进一步的处理,而是将它直接输出到下一个感光元件的存储单元,结合该元件生成的模拟信号后再输出给第三个感光元件,依次类推,直到结合最后一个感光元件的信号才能形成统一的输出。由于感光元件生成的电信号实在太微弱了,无法直接进行模数转换工作,因此这些输出数据必须做统一的放大处理这项任务是由CCD传感器中的放大器专门负责,经放大器处理之后,每个像点的电信号强度都获得【同样幅度的增大】;但由于CCD本身无法将模拟信号直接转换为数字信号,因此还需要一个专门的【模数转换芯片】进行处理,最终以二进制数字图像矩阵的形式输出给专门的DSP处理芯片。

而对于CMOS传感器,上述工作流程就完全不适用了。CMOS传感器中每一个感光元件都直接整合了放大器和模数转换逻辑,当感光二极管接受光照、产生模拟的电信号之后,电信号首先被该感光元件中的放大器放大,然后直接转换成对应的数字信号。换句话说,在CMOS传感器中,每一个感光元件都可产生最终的数字输出,所得数字信号合并之后被直接送交DSP芯片处理问题恰恰是发生在这里,CMOS感光元件中的放大器属于模拟器件,无法保证【每个像点的放大率都保持严格一致】,致使放大后的图像数据无法代表拍摄物体的原貌体现在最终的输出结果上,就是图像中出现大量的噪声,品质明显低于CCD传感器。

你可能感兴趣的:(传感器,职场,二极管,休闲)