图像区域分解为具有有限面积的像素点意味着光强信息是被固定的位置和大小的区域获取的。途中表示位置信息的连续模拟信号被离散坐标点代替了。也就是说,xi和yi并不能够取任意值,它们在图像系统中是一些固定的坐标点,是空间坐标的量化。因为系统中使用了量化,二维空间的信息就成了固定的坐标点,这时只需要获得光强信息即可。一个灰度图的三维信息就被压缩到了一维。因为所有坐标点的个数就是图像传感器中像素点的个数,更多的像素点意味着系统能够达到更高的空间频率,也就是更高的分辨率。
我们提到彩色图像的图像信息由光强,空间位置和波长组成。与灰度图相比,彩色图像还必须获取波长信息。有很多种方式来收集波长信息,我们这里只涉及*常用的使用单传感器的彩色成像系统。常见的彩色成像系统使用彩色滤色片阵列(Color FilterArray),也被称为拜尔滤色镜(BayerFilter),排列在感光区上方。图1.7展示了CFA的一种常见的排列方式,由2x2四个像素点组成一个循环单元。这个单元包含了三原色:红(R),绿(G),蓝(B)。对于单个像素点,只有一种特定的彩色滤色片放置在其上方。彩色图像的像素点不仅包含通常的感光区域还包括了一个彩色滤色片。因为人眼对绿色的敏感度很高,我们使用了更多的绿色滤色片,类似棋盘格的形式来摆放绿色滤色片,以期得到有着更高空间分辨率的图像。红色和蓝色滤色片每隔一行与绿色滤色片错落放置。
使用这种结构,每个像素点只包含RGB中的一种色彩。波长的分布是连续的、模拟的,却只有三种色彩。因为对一个像素的识别一位着对其色彩的识别,波长信号也包含系统中固定坐标点的颜色和位置信息。对于三维空间c中一个坐标点(R,G或B),像素k和颜色l结合在一起的输出可以表示为S(rk,cl)。每个像素点和颜色坐标的信号集合就构成了整个彩色图像的信息