遥感图像融合(一)——遥感图像的相关概念

一、遥感影像

      遥感,意思是“遥远的感知”,现代遥感的定义是:不直接接触有关目标物或现象而能收集信息,并能对其进行分析,解译和分类等的一种技术。

      1.定义:凡是只记录各种地物电磁波大小的胶片,称为遥感影像

      2.用计算机处理的遥感影像必须是数字图像,拍摄出的模拟图像需必须使用图像扫描仪进行模数(A/D)转换。

      3. 图像分为空间域频率域空间域和频率域又分别有光学图像数字图像。(此处只介绍数字图像)

     3.1 空间域表示形式:

     数字图像是一个二维的、离散的光密度函数,相对于光学图像,它在空间坐标(x,y)和密度上都已经离散化,空间坐标x,y仅取离散值,即:

      x=x0+m△x

      y=y0+m△y 

      m=1,2,3…m-1;△x和△y为离散化的坐标间隔。

      同时f(x,y)也为离散值,一般取值为 0<=f(x,y)<=127或0<=f(x,y)<=255

      数字图像可以用矩阵表示,矩阵中的每个元素称为像元。

      3.2频率域表示形式:

       

    


      其中N是x方向上的数目,M是y方向上的数目,F(u,v)包含原始图像f(x,y)的空间频率的信息,成为频谱,它是一个复函数,可以表示为:

       F(u,v)=R(u,v)+iI(u,v)

       等价于F(u,v)=|F(u,v)|e^iφ(u,v)

       其中|F(u,v)|是傅里叶变换的振幅,为根号下R和I函数平方和

     4.特征

      (1)地面分辨率:对于地面而言,可以识别的最小地面距离或最小目标物的大小

              空间分辨率:对于遥感器或图像而言,图像上能够详细区分的最小单元的尺寸或大小,距离越小,分辨率越高

      (2)光谱分辨率:遥感器接受目标辐射时能分辨的最小波长间隔。间隔越小,分辨率越高。所选用的波段的数量的多少、各波段波长的位置,以及波长间隔的大小共同决定光谱分辨率。光谱分辨率和空间分辨率对于传感器而言是相互制约的,即光谱分辨率高,空间分辨率一定高不起来。

      (3)时间分辨率:重复观测的最小的时间间隔

      (4)辐射分辨率探测器的灵敏度——遥感器感测元件在接收光谱信号时能分辨的最小辐射度差

二、多光谱图像(Multi Spectral,MS)和全色(Panchromatic,PAN)图像

      遥感图像融合(一)——遥感图像的相关概念_第1张图片

       1.全色图像:传感器获得整个全色波段(0.5μm~0.75μm的单波段)的黑白影像,因为是单波段,所以是灰度图片,无法获取地物色彩,但是分辨率高。

       2.多光谱图像:传感器对地物辐射的多个波段进行获取得到多个波段的光谱信息的影像,对不同的波段分别赋予RGB颜色,得到彩色图片。

       全色影像接收的波长范围在绿色波长以后(500-750nm左右),长于多光谱影像的波长范围,所以光谱分辨率也小于多光谱影像,则空间分辨率更高。

      全色影像的分辨率高于多光谱影像的原因:

一是光谱分辨率和空间分辨率彼此制约,全色影像的光谱分辨率低,所以空间分辨率高;

二为对于多光谱影像来说,光束经过分光 ,带给传感器的能量减少了,所以空间分辨率低。

参考文章:https://blog.csdn.net/u013177494/article/details/73380204

你可能感兴趣的:(图像融合)