我对遥感影像分类的理解(1)

研究遥感影像首先要拿到影像数据,常见的有全色、rgb、多光谱、高光谱和超光谱。全色图像由于没有滤波过程,因此观察相同的空间维度,其空间分辨率要比rgb图像高得多。rgb图像本质上是红(0.630~0.680um)、绿(0.525~0.600um)、蓝(0.450~0.515um)三个波段混合后的图像,贴近人眼的观察,因此我们称之为“真彩色图像”;而全色图像由于只获取0.380~0.76um0这一波段的信息,却是灰度图像。多光谱、高光谱和超光谱类似于rgb图像,波段范围扩大,而波段的划分也愈发细致,因此包含的光谱特征也越多。

就像我们吃的千层饼,每一个被划分的波段就是一层,我们用一根竹签刺破这张千层饼,每一层便留下了一个细微的孔洞,而我们从上空俯视便只看得到一个洞——这个洞就是我们遥感图像上的一个像素。每个像素在每一层留下的标记连续起来便是这一像素全部的光谱特征,我们可以用一个曲线来表示。可以想象,水体、植被、房屋的曲线是不同的,因为他们是不同的地物,其光谱特征必定不相同。我们也就可以利用这种不同来进行遥感影像的分类。

传统基于光谱特征的遥感影像分类选取一些光谱特征作为每一个像素点的特征值,即每一个即将被分类的像素对象都具有多个属性值,通过K-means、最大最小距离法、极大似然法等方法将每个像素看作数据场中的数据点进行聚类,聚类形成的不同簇团也就是遥感影像上的不同类别,分类就成功了。

随着遥感技术的发展,图像分辨率不断提高,光谱特征愈发丰富,这导致了光谱类间差异变小,同类差异变大的问题,对于我们进行遥感影响分类的工作是不利的。我觉得应当选择一个合适的光谱图像进行分类,但往往数据的获取不允许你这么做,同样我们也无法精确衡量到底哪种精度才算是“合适“。

因此我们可能需要考虑其他的一些方法,而不仅仅是聚类;也需要考虑光谱特征之外的特征,如几何特征和空间特征等。

你可能感兴趣的:(机器学习与遥感图像处理)