envi神经网络分类原理,ENVI神经网络分类

envi神经网络分类原理,ENVI神经网络分类_第1张图片

1、envi 中几种分类方法的参数怎么设置?

envi 中几种分类方法的参数设置方法如下:
1、平行六面体
(1)在主菜单中,选择Classification->Supervised->Parallelpiped,在文件输入对话框中选择TM分类影像,单击OK按钮打开Parallelpiped参数设置面板。
(2)SelectClasses from Regions:单击Select All Items按钮,选择全部的训练样本。
(3)Set Max stdev from Mean:设置标准差阈值,有三种类型:
l None:不设置标准差阈值;
l Single Value:为所有类别设置一个标准差阈值;
l Multiple Values:分别为每一个类别设置一个标准差阈值。
选择Single Value,值为3。
(4)单击Preview,可以在右边窗口中预览分类结果,单击Change View可以改变预览区域。
(5)选择分类结果的输出路径及文件名。
(6)设置Out Rule Images为Yes,选择规则图像输出路径及文件名。
(7)单击OK按钮执行分类。
2、最小距离
(1)在主菜单中,选择Classification->Supervised-> Minimum Distance,在文件输入对话框中选择TM分类影像,单击OK按钮打开Minimum Distance参数设置面板。
(2)SelectClasses from Regions:单击Select All Items按钮,选择全部的训练样本。
(3)Set Max stdev from Mean:设置标准差阈值,有三种类型:
l None:不设置标准差阈值;
l Single Value:为所有类别设置一个标准差阈值;
l Multiple Values:分别为每一个类别设置一个标准差阈值。
选择Single Value,值为4。
(4)Set Max Distance Error:设置最大距离误差,以DN值方式输入一个值,距离大于该值的像元不被分入该类(如果不满足所有类别的最大距离误差,它们就不会被归为未分类类(unclassified))。也有三种类型,这里选择None。
(5)单击Preview,可以在右边窗口中预览分类结果,单击Change View可以改变预览区域。
(6)选择分类结果的输出路径及文件名。
(7)设置Out Rule Images为Yes,选择规则图像输出路径及文件名。
(8)单击OK按钮执行分类。

3、马氏距离
(1)在主菜单中,选择Classification->Supervised-> Mahalanobis Distance,在文件输入对话框中选择TM分类影像。单击OK按钮打开Mahalanobis Distance参数设置面板。
(2)SelectClasses from Regions:单击Select All Items按钮,选择全部的训练样本。
(3)Set Max Distance Error:设置最大距离误差,以DN值方式输入一个值,距离大于该值的像元不被分入该类(如果不满足所有类别的最大距离误差,它们就不会被归为未分类类(unclassified))。也有三种类型,这里选择None。
(4)单击Preview,可以在右边窗口中预览分类结果,单击Change View可以改变预览区域。
(5)选择分类结果的输出路径及文件名。
(6)设置Out Rule Images为Yes,选择规则图像输出路径及文件名。
(7)单击OK按钮执行分类。
4. 最大似然
(1)在主菜单中,选择Classification->Supervised-> Likelihood Classification,在文件输入对话框中选择TM分类影像。单击OK按钮打开Likelihood Classification参数设置面板。
(2)SelectClasses from Regions:单击Select All Items按钮,选择全部的训练样本。
(3)Set Probability Threshold:设置似然度的阈值。如果选择Single Value,则在“Probability Threshold”文本框中,输入一个0到1之间的值,似然度小于该阈值不被分入该类。这里选择None。
(4)Data Scale Factor:输入一个数据比例系数。这个比例系数是一个比值系数,用于将整型反射率或辐射率数据转化为浮点型数据。例如:如果反射率数据在范围0-10000之间,则设定的比例系数就为10000。对于没有定标的整型数据,也就是原始DN值,将比例系数设为2n-1,n为数据的比特数,例如:对于8-bit数据,设定的比例系数为255,对于10-bit数据,设定的比例系数为1023,对于11-bit数据,设定的比例系数为2047。
(5)单击Preview,可以在右边窗口中预览分类结果,单击Change View可以改变预览区域。
(6)选择分类结果的输出路径及文件名。
(7)设置Out Rule Images为Yes,选择规则图像输出路径及文件名。
(8)单击OK按钮执行分类。
5. 神经网络
(1)在主菜单中,选择Classification->Supervised-> Neural Net Classification,在文件输入对话框中选择TM分类影像。单击OK按钮打开Neural Net Classification参数设置面板。
(2)SelectClasses from Regions:单击Select All Items按钮,选择全部的训练样本。
(3)Activation:选择活化函数。对数(Logistic)和双曲线(Hyperbolic)。
(4)Training Threshold Contribution:输入训练贡献阈值(0-1)。该参数决定了与活化节点级别相关的内部权重的贡献量。它用于调节节点内部权重的变化。训练算法交互式地调整节点间的权重和节点阈值,从而使输出层和响应误差达到最小。将该参数设置为0不会调整节点的内部权重。适当调整节点的内部权重可以生成一幅较好的分类图像,但是如果设置的权重太大,对分类结果也会产生不良影响。
(5)Training Rate:设置权重调节速度(0~1)。参数值越大则使训练速度越快,但也增加摆动或者使训练结果不收敛。
(6)Training Momentum:输入一个0~1的值。该值大于0时,在“Training Rate”文本框中键入较大值不会引起摆动。该值越大,训练的步幅越大。该参数的作用是促使权重沿当前方向改变。
(7)Training RMS Exit Criteria:指定RMS误差为何值时,训练应该停止。RMS误差值在训练过程中将显示在图表中,当该值小于输入值时,即使还没有达到迭代次数,训练也会停止,然后开始进行分类。
(8)Number of Hidden Layers:键入所用隐藏层的数量。要进行线性分类,键入值为0。没有隐藏层,不同的输入区域必须与一个单独的超平面线性分离。要进行非线性分类,输入值应该大于或等于1,当输入的区域并非线性分离或需要两个超平面才能区分类别时,必须拥有至少一个隐藏层才能解决这个问题。两个隐藏层用于区分输入空间,空间中的不同要素不临近也不相连。
(9)Number of Training Iterations:输入用于训练的迭代次数。
(10)Min Output Activation Threshold:输入一个最小输出活化阈值。如果被分类像元的活化值小于该阈值,在输出的分类中,该像元将被归入未分类中(unclassified)。
(11)选择分类结果的输出路径及文件名。
(12)设置Out Rule Images为Yes,选择规则图像输出路径及文件名。
(13)单击OK按钮执行分类。
6、支持向量机
(1)在主菜单中,选择Classification->Supervised-> Support Vector Machine Classification,在文件输入对话框中选择TM分类影像。单击OK按钮打开Support Vector Machine Classification参数设置面板。
(2)Kernel Type下拉列表里选项有 Linear,Polynomial,Radial Basis Function,以及Sigmoid。
l 如果选择Polynomial,设置一个核心多项式(Degree of Kernel Polynomial)的次数用于SVM,最小值是1,最大值是6。
l 如果选择Polynomial or Sigmoid,使用向量机规则需要为Kernel指定 the Bias ,默认值是1。
l 如果选择是 Polynomial、Radial Basis Function、Sigmoid,需要设置Gamma in Kernel Function参数。这个值是一个大于零的浮点型数据。默认值是输入图像波段数的倒数。
(3)Penalty Parameter:这个值是一个大于零的浮点型数据。这个参数控制了样本错误与分类刚性延伸之间的平衡, 默认值是100。
(4)Pyramid Levels:设置分级处理等级,用于SVM训练和分类处理过程。如果这个值为0,将以原始分辨率处理;最大值随着图像的大小而改变,
(5)Pyramid Reclassification Threshold(0~1):当Pyramid Levels值大于0时候需要设置这个重分类阈值。
(6)Classification Probability Threshold: 为分类设置概率域值,如果一个像素计算得到所有的规则概率小于该值,该像素将不被分类,范围是0~1,默认是0。
(7)选择分类结果的输出路径及文件名。
(8)设置Out Rule Images为Yes,选择规则图像输出路径及文件名。
(9)单击OK按钮执行分类。

谷歌人工智能写作项目:小发猫

2、ENVI神经网络法如何使用?

你要先看envi里有没有神经网络这个融合方法,没有的话,下一个神经网络的补丁,再进行操作envi神经网络分类公式。

3、 人工神经网络分类方法

从20世纪80年代末期,人工神经网络方法开始应用于遥感图像的自动分类。目前,在遥感图像的自动分类方面,应用和研究比较多的人工神经网络方法主要有以下几种:

(1)BP(Back Propagation)神经网络,这是一种应用较广泛的前馈式网络,属于有监督分类算法,它将先验知识融于网络学习之中,加以最大限度地利用,适应性好,在类别数少的情况下能够得到相当高的精度,但是其网络的学习主要采用误差修正算法,识别对象种类多时,随着网络规模的扩大,需要的计算过程较长,收敛缓慢而不稳定,且识别精度难以达到要求。

(2)Hopfield神经网络。属于反馈式网络。主要采用Hebb规则进行学习,一般情况下计算的收敛速度较快。这种网络是美国物理学家J.J.Hopfield于1982年首先提出的,它主要用于模拟生物神经网络的记忆机理。Hopfield神经网络状态的演变过程是一个非线性动力学系统,可以用一组非线性差分方程来描述。系统的稳定性可用所谓的“能量函数”进行分析,在满足一定条件下,某种“能量函数”的能量在网络运行过程中不断地减少,最后趋于稳定的平衡状态。Hopfield网络的演变过程是一种计算联想记忆或求解优化问题的过程。

(3)Kohonen网络。这是一种由芬兰赫尔辛基大学神经网络专家Kohonen(1981)提出的自组织神经网络,其采用了无导师信息的学习算法,这种学习算法仅根据输入数据的属性而调整权值,进而完成向环境学习、自动分类和聚类等任务。其最大的优点是最终的各个相邻聚类之间是有相似关系的,即使识别时把样本映射到了一个错误的节点,它也倾向于被识别成同一个因素或者一个相近的因素,这就十分接近人的识别特性。

4、神经网络有哪些主要分类规则并如何分类?

神经网络模型的分类
人工神经网络的模型很多,可以按照不同的方法进行分类。其中,常见的两种分类方法是,按照网络连接的拓朴结构分类和按照网络内部的信息流向分类。
1
按照网络拓朴结构分类
网络的拓朴结构,即神经元之间的连接方式。按此划分,可将神经网络结构分为两大类:层次型结构和互联型结构。
层次型结构的神经网络将神经元按功能和顺序的不同分为输出层、中间层(隐层)、输出层。输出层各神经元负责接收来自外界的输入信息,并传给中间各隐层神经元;隐层是神经网络的内部信息处理层,负责信息变换。根据需要可设计为一层或多层;最后一个隐层将信息传递给输出层神经元经进一步处理后向外界输出信息处理结果。
而互连型网络结构中,任意两个节点之间都可能存在连接路径,因此可以根据网络中节点的连接程度将互连型网络细分为三种情况:全互连型、局部互连型和稀疏连接型
2
按照网络信息流向分类
从神经网络内部信息传递方向来看,可以分为两种类型:前馈型网络和反馈型网络。
单纯前馈网络的结构与分层网络结构相同,前馈是因网络信息处理的方向是从输入层到各隐层再到输出层逐层进行而得名的。前馈型网络中前一层的输出是下一层的输入,信息的处理具有逐层传递进行的方向性,一般不存在反馈环路。因此这类网络很容易串联起来建立多层前馈网络。
反馈型网络的结构与单层全互连结构网络相同。在反馈型网络中的所有节点都具有信息处理功能,而且每个节点既可以从外界接受输入,同时又可以向外界输出。

5、神经网络算法的三大类分别是?

神经网络算法的三大类分别是:

1、前馈神经网络:

这是实际应用中最常见的神经网络类型。第一层是输入,最后一层是输出。如果有多个隐藏层,我们称之为“深度”神经网络。他们计算出一系列改变样本相似性的变换。各层神经元的活动是前一层活动的非线性函数。

2、循环网络:

循环网络在他们的连接图中定向了循环,这意味着你可以按照箭头回到你开始的地方。他们可以有复杂的动态,使其很难训练。他们更具有生物真实性。

循环网络的目的是用来处理序列数据。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多问题却无能无力。

循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。

3、对称连接网络:

对称连接网络有点像循环网络,但是单元之间的连接是对称的(它们在两个方向上权重相同)。比起循环网络,对称连接网络更容易分析。

这个网络中有更多的限制,因为它们遵守能量函数定律。没有隐藏单元的对称连接网络被称为“Hopfield 网络”。有隐藏单元的对称连接的网络被称为玻尔兹曼机。

扩展资料:

应用及发展:

心理学家和认知科学家研究神经网络的目的在于探索人脑加工、储存和搜索信息的机制,弄清人脑功能的机理,建立人类认知过程的微结构理论。

生物学、医学、脑科学专家试图通过神经网络的研究推动脑科学向定量、精确和理论化体系发展,同时也寄希望于临床医学的新突破;信息处理和计算机科学家研究这一问题的目的在于寻求新的途径以解决不能解决或解决起来有极大困难的大量问题,构造更加逼近人脑功能的新一代计算机。

6、神经网络如何做分类?

建议你看看《神经网络设计》
最简单的神经元,输入p之后,输出为a=f(wp+b),f通常为对数S型传输函数,w为参数,b也是参数,根据训练样本得到。

你可能感兴趣的:(运维,神经网络,分类,机器学习,数据分析)