神经网络聚类方法:SOM算法原理

一个神经网络接收外界输入模式时,将会分为不同的对应区域,各区域对输入模式有不同的响应特征,而这个过程是自动完成的。其特点与人脑的自组织特性类似。SOM的目标是用低维(通常是二维或三维)目标空间的点来表示高维空间中的所有点,尽可能地保持点间的距离和邻近关系(拓扑关系)。


自组织神经网络:是无导师学习网络。它通过自动寻找样本中的内在规律和本质属性,自组织,自适应地改变网络参数与结构。


结构:

SOM为层次型结构。典型结构是:输入层加竞争层

输入层:接收外界信息,将输入模式向竞争层传递,起“观察”作用

竞争层:负责对输入模式进行“分析比较”,寻找规律并归类。


竞争学习规则就是从神经元细胞的侧抑制现象获得的,它的学习步骤如下:

(1)向量归一化

对自组织网络中的当前输入模式向量X、竞争层中各神经元对应的内星权向量,全部进行归一化处理,得到

                                                                      ,       

(2)寻找获胜神经元

与竞争层所有神经元对应的内星权向量(j = 1,2,...,m)进行相似性对比。最相似的神经元获胜,权向量为.

(3)网络输出与权调整

按WTA学习法则,获胜神经元输出为“1”,其余为0,即

                                                                               

只有获胜神经元才有权调整其权向量,其权向量学习调整如下:

                                                 

为学习效率,一般随着学习多维进展而减少,即调整的程度越来越小,趋于聚类中心。

(4)重新归一化处理

归一化后的权向量经过调整后,得到的新向量不再是单位向量,因此要对学习调整后的向量重新归一化,循环运算,直到学习率衰减到0.


SOM算法原理:

SOM人工神经网络是一个可以在一维或二维的处理单元阵列上,形成输入信号的特征拓扑分布,结构如图一所示。网络模拟了人类大脑神经网络自组织特征映射的功能。该网络由输入层和输出层组成,其中输入层的神经元个数的选取按输入网络的向量个数而定,输入神经元为一维矩阵,接收网络的输入信号,输出层则是由神经元按一定的方式排列成一个二维节点矩阵。输入层的神经元与输出层的神经元通过权值相互联结在一起。当网络接收到外部的输入信号以后,输出层的某个神经元便会兴奋起来.

                                                                                            SOM神经网络模型

                                                        神经网络聚类方法:SOM算法原理_第1张图片

                                                                神经网络聚类方法:SOM算法原理_第2张图片

         神经网络聚类方法:SOM算法原理_第3张图片

优点:它将相邻关系强加在簇质心上,所以,互为邻居的簇之间比非邻居的簇之间更相关。这种联系有利于聚类结果的解释和可视化。

缺点:(1)用户必选选择参数、邻域函数、网格类型和质心个数

            (2)一个SOM簇通常并不对应单个自然簇、可能有自然簇的合并和分裂。

            (3)缺乏具体的目标函数

            (4)SOM不保证收敛,尽管实际中它通常收敛


SOM的应用:

(1)汽轮发电机多故障诊断的SOM神经网络方法

(2)基于SOM神经网络的柴油机故障诊断

                                                         

你可能感兴趣的:(数据挖掘,神经网络,SOM,神经网络,数据挖掘)