【神经网络】多层前馈神经网络 BP ( 附 MATLAB 源程序)

【神经网络】多层前馈神经网络 BP (附MATLAB程序)


文章目录

  • 【神经网络】多层前馈神经网络 BP (附MATLAB程序)
    • 1、数据预处理
      • 1.1 什么是归一化?
      • 1.2 为什么要归一化处理?
      • 1.3 归一化算法
      • 1.4 Matlab数据归一化处理函数
        • 1.4.1 premnmx
        • 1.4.2 tramnmx
        • 1.4.3 postmnmx
    • 2、 使用Matlab实现神经网络
      • 2.1 newff函数
        • 2.1.1 newff函数语法
        • 2.1.2 常用的激活函数
        • 2.1.3 常见的训练函数
        • 2.1.4 网络配置参数
      • 2.2 train函数
      • 2.3 sim函数
    • 3、参数设置对神经网络性能的影响
      • 3.1 隐含层节点个数
      • 3.2 激活函数的选择
      • 3.3 学习率的选择
    • 4、Matlab BP神经网络实例


1、数据预处理

​  ​ ​在训练神经网络前一般需要对数据进行预处理,一种重要的预处理手段是归一化处理。下面简要介绍归一化处理的原理与方法。

1.1 什么是归一化?

​  ​数据归一化是将数据映射到[0,1]或[-1,1]区间或更小的区间,比如(0.1,0.9)

1.2 为什么要归一化处理?

 ​​  ​(1) 输入数据的单位不一样,有些数据的范围可能特别大,导致的结果是神经网络收敛慢、训练时间长。

 ​​  ​(2)数据范围大的输入在模式分类中的作用可能会偏大,而数据范围小的输入作用就可能会偏小。

 ​​  ​(3)由于神经网络输出层的激活函数的值域是有限制的,因此需要将网络训练的目标数据映射到激活函数的值域。例如神经网络的输出层若采用S形激活函数,由于S形函数的值域限制在(0,1),也就是说神经网络的输出只能限制在(0,1),所以训练数据的输出就要归一化到[0,1]区间。

 ​​  ​(4)S形激活函数在(0,1)区间以外区域很平缓,区分度太小。例如S形函数f(X)在参数a=1时,f(100)与f(5)只相差0.0067。

MATLAB中文论坛:在议归一化问题

1.3 归一化算法

  数据归一化应该针对属性,而不是针对每条数据,针对每条数据是完全没有意义的,因为只是等比例缩放,对之后的分类没有任何作用。这是我遇到的 第一个坑。
 ​​  ​一种简单而快速的归一化算法是线性转换算法。线性转换算法常见有两种形式:

  • y = ( x - min )/( max - min )

 ​​  ​其中min为x的最小值,max为x的最大值,输入向量为x,归一化后的输出向量为y 。上式将数据归一化到 [ 0 , 1 ]区间,当激活函数采用S形函数时(值域为(0,1))时这条式子适用。

  • y = 2 * ( x - min ) / ( max - min ) - 1
     ​​  ​这条公式将数据归一化到 [ -1 , 1 ] 区间。当激活函数采用双极S形函数(值域为(-1,1))时这条式子适用。

1.4 Matlab数据归一化处理函数

  训练集和测试集归一化的方法应该相同,但是在具体实验过程中,脑子发生了短路,对训练集的归一化是针对属性的,但是测试集却针对了数据,这是我遇到的 第二个坑。

 ​​  ​Matlab中归一化处理数据可以采用premnmx , postmnmx , tramnmx 这3个函数。

1.4.1 premnmx

语法:[pn,minp,maxp,tn,mint,maxt] = premnmx(p,t)

参数

 ​​  ​pn: p矩阵按行归一化后的矩阵

 ​​  ​minp,maxp:p矩阵每一行的最小值,最大值

 ​​  ​tn:t矩阵按行归一化后的矩阵

 ​​  ​mint,maxt:t矩阵每一行的最小值,最大值

作用:将矩阵p,t归一化到[-1,1] ,主要用于归一化处理训练数据集。

1.4.2 tramnmx

语法:[pn] = tramnmx(p,minp,maxp)

参数

 ​​  ​minp,maxp:premnmx函数计算的矩阵的最小,最大值

 ​​  ​pn:归一化后的矩阵

作用:主要用于归一化处理待分类的输入数据。

1.4.3 postmnmx

语法: [p,t] = postmnmx(pn,minp,maxp,tn,mint,maxt)

参数

 ​​  ​minp,maxp:premnmx函数计算的p矩阵每行的最小值,最大值

 ​​  ​mint,maxt:premnmx函数计算的t矩阵每行的最小值,最大值

作用:将矩阵pn,tn映射回归一化处理前的范围。postmnmx函数主要用于将神经网络的输出结果映射回归一化前的数据范围。


2、 使用Matlab实现神经网络

使用Matlab建立前馈神经网络主要会使用到下面3个函数:

 ​​  ​newff :前馈网络创建函数

 ​​  ​train:训练一个神经网络

 ​​  ​sim :使用网络进行仿真

下面简要介绍这3个函数的用法。

2.1 newff函数

2.1.1 newff函数语法

 ​​  ​newff函数参数列表有很多的可选参数,具体可以参考Matlab的帮助文档,这里介绍newff函数的一种简单的形式。

语法:net = newff ( A, B, {C} ,‘trainFun’)

参数

 ​​  ​A:一个n×2的矩阵,第i行元素为输入信号xi的最小值和最大值;

 ​​  ​B:一个k维行向量,其元素为网络中各层节点数;

 ​​  ​C:一个k维字符串行向量,每一分量为对应层神经元的激活函数

 ​​  ​trainFun :为学习规则采用的训练算法

2.1.2 常用的激活函数

 ​​  ​常用的激活函数有:

a) 线性函数 (Linear transfer function)

​ ​​  ​ f(x) = x 该函数的字符串为’purelin’

b) 对数S形转移函数( Logarithmic sigmoid transfer function )

img 该函数的字符串为’logsig’

c) 双曲正切S形函数 (Hyperbolic tangent sigmoid transfer function )

img

 ​​  ​也就是上面所提到的双极S形函数, 该函数的字符串为’tansig’

 ​​  ​Matlab的安装目录下的toolbox\nnet\nnet\nntransfer子目录中有所有激活函数的定义说明。

2.1.3 常见的训练函数

常见的训练函数有:

 ​​  ​traingd :梯度下降BP训练函数(Gradient descent backpropagation)

 ​​  ​traingdx :梯度下降自适应学习率训练函数

2.1.4 网络配置参数

一些重要的网络配置参数如下:

 ​​  ​net.trainparam.goal :神经网络训练的目标误差

 ​​  ​net.trainparam.show : 显示中间结果的周期

 ​​  ​net.trainparam.epochs  :最大迭代次数

 ​​  ​net.trainParam.lr : 学习率

2.2 train函数

 ​​  ​网络训练学习函数

语法:[ net, tr, Y1, E ] = train( net, X, Y )

参数

 ​​  ​X:网络实际输入

 ​​  ​Y:网络应有输出

 ​​  ​tr:训练跟踪信息

 ​​  ​Y1:网络实际输出

 ​​  ​E:误差矩阵

2.3 sim函数

语法:Y=sim(net,X)

参数

 ​​  ​net:网络

 ​​  ​X:输入给网络的K×N矩阵,其中K为网络输入个数,N为数据样本数

 ​​  ​Y:输出矩阵Q×N,其中Q为网络输出个数


3、参数设置对神经网络性能的影响

 ​​  ​我在实验中通过调整隐含层节点数,选择不通过的激活函数,设定不同的学习率

3.1 隐含层节点个数

 ​​  ​隐含层节点的个数对于识别率的影响并不大,但是节点个数过多会增加运算量,使得训练较慢。

3.2 激活函数的选择

 ​​  ​ 激活函数无论对于识别率或收敛速度都有显著的影响。在逼近高次曲线时,S形函数精度比线性函数要高得多,但计算量也要大得多。

3.3 学习率的选择

 ​​  ​学习率影响着网络收敛的速度,以及网络能否收敛。学习率设置偏小可以保证网络收敛,但是收敛较慢。相反,学习率设置偏大则有可能使网络训练不收敛,影响识别效果。


4、Matlab BP神经网络实例

 ​​  ​我将Iris数据集分为2组,每组各75个样本,每组中每种花各有25个样本。其中一组作为以上程序的训练样本,另外一组作为检验样本。为了方便训练,将3类花分别编号为1,2,3 。

 ​​  ​使用这些数据训练一个4输入(分别对应4个特征),3输出(分别对应该样本属于某一品种的可能性大小)的前向网络。

 ​​  Matlab源码:BP神经网络实例


你可能感兴趣的:(算法,算法,神经网络,Algorithm)