•常见的综合评定方法分为两类:
•(1)综合评定法:直接评分法(专家打分综合法)、总分法、加权综合评定法、AHP+模糊综合评判、模糊神经网络评价法、待定系数法及分类法.
•现代综合评价方法:层次分析法(Analytic Hierarchy Process,AHP)、数据包络分析法(Data Envelopment Analysis,DEA)、人工神经网络评价法(Artificial Neural Network,ANN)、灰色综合评价法、模糊综合评定法
•两种经典的综合评判决策:
•总分法:S=ΣSi.加权综合评定法:E=ΣaiSi
•(2)两两比较法:顺序法和优序法.
常见的评价类模型
•层次分析法
•模糊综合评价法
•神经网络算法
模糊综合评价算法
•1965年,美国著名自动控制专家查德(L.A. Zadeh)教授提出了模糊(fuzzy)的概念,并发表了第一篇用数学方法研究模糊现象的论文“模糊集合”(fuzzy set)。他提出用“模糊集合”作为表现模糊事物的数学模型。并在“模糊集合”上逐步建立运算、变换规律,开展有关的理论研究,就有可能构造出研究现实世界中的大量模糊的数学基础,能够对看来相当复杂的模糊系统进行定量的描述和处理的数学方法。
•在模糊集合中,给定范围内元素对它的隶属关系不一定只有“是”或“否”两种情况,而是用介于0和1之间的实数来表示隶属程度,还存在中间过渡状态。比如“老人”是个模糊概念,70岁的肯定属于老人,它的从属程度是 1,40岁的人肯定不算老人,它的从属程度为 0,按照查德给出的公式,55岁属于“老”的程度为0.5,即“半老”,60岁属于“老”的程度0.8。查德认为,指明各个元素的隶属集合,就等于指定了一个集合。当隶属于0和1之间值时,就是模糊集合,即论域上的元素符合概念的程度不是绝对的0或1(不是或是),而是介于0和1之间的一个实数。
BP神经网络
1、BP网络构建
(1)生成BP网络
:由维的输入样本最小最大值构成的维矩阵。
:各层的神经元个数。
*通常情况输入层神经元个数与选取的指标相关,隐含层通常不超过输入层的2 倍
:各层的神经元传递函数。
*常用的传递函数
purelin:线性传递函数
tansig:正切S型传递函数
logsig:对数S型传递函数
:训练用函数的名称。
(2)网络训练
(3)网络仿真
BP网络的训练函数
训练方法 |
训练函数 |
梯度下降法 |
traingd |
有动量的梯度下降法 |
traingdm |
自适应lr梯度下降法 |
traingda |
自适应lr动量梯度下降法 |
traingdx |
弹性梯度下降法 |
trainrp |
Fletcher-Reeves共轭梯度法 |
traincgf |
Ploak-Ribiere共轭梯度法 |
traincgp |
Powell-Beale共轭梯度法 |
traincgb |
量化共轭梯度法 |
trainscg |
拟牛顿算法 |
trainbfg |
一步正割算法 |
trainoss |
Levenberg-Marquardt |
trainlm |
BP网络训练参数
训练参数 |
参数介绍 |
训练函数 |
net.trainParam.epochs |
最大训练次数(缺省为10) |
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm |
net.trainParam.goal |
训练要求精度(缺省为0) |
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm |
net.trainParam.lr |
学习率(缺省为0.01) |
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm |
net.trainParam.max_fail |
最大失败次数(缺省为5) |
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm |
net.trainParam.min_grad |
最小梯度要求(缺省为1e-10) |
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm |
net.trainParam.show |
显示训练迭代过程(NaN表示不显示,缺省为25) |
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm |
net.trainParam.time |
最大训练时间(缺省为inf) |
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm |
net.trainParam.mc |
动量因子(缺省0.9) |
traingdm、traingdx |
net.trainParam.lr_inc |
学习率lr增长比(缺省为1.05) |
traingda、traingdx |
net.trainParam.lr_dec |
学习率lr下降比(缺省为0.7) |
traingda、traingdx |
net.trainParam.max_perf_inc |
表现函数增加最大比(缺省为1.04) |
traingda、traingdx |
net.trainParam.delt_inc |
权值变化增加量(缺省为1.2) |
trainrp |
net.trainParam.delt_dec |
权值变化减小量(缺省为0.5) |
trainrp |
net.trainParam.delt0 |
初始权值变化(缺省为0.07) |
trainrp |
net.trainParam.deltamax |
权值变化最大值(缺省为50.0) |
trainrp |
net.trainParam.searchFcn |
一维线性搜索方法(缺省为srchcha) |
traincgf、traincgp、traincgb、trainbfg、trainoss |
net.trainParam.sigma |
因为二次求导对权值调整的影响参数(缺省值5.0e-5) |
trainscg |
net.trainParam.lambda |
Hessian矩阵不确定性调节参数(缺省为5.0e-7) |
trainscg |
net.trainParam.men_reduc |
控制计算机内存/速度的参量,内存较大设为1,否则设为2(缺省为1) |
trainlm |
net.trainParam.mu |
的初始值(缺省为0.001) |
trainlm |
net.trainParam.mu_dec |
的减小率(缺省为0.1) |
trainlm |
net.trainParam.mu_inc |
的增长率(缺省为10) |
trainlm |
net.trainParam.mu_max |
的最大值(缺省为1e10) |
trainlm |
2、BP网络举例
举例1、
%traingd
clear;
clc;
P=[-1 -1 2 2 4;0 5 0 5 7];
T=[-1 -1 1 1 -1];
%利用minmax函数求输入样本范围
net = newff(minmax(P),[5,1],{'tansig','purelin'},'trainrp');
net.trainParam.show=50;%
net.trainParam.lr=0.05;
net.trainParam.epochs=300;
net.trainParam.goal=1e-5;
[net,tr]=train(net,P,T);
net.iw{1,1}%隐层权值
net.b{1}%隐层阈值
net.lw{2,1}%输出层权值
net.b{2}%输出层阈值
sim(net,P)
举例2、利用三层BP神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。
样本数据:
输入X |
输出D |
输入X |
输出D |
输入X |
输出D |
-1.0000 |
-0.9602 |
-0.3000 |
0.1336 |
0.4000 |
0.3072 |
-0.9000 |
-0.5770 |
-0.2000 |
-0.2013 |
0.5000 |
0.3960 |
-0.8000 |
-0.0729 |
-0.1000 |
-0.4344 |
0.6000 |
0.3449 |
-0.7000 |
0.3771 |
0 |
-0.5000 |
0.7000 |
0.1816 |
-0.6000 |
0.6405 |
0.1000 |
-0.3930 |
0.8000 |
-0.3120 |
-0.5000 |
0.6600 |
0.2000 |
-0.1647 |
0.9000 |
-0.2189 |
-0.4000 |
0.4609 |
0.3000 |
-0.0988 |
1.0000 |
-0.3201 |
解:
看到期望输出的范围是,所以利用双极性Sigmoid函数作为转移函数。
程序如下:
clear;
clc;
X=-1:0.1:1;
D=[-0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609...
0.1336 -0.2013 -0.4344 -0.5000 -0.3930 -0.1647 -.0988...
0.3072 0.3960 0.3449 0.1816 -0.312 -0.2189 -0.3201];
figure;
plot(X,D,'*'); %绘制原始数据分布图(附录:1-1)
net = newff([-1 1],[5 1],{'tansig','tansig'});
net.trainParam.epochs = 100; %训练的最大次数
net.trainParam.goal = 0.005; %全局最小误差
net = train(net,X,D);
O = sim(net,X);
figure;
plot(X,D,'*',X,O); %绘制训练后得到的结果和误差曲线(附录:1-2、1-3)
V = net.iw{1,1}%输入层到中间层权值
theta1 = net.b{1}%中间层各神经元阈值
W = net.lw{2,1}%中间层到输出层权值
theta2 = net.b{2}%输出层各神经元阈值
所得结果如下:
输入层到中间层的权值:
中间层各神经元的阈值:
中间层到输出层的权值:
输出层各神经元的阈值:
举例3、利用三层BP神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。
样本数据:
输入X |
输出D |
输入X |
输出D |
输入X |
输出D |
0 |
0 |
4 |
4 |
8 |
2 |
1 |
1 |
5 |
3 |
9 |
3 |
2 |
2 |
6 |
2 |
10 |
4 |
3 |
3 |
7 |
1 |
|
|
解:
看到期望输出的范围超出,所以输出层神经元利用线性函数作为转移函数。
程序如下:
clear;
clc;
X = [0 1 2 3 4 5 6 7 8 9 10];
D = [0 1 2 3 4 3 2 1 2 3 4];
figure;
plot(X,D,'*'); %绘制原始数据分布图
net = newff([0 10],[5 1],{'tansig','purelin'})
net.trainParam.epochs = 100;
net.trainParam.goal=0.005;
net=train(net,X,D);
O=sim(net,X);
figure;
plot(X,D,'*',X,O); %绘制训练后得到的结果和误差曲线(附录:2-2、2-3)
V = net.iw{1,1}%输入层到中间层权值
theta1 = net.b{1}%中间层各神经元阈值
W = net.lw{2,1}%中间层到输出层权值
theta2 = net.b{2}%输出层各神经元阈值
所得结果如下:
输入层到中间层的权值:
中间层各神经元的阈值:
中间层到输出层的权值:
输出层各神经元的阈值:
问题:以下是上证指数2009年2月2日到3月27日的收盘价格,构建一个三层BP神经网络,利用该组信号的6个过去值预测信号的将来值。
日期 |
价格 |
日期 |
价格 |
2009/02/02 |
2011.682 |
2009/03/02 |
2093.452 |
2009/02/03 |
2060.812 |
2009/03/03 |
2071.432 |
2009/02/04 |
2107.751 |
2009/03/04 |
2198.112 |
2009/02/05 |
2098.021 |
2009/03/05 |
2221.082 |
2009/02/06 |
2181.241 |
2009/03/06 |
2193.012 |
2009/02/09 |
2224.711 |
2009/03/09 |
2118.752 |
2009/02/10 |
2265.161 |
2009/03/10 |
2158.572 |
2009/02/11 |
2260.822 |
2009/03/11 |
2139.021 |
2009/02/12 |
2248.092 |
2009/03/12 |
2133.881 |
2009/02/13 |
2320.792 |
2009/03/13 |
2128.851 |
2009/02/16 |
2389.392 |
2009/03/16 |
2153.291 |
2009/02/17 |
2319.442 |
2009/03/17 |
2218.331 |
2009/02/18 |
2209.862 |
2009/03/18 |
2223.731 |
2009/02/19 |
2227.132 |
2009/03/19 |
2265.761 |
2009/02/20 |
2261.482 |
2009/03/20 |
2281.091 |
2009/02/23 |
2305.782 |
2009/03/23 |
2325.481 |
2009/02/24 |
2200.652 |
2009/03/24 |
2338.421 |
2009/02/25 |
2206.572 |
2009/03/25 |
2291.551 |
2009/02/26 |
2121.252 |
2009/03/26 |
2361.701 |
2009/02/27 |
2082.852 |
2009/03/27 |
2374.44 |
注:https://blog.csdn.net/wuchangi/article/details/79236016#newff%E5%87%BD%E6%95%B0%E6%96%B0%E7%89%88%E6%9C%AC