【bp预测】基于模拟退火遗传算法优化BP神经网络的钢带厚度预测

一、模拟退火算法

模拟退火算法:

       为了解决局部最优解问题, 1983年,Kirkpatrick等提出了模拟退火算法(SA)能有效的解决局部最优解问题。我们知道在分子和原子的世界中,能量越大,意味着分子和原子越不稳定,当能量越低时,原子越稳定。‘退火’是物理学术语,指对物体加温在冷却的过程。模拟退火算法来源于晶体冷却的过程,如果固体不处于最低能量状态,给固体加热再冷却,随着温度缓慢下降,固体中的原子按照一定形状排列,形成高密度、低能量的有规则晶体,对应于算法中的全局最优解。而如果温度下降过快,可能导致原子缺少足够的时间排列成晶体的结构,结果产生了具有较高能量的非晶体,这就是局部最优解。因此就可以根据退火的过程,给其在增加一点能量,然后在冷却,如果增加能量,跳出了局部最优解,这本次退火就是成功的,下面我们就详细讲讲他是如何在局部最优解跳出来到全局最优解的:

        模拟退火算法包含两个部分即Metropolis算法和退火过程。Metropolis算法就是如何在局部最优解的情况下让其跳出来,是退火的基础。1953年Metropolis提出重要性采样方法,即以概率来接受新状态,而不是使用完全确定的规则,称为Metropolis准则,计算量较低。下面先形象的说一下,然后在因此数学公式:

    假设开始状态在A,随着迭代次数更新到B的局部最优解,这时发现更新到B时,能力比A要低,则说明接近最优解了,因此百分百转移,状态到达B后,发现下一步能量上升了,如果是梯度下降则是不允许继续向前的,而这里会以一定的概率跳出这个坑,这各概率和当前的状态、能量等都有关系,下面会详细说,如果B最终跳出来了到达C,又会继续以一定的概率跳出来,可能有人会迷惑会不会跳回之前的B呢?下面会解释,直到到达D后,就会稳定下来。所以说这个概率的设计是很重要的,下面从数学方面进行解释。

    假设前一个状态为x(n),系统根据某一指标(梯度下降,上节的能量),状态变为x(n+1),相应的,系统的能量由E(n)变为E(n+1),定义系统由x(n)变为x(n+1)的接受概率P为:

                                         P = \left\{\begin{matrix} 1, E(n+1)<E(n)& \\ & \\ & \\ e^{-\frac{E(n+1) - E(n)}{T}}, E(n+1) \geq E(n)& \end{matrix}\right.

从上式我们可以看到,如果能量减小了,那么这种转移就被接受(概率为1),如果能量增大了,就说明系统偏离全局最优值位置更远了,此时算法不会立刻将其抛弃,而是进行概率操作:首先在区间【0,1】产生一个均匀分布的随机数\varepsilon,如果\varepsilon<P,则此种转移接受,否则拒绝转移,进入下一步,往复循环。其中P以能量的变化量和T进行决定概率P的大小,所以这个值是动态的。

退火算法的参数控制

       Metropolis算法是模拟退火算法的基础,但是直接使用Metropolis算法 可能会导致寻优速度太慢,以至于无法实际使用,为了确保在有限的时间收敛,必须设定控制算法收敛的参数,在上面的公式中,可以调节的参数就是T,T如果过大,就会导致退火太快,达到局部最优值就会结束迭代,如果取值较小,则计算时间会增加,实际应用中采用退火温度表,在退火初期采用较大的T值,随着退火的进行,逐步降低,具体如下:

    (1)初始的温度T(0)应选的足够高,使的所有转移状态都被接受。初始温度越高,获得高质量的解的概率越大,耗费的时间越长。

    (2) 退火速率。 最简单的下降方式是指数式下降:

                                                    T(n) = \lambda T(n) ,n =1,2,3,.....

                 其中\lambda是小于1的正数,一般取值为0.8到0.99之间。使的对每一温度,有足够的转移尝试,指数式下降的收敛速度比较慢,其他下降方式如下:

                                                      T(n) = \frac{T(0)}{log(1+t)}

                                                        T(n) = \frac{T(0)}{1+t}

      (3)终止温度

                        如果在若干次迭代的情况下每有可以更新的新状态或者达到用户设定的阈值,则退火完成。

模拟退火的步骤:   

               1.模拟退火算法可以分解为解空间、目标函数和初始解三部分。

               2.模拟退火的基本思想:

                    (1) 初始化:初始温度T(充分大),初始解状态S(是算法迭代的起点),每个T值的迭代次数L

                    (2) 对k=1, …, L做第(3)至第6步:

                    (3) 产生新解S′

                    (4) 计算增量ΔT=C(S′)-C(S),其中C(S)为代价函数

                    (5) 若ΔT<0则接受S′作为新的当前解,否则以概率exp(-ΔT/T)接受S′作为新的当前解.

                    (6) 如果满足终止条件则输出当前解作为最优解,结束程序。

                    终止条件通常取为连续若干个新解都没有被接受时终止算法。

                     (7) T逐渐减少,且T->0,然后转第2步。

模拟退火算法新解的产生和接受可分为如下四个步骤:

第一步是由一个产生函数从当前解产生一个位于解空间的新解;为便于后续的计算和接受,减少算法耗时,通常选择由当前新解经过简单地变换即可产生新解的方法,如对构成新解的全部或部分元素进行置换、互换等,注意到产生新解的变换方法决定了当前新解的邻域结构,因而对冷却进度表的选取有一定的影响。

第二步是计算与新解所对应的目标函数差。因为目标函数差仅由变换部分产生,所以目标函数差的计算最好按增量计算。事实表明,对大多数应用而言,这是计算目标函数差的最快方法。

第三步是判断新解是否被接受,判断的依据是一个接受准则,最常用的接受准则是Metropolis准则: 若ΔT<0则接受S′作为新的当前解S,否则以概率exp(-ΔT/T)接受S′作为新的当前解S。

第四步是当新解被确定接受时,用新解代替当前解,这只需将当前解中对应于产生新解时的变换部分予以实现,同时修正目标函数值即可。此时,当前解实现了一次迭代。可在此基础上开始下一轮试验。而当新解被判定为舍弃时,则在原当前解的基础上继续下一轮试验。

模拟退火算法与初始值无关,算法求得的解与初始解状态S(是算法迭代的起点)无关;模拟退火算法具有渐近收敛性,已在理论上被证明是一种以概率l 收敛于全局最优解的全局优化算法;模拟退火算法具有并行性。

退火算法程序流程图;

二、BP神经网络

神经网络是一种运算模型,由大量的节点(或称“神经元”,或“单元”)和之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重(weight),这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。人工神经网络通常是通过一个基于数学统计学类型的学习方法(Learning Method)得以优化,所以人工神经网络也是数学统计学方法的一种实际应用,通过统计学的标准数学方法我们能够得到大量的可以用函数来表达的局部结构空间,另一方面在人工智能学的人工感知领域,我们通过数学统计学的应用可以来做人工感知方面的决定问题(也就是说通过统计学的方法,人工神经网络能够类似人一样具有简单的决定能力和简单的判断能力),这种方法比起正式的逻辑学推理演算更具有优势。

单个神经元(理解神经网络第一步):

【bp预测】基于模拟退火遗传算法优化BP神经网络的钢带厚度预测_第1张图片

  • a1~an为输入向量的各个分量
  • w1~wn为神经元各个突触的权值
  • b为偏置(bias),或者称之为阈值(threshold)
  • f为传递函数,通常为非线性函数。一般有traingd(),tansig(),hardlim()。以下默认为hardlim()
  • t为神经元输出

 数学表示

  • 向量W为权向量
  • 向量A为输入向量,做内积需要用到转置
  • b为偏置(bias),或者称之为阈值(threshold)
  • f为传递函数,也即激励函数

【bp预测】基于模拟退火遗传算法优化BP神经网络的钢带厚度预测_第2张图片

带有 sigma 函数(顶部)和 cutoff 函数(底部)

三、部分代码

%% 基于模拟退火遗传算法优化BP神经网络的钢带厚度预测
clear
clc
close all
format short
%% 加载训练数据
Xtr=xlsread('train_data.xlsx');
DD=size(Xtr,2);
input_train=Xtr(:,1:DD-1)';% 
output_train=Xtr(:,DD)';% 
%% 加载测试数据
Xte=xlsread('test_data.xlsx');
input_test=Xte(:,1:DD-1)';% 
output_test=Xte(:,DD)';% 
%% BP网络设置
%节点个数
[inputnum,N]=size(input_train);%输入节点数量
outputnum=size(output_train,1);%输出节点数量
hiddennum=20; %隐含层节点
%% 数据归一化
[inputn,inputps]=mapminmax(input_train,0,1);
[outputn,outputps]=mapminmax(output_train,0,1);% 归一化到【0 1】之间
%% GA算法参数初始化
D=inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum;
net=newff(inputn,outputn,hiddennum);
%参数定义
maxgen=20;                         %进化代数,即迭代次数
sizepop=10;                        %种群规模
fselect='roulette';                 %染色体的选择方法,您可以选择:锦标赛法- 'tournament';轮盘赌法-'roulette'
fcode='float';                       %编码方法,您可以选择:浮点法-'float';grey法则--'grey';二进制法-'binary' 
pcross=0.7;                       %交叉概率选择,0和1之间
fcross='float';                   %交叉方法选择,您可以选择: 浮点交叉-'float';单点交叉-'simple';均匀交叉-'uniform'
pmutation=0.1;                    %变异概率选择,0和1之间
fmutation='float';                 %变异方法选择,您可以选择:浮点法-'float';单点法-'simple';
lenchrom=ones(1,D);%[1 1];          %每个变量的字串长度,如果是浮点变量,则长度都为1
% bound=[-2.048,2.048;-2.048 2.048];
%% 优化参数的取值范围
ub=3*ones(1,D); % 参数取值上界
lb=-3*ones(1,D); % 参数取值下界
bound=[lb' ub'];

for i=1:sizepop
    %随机产生一个种群
    individuals.chrom(i,:)=Code(lenchrom,fcode,bound);    %编码(binary和grey的编码结果为一个实数,float的编码结果为一个实数向量)
    x=Decode(lenchrom,bound,individuals.chrom(i,:),fcode);%解码(binary和grey的解码结果为一个二进制串,float的解码结果为一个实数向量)
    %计算适应度
    individuals.fitness(i)=objfun_BP(x,inputnum,hiddennum,outputnum,net,inputn,outputn);%计算适应度
end

%找最好的染色体
[bestfitness bestindex]=min(individuals.fitness);
bestchrom=individuals.chrom(bestindex,:);  %最好的染色体
avgfitness=sum(individuals.fitness)/sizepop; %染色体的平均适应度
trace=[avgfitness bestfitness];
% 进化开始
for i=1:maxgen
    disp(['迭代次数:' num2str(i)])
    % 选择
    individuals=Select(individuals,sizepop,fselect); 
    avgfitness=sum(individuals.fitness)/sizepop;
    %交叉
    individuals.chrom=Cross(pcross,lenchrom,individuals.chrom,sizepop,fcross,[i maxgen],fcode,bound,individuals.fitness,bestfitness,avgfitness);
    % 变异
    individuals.chrom=Mutation(pmutation,lenchrom,individuals.chrom,sizepop,fmutation,[i maxgen],fcode,bound,individuals.fitness,bestfitness,avgfitness);
    % 计算适应度 
    for j=1:sizepop
        x=Decode(lenchrom,bound,individuals.chrom(j,:),fcode); %解码
       individuals.fitness(j)=objfun_BP(x,inputnum,hiddennum,outputnum,net,inputn,outputn);%计算适应度  
    end
  %找到最小和最大适应度的染色体及它们在种群中的位置
    [newbestfitness,newbestindex]=min(individuals.fitness);
    [worestfitness,worestindex]=max(individuals.fitness);
    % 代替上一次进化中最好的染色体
    if bestfitness>newbestfitness
        bestfitness=newbestfitness;
        bestchrom=individuals.chrom(newbestindex,:);
    end
    individuals.chrom(worestindex,:)=bestchrom;
    individuals.fitness(worestindex)=bestfitness;
    avgfitness=sum(individuals.fitness)/sizepop;
    trace=[trace;avgfitness bestfitness]; %记录每一代进化中最好的适应度和平均适应度
end

%% 画出适应度曲线
figure
plot(trace(:,1),'b--');
hold on
plot(trace(:,2),'r-.');
title(['适应度曲线  ' '终止代数=' num2str(maxgen)]);
xlabel('进化代数');ylabel('适应度');
legend('平均适应度','最佳适应度')
axis tight
disp('适应度                   变量');
x=Decode(lenchrom,bound,bestchrom,fcode);
% 窗口显示
disp([bestfitness x]);
% 把最优初始阀值权值赋予网络预测
%用ABC优化的BP网络进行值预测
w1=x(1:inputnum*hiddennum);
B1=x(inputnum*hiddennum+1:inputnum*hiddennum+hiddennum);
w2=x(inputnum*hiddennum+hiddennum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum);
B2=x(inputnum*hiddennum+hiddennum+hiddennum*outputnum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum);
net.iw{1,1}=reshape(w1,hiddennum,inputnum);
net.lw{2,1}=reshape(w2,outputnum,hiddennum);
net.b{1}=reshape(B1,hiddennum,1);
net.b{2}=B2;
% BP网络训练
% 网络进化参数
net.trainParam.epochs=100;
net.trainParam.lr=0.1;
net.trainParam.mc = 0.8;%动量系数,[0 1]之间
net.trainParam.goal=0.001;
% 网络训练
net=train(net,inputn,outputn);
% BP训练集预测
BP_sim=sim(net,inputn);
% 网络输出反归一化
ABC_sim=mapminmax('reverse',BP_sim,outputps);
% 绘图
figure
plot(1:length(output_train),output_train,'b--','linewidth',1)
hold on
plot(1:length(ABC_sim),ABC_sim,'r-.','linewidth',1)
xlabel('训练样本','FontSize',12);
ylabel('钢带厚度(mm)')
legend('实际值','预测值');
axis tight
title('GASA-BP神经网络')
% BP测试集
% 测试数据归一化
inputn_test=mapminmax('apply',input_test,inputps);
%预测输出
an=sim(net,inputn_test);
ABCBPsim=mapminmax('reverse',an,outputps);
figure
plot(1:length(output_test), output_test,'b--','linewidth',1)
hold on
plot(1:length(ABCBPsim),ABCBPsim,'r-.','linewidth',1)
xlabel('测试样本','FontSize',12);
ylabel('钢带厚度(mm)')
legend('实际值','预测值');
axis tight
title('GASA-BP神经网络')
%% 未优化的BP神经网络
net1=newff(inputn,outputn,hiddennum);
% 网络进化参数
net1.trainParam.epochs=100;
net1.trainParam.lr=0.1;
net1.trainParam.mc = 0.8;%动量系数,[0 1]之间
net1.trainParam.goal=0.001;
% 网络训练
net1=train(net1,inputn,outputn);
% BP训练集预测
BP_sim1=sim(net1,inputn);
% 网络输出反归一化
T_sim1=mapminmax('reverse',BP_sim1,outputps);
%预测输出
an1=sim(net1,inputn_test);
Tsim1=mapminmax('reverse',an1,outputps);
% 绘图
figure
plot(1:length(output_train),output_train,'b--','linewidth',1)
hold on
plot(1:length(T_sim1),T_sim1,'r-.','linewidth',1)
xlabel('训练样本','FontSize',12);
ylabel('钢带厚度(mm)')
legend('实际值','预测值');
axis tight
title('BP神经网络')
figure
plot(1:length(output_test), output_test,'b--','linewidth',1)
hold on
plot(1:length(Tsim1),Tsim1,'r-.','linewidth',1)
xlabel('测试样本','FontSize',12);
ylabel('钢带厚度(mm)')
legend('实际值','预测值');
axis tight
title('BP神经网络')
%% GASA-BP和BP对比图
figure
plot(1:length(output_train),output_train,'b--','linewidth',1)
hold on
plot(1:length(ABC_sim),ABC_sim,'r-.','linewidth',1)
hold on
plot(1:length(T_sim1),T_sim1,'g.-','linewidth',1)
xlabel('训练样本','FontSize',12);
ylabel('钢带厚度(mm)')
legend('实际值','GASA-BP预测值','BP预测值');
axis tight
figure
plot(1:length(output_test), output_test,'b--','linewidth',1)
hold on
plot(1:length(ABCBPsim),ABCBPsim,'r-.','linewidth',1)
hold on
plot(1:length(Tsim1),Tsim1,'g.-','linewidth',1)
xlabel('测试样本','FontSize',12);
ylabel('钢带厚度(mm)')
legend('实际值','GASA-BP预测值','BP预测值');
axis tight
%% 结果评价
Result1=CalcPerf(output_test,ABCBPsim);
MSE1=Result1.MSE;
RMSE1=Result1.RMSE;
MAPE1=Result1.Mape;
disp(['GASABP-RMSE = ', num2str(RMSE1)])
disp(['GASABP-MSE  = ', num2str(MSE1)])
disp(['GASABP-MAPE = ', num2str(MAPE1)])
Result2=CalcPerf(output_test,Tsim1);
MSE2=Result2.MSE;
RMSE2=Result2.RMSE;
MAPE2=Result2.Mape;
disp(['BP-RMSE = ', num2str(RMSE2)])
disp(['BP-MSE  = ', num2str(MSE2)])
disp(['BP-MAPE = ', num2str(MAPE2)])

四、仿真结果

【bp预测】基于模拟退火遗传算法优化BP神经网络的钢带厚度预测_第3张图片【bp预测】基于模拟退火遗传算法优化BP神经网络的钢带厚度预测_第4张图片

【bp预测】基于模拟退火遗传算法优化BP神经网络的钢带厚度预测_第5张图片

五、参考文献

[1]邵文馨,缑林峰,曾宪艺,申雅雯. 快速模拟退火算法优化BP模糊神经网络航空发动机控制[A]. 中国航天第三专业信息网、中国科协航空发动机产学联合体(筹).中国航天第三专业信息网第四十届技术交流会暨第四届空天动力联合会议论文集——S11发动机控制及相关技术[C].中国航天第三专业信息网、中国科协航空发动机产学联合体(筹):中国航天第三专业信息网,2019:8.

 

你可能感兴趣的:(预测模型,算法,神经网络,机器学习)