(转载)神经网络遗传算法函数极值寻优(matlab实现)

 本博客的完整代码获取:

https://www.mathworks.com/academia/books/book106283.html

1案例背景

        对于未知的非线性函数,仅通过函数的输入输出数据难以准确寻找函数极值。这类问题可以通过神经网络结合遗传算法求解,利用神经网络的非线性拟合能力和遗传算法的非线性寻优能力寻找函数极值。本章用神经网络遗传算法寻优如下非线性函数极值,该函数表达式为

(转载)神经网络遗传算法函数极值寻优(matlab实现)_第1张图片

        从函数方程和图形可以看出,该函数的全局最小值为0,对应的坐标为(0,0)。虽然从函数方程和图形中很容易找出函数极值及极值对应坐标,但是在函数方程未知的情况下函数极值及极值对应坐标就很难找到。

2模型建立

        神经网络遗传算法函数极值寻优主要分为BP神经网络训练拟合和遗传算法极值寻优两步,算法流程如图4-2所示。

(转载)神经网络遗传算法函数极值寻优(matlab实现)_第2张图片

        神经网络训练拟合根据寻优函数的特点构建合适的BP神经网络,用非线性函数的输入输出数据训练BP神经网络,训练后的BP神经网络就可以预测函数输出。遗传算法极值寻优把训练后的BP神经网络预测结果作为个体适应度值,通过选择、交叉和变异操作寻找函数的全局最优值及对应输入值。
        对于本案例来说,根据非线性函数有2个输入参数、1个输出参数,确定BP神经网络结构为2—5—1。取函数的4000组输入输出数据,从中随机选取3900组数据训练网络,100组数据测试网络性能,网络训练好后用于预测非线性函数输出。
        遗传算法中个体采用实数编码,由于寻优函数只有2个输入参数,所以个体长度为2。个体适应度值为BP神经网络预测值,适应度值越小,个体越优。选择算子、交叉算子和变异算子同第3章介绍各算子一致,交叉概率为0.4,变异概率为0.2。

3 编程实现

        根据神经网络和遗传算法原理,在 MATLAB中编程实现神经网络遗传算法非线性函数寻优。

        用函数输入输出数据训练BP神经网络,使训练后的网络能够拟合非线性函数输出,保存训练好的网络用于计算个体适应度值。根据非线性函数方程随机得到该函数的4 000组输人输出数据,存储于data中,其中input为函数输人数据,output为函数对应输出数据,从中随机抽取3900组训练数据训练网络,100组测试数据测试网络拟合性能。最后保存训练好的网络。

        遗传算法的主函数代码如下:


%% 该代码为基于神经网络遗传算法的系统极值寻优
%% 清空环境变量
clc
clear

%% 初始化遗传算法参数
%初始化参数
maxgen=100;                         %进化代数,即迭代次数
sizepop=20;                        %种群规模
pcross=[0.4];                       %交叉概率选择,0和1之间
pmutation=[0.2];                    %变异概率选择,0和1之间

lenchrom=[1 1];          %每个变量的字串长度,如果是浮点变量,则长度都为1
bound=[-5 5;-5 5];  %数据范围


individuals=struct('fitness',zeros(1,sizepop), 'chrom',[]);  %将种群信息定义为一个结构体
avgfitness=[];                      %每一代种群的平均适应度
bestfitness=[];                     %每一代种群的最佳适应度
bestchrom=[];                       %适应度最好的染色体

%% 初始化种群计算适应度值
% 初始化种群
for i=1:sizepop
    %随机产生一个种群
    individuals.chrom(i,:)=Code(lenchrom,bound);   
    x=individuals.chrom(i,:);
    %计算适应度
    individuals.fitness(i)=fun(x);   %染色体的适应度
end
%找最好的染色体
[bestfitness bestindex]=min(individuals.fitness);
bestchrom=individuals.chrom(bestindex,:);  %最好的染色体
avgfitness=sum(individuals.fitness)/sizepop; %染色体的平均适应度
% 记录每一代进化中最好的适应度和平均适应度
trace=[avgfitness bestfitness]; 

%% 迭代寻优
% 进化开始
for i=1:maxgen
    i
    % 选择
    individuals=Select(individuals,sizepop); 
    avgfitness=sum(individuals.fitness)/sizepop;
    %交叉
    individuals.chrom=Cross(pcross,lenchrom,individuals.chrom,sizepop,bound);
    % 变异
    individuals.chrom=Mutation(pmutation,lenchrom,individuals.chrom,sizepop,[i maxgen],bound);
    
    % 计算适应度 
    for j=1:sizepop
        x=individuals.chrom(j,:); %解码
        individuals.fitness(j)=fun(x);   
    end
    
  %找到最小和最大适应度的染色体及它们在种群中的位置
    [newbestfitness,newbestindex]=min(individuals.fitness);
    [worestfitness,worestindex]=max(individuals.fitness);
    % 代替上一次进化中最好的染色体
    if bestfitness>newbestfitness
        bestfitness=newbestfitness;
        bestchrom=individuals.chrom(newbestindex,:);
    end
    individuals.chrom(worestindex,:)=bestchrom;
    individuals.fitness(worestindex)=bestfitness;
    
    avgfitness=sum(individuals.fitness)/sizepop;
    
    trace=[trace;avgfitness bestfitness]; %记录每一代进化中最好的适应度和平均适应度
end
%进化结束

%% 结果分析
[r c]=size(trace);
plot([1:r]',trace(:,2),'r-');
title('适应度曲线','fontsize',12);
xlabel('进化代数','fontsize',12);ylabel('适应度','fontsize',12);
axis([0,100,0,1])
disp('适应度                   变量');
x=bestchrom;
% 窗口显示
disp([bestfitness x]);

5结果分析

5.1.神经网络拟合结果分析

        本案例中个体的适应度值为BP神经网络预测值,因此BP神经网络预测精度对于最优位置的寻找具有非常重要的意义。由于寻优非线性函数有2个输入参数、1个输出参数,所以构建的BP神经网络的结构为2—5—1。共取非线性函数4 000组输人输出数据,从中随机选择3 900组数据训练BP神经网络,100组数据作为测试数据测试BP神经网络拟合性能,BP神经网络预测输出和期望输出对比如图4-3所示。

(转载)神经网络遗传算法函数极值寻优(matlab实现)_第3张图片
        从 BP神经网络预测结果可以看出,BP神经网络可以准确预测非线性函数输出,可以把网络预测输出近似看成函数实际输出。

5.2遗传算法寻优结果分析

        BP神经网络训练结束后,可以用遗传算法寻找该非线性函数的最小值,遗传算法的迭代次数是100次,种群规模是20,交叉概率为0.4,变异概率为0.2,采用浮点数编码,个体长度为2,优化过程中最优个体适应度值变化曲线如图4-4所示。
(转载)神经网络遗传算法函数极值寻优(matlab实现)_第4张图片
        遗传算法得到的最优个体适应度值为0.020 6,最优个体为[0.000 3 -0.0090],最优个体适应度值同非线性函数实际最小值0和最小值对应坐标(0,0)非常接近,说明了该方法的有效性。

6案例扩展

6.1工程实例

        本案例所使用的方法有比较重要的工程应用价值,比如对应某项试验来说,试验目的是得到最大试验结果对应下的试验条件。但是由于时间和经费限制,该试验只能进行有限次,可能单靠试验结果找不到最优的试验条件。这时可以在已知试验数据的基础上,通过本案例介绍的神经网络遗传算法寻找最优试验条件。思路为首先根据试验条件数和试验结果数确定BP神经网络结构;然后把试验条件作为输入数据,试验结果作为输出数据训练BP网络,训练后的网络就可以预测一定试验条件下的试验结果;最后把试验条件作为遗传算法中种群个体,把网络预测的试验结果作为个体适应度值,通过遗传算法推导最优试验结果及其对应试验条件。已知的实验数据如表4-1所列。
(转载)神经网络遗传算法函数极值寻优(matlab实现)_第5张图片

        在试验中获得的最大实验结果为 712 ,对应的实验条件为[50 15 1 700 60 ] 。在实验 数据的基本上,采用神经网络遗传算法寻优 选择的 BP 网络结掏为 10 ,遗传算法的迭代次数是 100 次,种群规模是 20 ,交叉概率 0. ,变异概率 0.2 ,采用浮点数编码,个体长度为4,最后得到的最优实验结果为745,对应的实验条件为[42.216.6 1692.6 64.6],该结果可以为最优实验条件的选择提供参考。
 

6.2预测精度探讨
 

        BP神经网络预测精度的好坏和寻优结果有着密切的关系。BP神经网络预测越准确,寻优得到的最优值越接近实际最优值,这就需要在网络训练时采用尽可能多的训练样本。笔者曾经做过两个类似问题,一个是寻找3输人4输出系统的最大输出对应最优输入值,训练样本上万,神经网络预测效果非常好,最后得到预测最优值和真实最优值非常相近,误差在10%以内;一个是寻找3输人3输出系统的最大输出对应输入值,训练样本只有300多,神经网络预测的误差较大,最后寻优得到的最优值和真实最优值的误差在20%以上。并且由于BP神经网络的拟合性能的局限性,并不是所有的系统都能够用BP神经网络精确表达,在方法使用上应该加以注意。

你可能感兴趣的:(神经网络,matlab,人工智能,遗传算法)