数学建模(二):优化

目录

✨前言

一、什么是启发式算法?

二、简单的优化问题

三、启发式算法

四、粒子群算法

️五、代码实现

六、代码讲解与分析

写在最后


✨前言

      在数学建模比赛中,优化的问题是再常见不过了,关于一些常见的有约束条件的函数寻优,我们可以用lingo就可以解决,但是对于一些复杂的并且无约束条件的寻优,我们常常无法入手,这个时候启发式算法就是我们求解该类优化问题的一大法宝。

     关于智能优化算法有很多,遗传算法例子群算法模拟退火....,这里我们就先学习掌握“粒子群算法”即可!

一、什么是启发式算法?

启发式算法百度百科上的定义:一个基于直观或经验 构造的算法, 可接受的花费 下给出待解决 优化问题 的一个 可行解
1 )什么是可接受的花费?
计算时间和空间能接受 (求解一个问题要几万年 or  一万台电脑)
2 )什么是优化问题?
指在一定约束条件下 , 求解一 个目标函数的最大值 ( 或最小值 ) 问题。
(注:实际上和我们之前学过的规划问题的定义一样,称呼不同而已 )
3 )什么是可行解?
得到的结果能用于工程实践(不一定非要是最优解)

二、简单的优化问题

数学建模(二):优化_第1张图片

如上图所示,我们在f(x)这个函数中要寻找一个最大值点,因为f(x)是一个组合函数,也就是不规则的函数,我们如果要在图中找出这个最大值点,我们最好的方法就是对[a,b]进行分割,比如说分割步长为0.01的然后跑一个循环求出x分别为(a),(a+0.01).....(b)中对应的最大的y,这种方法是最容易想到的办法,但是存在一定的局限性,得出来的解很有可能是局部最优解,为什么这么说呢?

举一个例子:

1)a=1;b=10;

2)按照步长为0.01将[a,b]划分成1000份

3)然后求出当x=2.01是对应的y最大,这个时候我们就会认为f(2.01)是全局最优解

4)事实上,如果x=2.015对应的才是实际的最大值,但是我们再枚举的过程中并不能计算精度为0.001时的值,就很难得到最优解,这个时候我们就可以使用启发式搜索方法

三、启发式算法

按照预定的策略实行搜索,在搜索过程中获取的中间信息 不用来 改进策略,称为盲目搜索;
反之 如果利用了中间信息来改进搜索策略则称为启发式搜索。
例如:蒙特卡罗模拟用来求解优化问题就是盲目搜索,
还有大家熟悉的枚举法也是盲目搜索。
关于“启发式”,可以简单总结为下面两点:
(1) 任何有助于找到问题的最优解,但不能保证找到最优解的方法均是启发式方法;
(2) 有助于加速求解过程和找到较优解的方法是启发式方法。

四、粒子群算法

数学建模(二):优化_第2张图片

1995 年,美国学者 Kennedy和 Eberhart 共同提出了粒子 群算法,其基本思想源于 对鸟类群体行为进行建模 与仿真的研究结果的启发。
核心思想: 是利用群体中的 个体对信息的共享 使整个群体的运动在问题求解空间中产生从无序到有序 的演化过程,从而获得问题的可行解。

️五、代码实现

我们就拿这个题目来举例子 ,求函数f(t,s)的极小值,这道题目的原解法是利用单纯形搜索法实现,那么我们这里用粒子群算法来实现一下,代码如下所示:

1)SOA.m文件

% Seeker Optimition Algorithm for f(x1,x2) optimum
clc % 清屏
clear all; % 删除workplace变量
close all; % 关掉显示图形窗口

format long
% Parameters
%这个地方的迭代次数,可以自己设定
sizepop=50;%种群规模
maxgen=50;%最大迭代次数
%式子中有几个变量x,m就等于多少
%这个地方m=2,则表示f函数中一共有两个变量
m=2;%空间维数
Umax=0.9500;%最大隶属度值
Umin=0.0111;%最小隶属度值
Wmax=0.9;%权重最大值
Wmin=0.1;%权重最小值
popmax=15;
popmin=-15;
% 初始化种群个体
for i=1:sizepop
    pop(i,:)=15*rands(1,m);
    fitness(i)=Sphere(pop(i,:));% 计算适应度
end
%寻找具有最好适应度的个体
[bestfitness bestindex]=min(fitness);
zbest=pop(bestindex,:);   %全局最佳
gbest=pop;    %个体最佳
fitnessgbest=fitness;   %个体最佳适应度值
fitnesszbest=bestfitness;   %全局最佳适应度值
%%迭代寻优
Di=0*rand(sizepop,m);
Di(1,:)=1;
Buchang=0*rand(sizepop,m);
C=0*rand(sizepop,m);
Diego=0*rand(sizepop,m);
Dialt=0*rand(sizepop,m);
Dipro=0*rand(sizepop,m);
yy(1)=fitnesszbest;
for t=2:maxgen
    for i=1:sizepop
        W=Wmax-t*(Wmax-Wmin)/maxgen;
        Diego(i,:)=sign(gbest(i,:) - pop(i,:));%确定利己方向
        Dialt(i,:)=sign(zbest - pop(i,:));%确定利他方向
        if Sphere(gbest(i,:))>=Sphere(pop(i,:))%确定预动方向
            Dipro(i,:)=-Di(i,:);
        else
            Dipro(i,:)=Di(i,:);
        end
        Di(i,:)=sign(W* Dipro(i,:)+rand*Diego(i,:)+rand*Dialt(i,:));%确定经验梯度方向
        [Orderfitnessgbest,Indexfitnessgbest]=sort(fitnessgbest,'descend');
        u=Umax-(sizepop-Indexfitnessgbest(i))*(Umax-Umin)/(sizepop-1);
        U=u+(1-u)*rand;
        H(t)=(maxgen-t)/maxgen;%迭代过程中权重的变化
        C(i,:)=H(t)*abs(zbest-5*rands(1,m));%确定高斯函数的参数
        T=sqrt(-log(U));
        Buchang(i,:)=C(i,:)*T;%确定搜索不长的大小
        Buchang(i,find(Buchang(i,:)>3*max(C(i,:))))=3*max(C(i,:));
        Buchang(i,find(Buchang(i,:)<0))=0;
        %更新位置
        pop(i,:)=pop(i,:)+Di(i,:).*Buchang(i,:);
        pop(i,find(pop(i,:)>popmax))=popmax;
        pop(i,find(pop(i,:)

2)Sphere.m文件

function y=Sphere(x)
%如果要求最大值的话,前面加一个负号就可以了
%y=-(3*x(1)^2+x(2)^2-2*x(1)*x(2)+4*x(1)+3*x(2));
 y=3*x(1)^2+x(2)^2-x(1)*x(2)+3*x(2)-5;

3)运行结果

数学建模(二):优化_第3张图片数学建模(二):优化_第4张图片

4)答案验证

数学建模(二):优化_第5张图片

 答案正确√

六、代码讲解与分析

关于粒子群算法的各个步骤原理,我这边不做过多赘述,下面我来教大家如何应用并解决问题。

(1)这个Sphere.m文件存储的是我们需要求最小值的函数表达式,里面一共有两个变量,存在x矩阵里了,分别是x(1),x(2),分别对应着我们题目中的t和s,如果一个函数表达式中有n个变量,那么我们分别用x(1).....x(n)去替代即可

数学建模(二):优化_第6张图片

 (2)这个SOA.m文件存储的是粒子群算法的核心实现代码,我们主要需要注意的就是m这个变量的值,是由Sphere.m文件中函数表示中的变量的个数决定的,例如这道题目的变量是t,s,那么这个时候m的值就是2

数学建模(二):优化_第7张图片

写在最后

数模之路漫漫,其修远兮,以上均为博主个人理解,如有错误,欢迎指正,您的三联就是对俺最大的肯定!

数学建模(二):优化_第8张图片

你可能感兴趣的:(数学建模从0到1,matlab,算法,深度学习)