灰狼优化算法(GWO),由澳大利亚格里菲斯大学学者 Mirjalili 等人于2014年提出来的一种群智能优化算法。灵感来自于灰狼群体捕食行为。
优点:较强的收敛性能,结构简单、需要调节的参数少,容易实现,存在能够自适应调整的收敛因子以及信息反馈机制,能够在局部寻优与全局搜索之间实现平衡,因此在对问题的求解精度和收敛速度方面都有良好的性能。
缺点:存在着易早熟收敛,面对复杂问题时收敛精度不高,收敛速度不够快
应用:车间调度、参数优化、图像分类、路径规划。
灰狼群体中有严格的等级制度,一小部分拥有绝对话语权的灰狼带领一群灰狼向猎物前进。灰狼群一般分为4个等级: (权利从大到小)模拟领导阶层。
集体狩猎是灰狼的一种社会行为,社会等级在集体狩猎过程中发挥着重要的作用,捕食的过程在α的带领下完成。主要包括三个步骤:
构建灰狼社会等级层次模型,对灰狼的社会等级进行数学建模。
考虑一个搜索空间,现实中狼群由眼睛嗅觉等等知道猎物的位置,然而计算机中模拟无法做到这点,但是我们可以假设,猎物位置是由我们在搜索空间中发现的最佳解决方案提供,我们可以使用该解决方案去找到更好的解决方案,不断迭代优化,此最优解决方案会非常接近最好的解决方案。
将 作为最优解(个体的适应度最优),次优解 ,最佳解决方案 ,剩下的候选解命名为 , 狩猎过程由 引导, 跟随这三只狼。即我们总是去找到三个最佳解决方案,然后围绕该区域进行搜索,目的是找到更好的解决方案然后更新 。
在狩猎过程中,将灰狼围捕猎物的行为定义如下:
个体与猎间的距离公式:
(1)
灰狼位置更新公式:
(2)
系数向量:
(3)
(4)
其中:t 为迭代次数,D 是个体与猎间的距离向量, ‘’ 不是点积,是乘法, 是猎物位置向量,X 为灰狼位置向量, 是收敛因子(随迭代次数从 2 线性减小到 0 ),r1 和 r2 是随机向量,模取【0-1】之间的随机数。
从公式可以看出,经过移动后灰狼群向 移动,移动方向由自身位置和随机向量 C 决定,移动步长由隔离距离灰狼距离和系数向量 A 决定,即 线性减小意味着随机性和运动步长幅度,步长随迭代次数而减小越来越接近最优解。
灰狼能够识别猎物的位置并包围它们。当灰狼识别出猎物的位置后, 在 的带领下指导狼群包围猎物。灰狼个体跟踪猎物位置的数学模型描述如下:
(5)
其中, , 和 分别表示 和 , 与其他个体间的距离; 分别代表 和 ,当前的位置; 是随机向量, X 是当前灰狼的位置。
(6)
式(6)分别定义了狼群中 个体朝向 和 , 前进的步长和方向 ,式 (7) 定义了ω的最终位置。
当猎物停止移动时,灰狼通过攻击来完成狩猎过程.为了模拟逼近猎物, 的值被逐渐减小,因此 A的波动范围也随之减小。换句话说,在迭代过程中,当 的值从2线性下降到0时,其对应的 A 的值也在区间 [ -, ] 内变化。
如图所示,当 A 的值位于区间内时,灰狼的下一位置可以位于其当前位置和猎物位置之间的任意位置(由于随机),当 -11 或 A<-1 时,灰狼远离猎物,探索其他区域(为了找到全局最优解)。
GWO 另一个有利于全局探索的组件 C(随机权重) ,C 是[0,2]之间的随机向量。表示狼所在的位置对猎物影响的随机权重,C>1表示影响权重大,反之,表示影响权重小。在算法陷入了局部最优并且不易跳出时, C 的随机性在避免局部最优方面发挥了非常重要的作用。
Initialize the grey wolf population Xi (i=1,2,,,,n)
Initialize a,A,C,t=0
Calculate the fitness of each search agent
X(alpha) = the best search agent
X(bete) = the second best search agent
X(delta) = the third best search agent
while (t< Max number of iterations)
for each search agent
Update the position of the current search agent
end for
Update a,A,and C
Calculate the fitness of all search agents
Update X(alpha),X(bete),and X(delta)
t=t+1
end while
return X(alpha)
求函数最大值(一元)
% 灰狼优化算法(求函数极值)
clc;
clear;
close all;
%% 目标函数
f= @(x) - (x - 10) .^ 2 + x .* sin(x) .* cos(2 * x) - 5 * x .* sin(3 * x) ; % 适应度函数表达式(求这个函数的最大值)
figure(1);
fplot(f, [0 20], 'b-'); % 画出初始图像
title('初始图像');
hold on;
%% 初始化参数
N=30; % 灰狼个数
dim=1; % 维度
Iter=50; % 最大迭代次数
a=2; % 收敛因子
ub=20; % 最大值限制
lb=0; % 最小值限制
% 初始化alpha,beta,delta
Alpha_pos=zeros(1,dim);
Alpha_score=-inf; %求最大值改为inf
Beta_pos=zeros(1,dim);
Beta_score=-inf;
Delta_pos=zeros(1,dim);
Delta_score=-inf;
Positions=rand(N,dim).*(ub-lb)+lb; % 初始化个体位置
Convergence_curve=zeros(1,Iter); % 收敛曲线
l=0; %循环次数记录
%% 迭代求解
while lub;
Flag4lb=Positions(i,:)Alpha_score
Alpha_score=fitness;
Alpha_pos=Positions(i,:);
end
if fitnessBeta_score
Beta_score=fitness;
Beta_pos=Positions(i,:);
end
if fitnessDelta_score
Delta_score=fitness;
Delta_pos=Positions(i,:);
end
end
a=2-l*((2)/Iter); % 收敛因子从2线性递减到0
% 更新灰狼个体的位置
for i=1:size(Positions,1)
for j=1:size(Positions,2)
r1=rand(); % r1 is a random number in [0,1]
r2=rand(); % r2 is a random number in [0,1]
A1=2*a*r1-a;
C1=2*r2;
D_alpha=abs(C1*Alpha_pos(j)-Positions(i,j));
X1=Alpha_pos(j)-A1*D_alpha;
r1=rand();
r2=rand();
A2=2*a*r1-a;
C2=2*r2;
D_beta=abs(C2*Beta_pos(j)-Positions(i,j));
X2=Beta_pos(j)-A2*D_beta;
r1=rand();
r2=rand();
A3=2*a*r1-a;
C3=2*r2;
D_delta=abs(C3*Delta_pos(j)-Positions(i,j));
X3=Delta_pos(j)-A3*D_delta;
Positions(i,j)=(X1+X2+X3)/3;% Equation (3.7)
end
end
l=l+1;
Convergence_curve(l)=Alpha_score;
end
plot(Alpha_pos, f(Alpha_pos), '*r');
figure(2);
plot(Convergence_curve);
title('收敛过程');
display(['The best solution obtained by GWO is : ', num2str(Alpha_pos)]);
display(['The best optimal value of the objective funciton found by GWO is : ', num2str(Alpha_score)]);
二元函数求最大值
% 灰狼优化算法(求函数极值)
clc;
clear;
close all;
%% 目标函数
[ZuoBiao_x, ZuoBiao_y] = meshgrid(-10:0.1:10,-5:0.1:5); % 产生二维坐标
ZuoBiao_z = f_xy(ZuoBiao_x, ZuoBiao_y);
figure(1);
s = mesh(ZuoBiao_x, ZuoBiao_y, ZuoBiao_z); % 画出初始图像
title('初始图像');
%% 初始化参数
N=30; % 灰狼个数
dim=2; % 维度
Iter=200; % 最大迭代次数
a=2; % 收敛因子
ub=[10 5]; % 最大值限制
lb=[-10 -5]; % 最小值限制
% 初始化alpha,beta,delta
Alpha_pos=zeros(1,dim);
Alpha_score=-inf; %求最大值改为inf
Beta_pos=zeros(1,dim);
Beta_score=-inf;
Delta_pos=zeros(1,dim);
Delta_score=-inf;
Positions=rand(N,dim).*(ub-lb)+lb; % 初始化个体位置
Convergence_curve=zeros(1,Iter); % 收敛曲线
l=0; %循环次数记录
%% 迭代求解
while lub;
Flag4lb=Positions(i,:)Alpha_score
Alpha_score=fitness;
Alpha_pos=Positions(i,:);
end
if fitnessBeta_score
Beta_score=fitness;
Beta_pos=Positions(i,:);
end
if fitnessDelta_score
Delta_score=fitness;
Delta_pos=Positions(i,:);
end
end
a=2-l*((2)/Iter); % 收敛因子从2线性递减到0
% 更新灰狼个体的位置
for i=1:size(Positions,1)
for j=1:size(Positions,2)
r1=rand(); % r1 is a random number in [0,1]
r2=rand(); % r2 is a random number in [0,1]
A1=2*a*r1-a;
C1=2*r2;
D_alpha=abs(C1*Alpha_pos(j)-Positions(i,j));
X1=Alpha_pos(j)-A1*D_alpha;
r1=rand();
r2=rand();
A2=2*a*r1-a;
C2=2*r2;
D_beta=abs(C2*Beta_pos(j)-Positions(i,j));
X2=Beta_pos(j)-A2*D_beta;
r1=rand();
r2=rand();
A3=2*a*r1-a;
C3=2*r2;
D_delta=abs(C3*Delta_pos(j)-Positions(i,j));
X3=Delta_pos(j)-A3*D_delta;
Positions(i,j)=(X1+X2+X3)/3;% Equation (3.7)
end
end
l=l+1;
Convergence_curve(l)=Alpha_score;
end
figure(2);
plot(Convergence_curve);
title('收敛过程');
display(['The best solution obtained by GWO is : ', num2str(Alpha_pos)]);
display(['The best optimal value of the objective funciton found by GWO is : ', num2str(Alpha_score)]);
多元函书求最小值(代码,24个测试函数,感兴趣下载)
链接:https://pan.baidu.com/s/1sQxYMXhwF1xhRqhXB1kJpQ
提取码:1234
GWO解TSP问题(网上找了好久,都不全,自己补充一下,简单注释一下,有问题私聊哦)
% 灰狼优化算法GWO (求TSP问题)
clc;
clear;
%% 初始化参数
N=100; % 灰狼个数
Max_iter=1000; % 最大迭代次数
load('city.mat'); % 导入城市数据
City=city; % 保存城市位置用于计算距离
M=size(city,1); % 得到TSP问题的规模,即城市数目
dim=M; % 维度
figure('name','灰狼优化算法');
plot(city(:,1),city(:,2),'o'); %描点 city--(30,2)
for i=1:M
text(city(i,1)+0.5,city(i,2),num2str(i)); %标号
end
title('城市初始位置');
% 初始化alpha,beta,delta
Alpha_pos=zeros(1,dim);
Alpha_score=inf;
Beta_pos=zeros(1,dim);
Beta_score=inf;
Delta_pos=zeros(1,dim);
Delta_score=inf;
% 初始化种群位置
Positions=zeros(N,dim);
for i=1:N
Positions(i,:)=randperm(dim); %随机排列,比如[2 4 5 6 1 3]
end
Length_best = zeros(1, Max_iter); % 定义每次迭代的最短距离
Length_ave = zeros(1, Max_iter); % 定义每次迭代的平均距离
l = 1; % 迭代计数器
%% 迭代寻优
while l < Max_iter+1
for i = 1:N
% 按行升序排列产生城市序列
[~, sol] = sort(Positions, 2);
% 计算目标函数值(即路径距离)
fitness = Fun(sol(i, :),City,M);
Length_ave(l) = Length_ave(l)+fitness;
% 更新Alpha, Beta, and Delta
if fitness < Alpha_score
Alpha_score = fitness;
Alpha_pos = Positions(i, :);
end
if fitness > Alpha_score && fitness < Beta_score
Beta_score = fitness;
Beta_pos = Positions(i, :);
end
if fitness > Alpha_score && fitness > Beta_score && fitness < Delta_score
Delta_score = fitness;
Delta_pos = Positions(i, :);
end
end
a = 2-l*((2)/Max_iter); % a从2线性减到0
% 更新所有个体位置
for i = 1:N
for j = 1:dim
r1 = rand(); % r1 is a random number in [0,1]
r2 = rand(); % r2 is a random number in [0,1]
A1 = 2*a*r1-a;
C1 = 2*r2;
D_alpha = abs(C1*Alpha_pos(j)-Positions(i, j));
X1 = Alpha_pos(j)-A1*D_alpha;
r1 = rand();
r2 = rand();
A2 = 2*a*r1-a;
C2 = 2*r2;
D_beta = abs(C2*Beta_pos(j)-Positions(i, j));
X2 = Beta_pos(j)-A2*D_beta;
r1 = rand();
r2 = rand();
A3 = 2*a*r1-a;
C3 = 2*r2;
D_delta = abs(C3*Delta_pos(j)-Positions(i, j));
X3 = Delta_pos(j)-A3*D_delta;
Positions(i, j) = (X1+X2+X3)/3;
end
end
Length_best(l) = Alpha_score; % 最短距离
Length_ave(l) = Length_ave(l)/dim; % 平均距离
disp(['Iteration ' num2str(l) ': Best Fitness = ' num2str(Alpha_score)]); % 命令行窗口展示
l = l + 1; % 更新迭代次数
[~, BestSol] = sort(Alpha_pos); % 得到最优解
end
figure(2);
for i=1:M-1
plot([City(BestSol(i),1),City(BestSol(i+1),1)],[City(BestSol(i),2),City(BestSol(i+1),2)],'bo-');
hold on;
end
plot([City(BestSol(M),1),City(BestSol(1),1)],[City(BestSol(M),2),City(BestSol(1),2)],'ro-');
for i=1:M
text(City(i,1)+0.5,City(i,2),num2str(i)); %标号
end
text(City(BestSol(1),1),City(BestSol(1),2),' 起点');
text(City(BestSol(M),1),City(BestSol(M),2),' 终点');
title('最终路线图');
figure(3);
t = 1:Max_iter;
plot(t, Length_best, 'r', t, Length_ave, 'b--', 'LineWidth', 2);
xlabel('Iteration');
ylabel('Best Cost');
legend('最短距离','平均距离')
xlabel('迭代次数')
ylabel('距离')
title('各代最短距离与平均距离对比')
P=zeros(1, 30);
function len=Fun(sol,City,M) % 距离计算函数
len=0;
for k=1:M-1
len=len+sqrt(sum((City(sol(1,k),:)-City(sol(1,k+1),:)).^2));
end
len=len+sqrt(sum((City(sol(1,M),:)-City(sol(1,1),:)).^2));
end
测试数据依旧用我们以前用的:
链接:https://pan.baidu.com/s/1j7omLCzx1uIJS0VdBbR-eA
提取码:1234
测试效果:
[1] S. Mirjalili, S. M. Mirjalili, and A. Lewis, "Grey Wolf Optimizer," Advances in Engineering Software, vol. 69, pp. 46-61, 2014.