改进的粒子群算法(PSO)算法Python代码——非对称学习因子

前三篇链接:

  1. 使用基础粒子群(PSO)算法求解一元及二元方程的Python代码
  2. 改进的粒子群算法(PSO)算法Python代码——线性/非线性递减惯性权重
  3. 改进的粒子群算法(PSO)算法Python代码——随机惯性权重

基本的速度更新公式为:

v i d = w v i d − 1 + c 1 r 1 ( p b e s t i d − x i d ) + c 2 r 2 ( g b e s t d − x i d ) v_i^d=wv_i^{d-1}+c_1r_1(pbest_i^d-x_i^d)+c_2r_2(gbest^d-x_i^d) vid=wvid1+c1r1(pbestidxid)+c2r2(gbestdxid)
其中,下标 i i i表示第i个粒子,上标 d d d表示第d次循环, v i d v_i^d vid表示第i个粒子第d次循环的速度, w w w为惯性权重, c 1 , c 2 c_1,c_2 c1,c2分别表示个体学习因子和社会学习因子,一般取2, p b e s t i d pbest_i^d pbestid表示第i个粒子在前d-1次循环中出现的最佳位置, g b e s t d gbest^d gbestd表示所有粒子在前d-1次循环中出现的最佳位置, r 1 , r 2 r_1,r_2 r1,r2分别是两个位于 [ 0 , 1 ] [0,1] [0,1]的随机数。

非对称学习因子

学习因子 c 1 , c 2 c_1,c_2 c1,c2决定粒子个体经验信息和其他粒子经验信息对寻优轨迹的影响,反映了粒子之间的信息交换。设置较大的 c 1 c_1 c1值,会使粒子过多的在局部搜索;反之,较大的 c 2 c_2 c2值,会使粒子过早收敛到局部最优值。因此,在算法搜索初期采用较大的 c 1 c_1 c1值和较小的 c 2 c_2 c2值,使粒子尽量发散到搜索空间,即强调“个体独立意识”,而较少受到种群内其他粒子,即“社会意识部分”的影响,以增加群内粒子的多样性。

随着迭代次数的增加,使 c 1 c_1 c1线性递减, c 2 c_2 c2线性递增,从而加强了粒子向全局最优点的收敛能力。

c 1 , c 2 c_1,c_2 c1,c2的更新公式如下:

c 1 = c 1 i + k × ( c 1 f − c 1 i ) / k m a x c_1=c_{1i}+k×(c_{1f}-c_{1i})/k_{max} c1=c1i+k×(c1fc1i)/kmax
c 2 = c 2 i + k × ( c 2 f − c 2 i ) / k m a x c_2=c_{2i}+k×(c_{2f}-c_{2i})/k_{max} c2=c2i+k×(c2fc2i)/kmax
其中, k k k为当前迭代的次数, k m a x k_{max} kmax是最大迭代数, c 1 i , c 2 i c_{1i},c_{2i} c1i,c2i分别是 c 1 , c 2 c_1,c_2 c1,c2初值, c 1 f , c 2 f c_{1f},c_{2f} c1f,c2f分别是 c 1 , c 2 c_1,c_2 c1,c2终值。
c 1 i ≠ c 2 f c_{1i}≠c_{2f} c1i=c2f c 2 i ≠ c 1 f c_{2i}≠c_{1f} c2i=c1f时,即为非对称学习因子方法。

例子

  1. 题目
    求函数 y = x 1 2 + x 2 2 − x 1 x 2 − 10 x 1 − 4 x 2 + 60 y =x_1^2+x_2^2-x_1x_2-10x_1-4x_2+60 y=x12+x22x1x210x14x2+60 x 1 , x 2 ∈ [ − 15 , 15 ] x_1,x_2∈[-15,15] x1,x2[15,15]内的最小值。
  2. 流程图
    在这里插入图片描述
  3. 学习因子范围:
    c 1 i = 2.5 , c 1 f = 0.5 ; c 2 i = 1 , c 2 f = 2.25 c_{1i}=2.5,c_{1f}=0.5;c_{2i}=1,c_{2f}=2.25 c1i=2.5,c1f=0.5;c2i=1,c2f=2.25
  4. Python代码:
# 第一步,绘制函数图像
import numpy as np
import matplotlib.pyplot as plt
import mpl_toolkits.mplot3d

def func(x,y):
    return x**2+y**2-x*y-10*x-4*y+60

x0 = np.linspace(-15,15,100)
y0 = np.linspace(-15,15,100)
x0,y0 = np.meshgrid(x0,y0)
z0 = func(x0,y0)
fig = plt.figure(constrained_layout=True)
ax = fig.add_subplot(projection='3d')
ax.plot_surface(x0,y0,z0,cmap=plt.cm.viridis,alpha=0.7)
ax.set_title('$y = x_1^2+x_2^2-x_1x_2-10x_1-4x_2+60$')

# 第二步,设置粒子群算法的参数
n = 30 # 粒子数量
narvs = 2 # 变量个数
c1i = 2.5 # 个体学习因子初值
c1f = 0.5 # 个体学习因子终值
c2i = 1 # 社会学习因子初值
c2f = 2.25 # 社会学习因子初值
w = 0.9 # 惯性权重
K = 40 # 迭代次数
vxmax = np.array([(15-(-15))*0.2,(15-(-15))*0.2]) # 粒子在x方向的最大速度
x_lb = np.array([-15,-15]) # x和y的下界
x_ub = np.array([15,15]) # x和y的上界

# 第三步,初始化粒子   
x = x_lb + (x_ub-x_lb)*np.random.rand(n,narvs)
v = -vxmax + 2*vxmax*np.random.rand(n,narvs)

# 第四步,计算适应度
fit = func(x[:,0],x[:,1]) # 计算每个粒子的适应度
pbest = x # 初始化这n个例子迄今为止找到的最佳位置
ind = np.argmax(fit) # 找到适应度最大的那个粒子的下标
gbest = x[ind,:]
gbest_total = np.zeros(K)

# 第五步,更新粒子速度和位置
for j in range(K): # 外层循环,共K次
    c1 = c1i + j*(c1f-c1i)/K # 计算j次循环时,个体学习因子的值
    c2 = c2i + j*(c2f-c2i)/K # 计算j次循环时,社会学习因子的值
    for p in range(n):
        v[p,:] = w*v[p,:] + c1*np.random.rand(narvs)*(pbest[p,:]-x[p,:]) + c2*np.random.rand(narvs)*(gbest-x[p,:])
    loc_v = np.where(v<-vxmax)
    v[loc_v] = -vxmax[loc_v[1]] # 速度小于-vmax的元素赋值为-vmax
    loc_v = np.where(v>vxmax)
    v[loc_v] = vxmax[loc_v[1]] # 速度大于vmax的元素赋值为vmax
    x = x + v # 更新第i个粒子的位置
    loc_x = np.where(x<x_lb)
    x[loc_x] = x_lb[loc_x[1]]
    loc_x = np.where(x>x_ub)
    x[loc_x] = x_ub[loc_x[1]]
    
    # 第六步,重新计算适应度并找到最优粒子
    fit = func(x[:,0],x[:,1]) # 重新计算n个粒子的适应度
    for k in range(n): # 更新第k个粒子迄今为止找到的最佳位置
        if fit[k]<func(pbest[k,0],pbest[k,1]):
            pbest[k,:] = x[k,:]
    if np.min(fit)<func(gbest[0],gbest[1]): # 更新所有粒子迄今找到的最佳位置
        gbest = x[np.argmin(fit),:]
    gbest_total[j] = func(gbest[0],gbest[1])

ax.scatter(x[:,0],x[:,1],fit,c='r',marker='x')
fig,ax = plt.subplots()
ax.plot(np.arange(K),gbest_total)
plt.rcParams['font.sans-serif']=['SimHei'] #用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False #用来显示负号
ax.set_title('算法找到的最小值随优化次数的变化曲线')
ax.set_xlabel('循环次数')
ax.autoscale(axis='x',tight=True)
print('找到的最优解为:',func(gbest[0],gbest[1]))
  1. 绘制结果
  • 打印输出最优解:找到的最优解为: 8.00454999083955
    可以看出,比原始算法的精度提高了很多,但精度有限;多次运行可以看到不同的精度。
  • 显示最终粒子所在的位置:

改进的粒子群算法(PSO)算法Python代码——非对称学习因子_第1张图片
其中红色叉号表示最后一次循环结束后粒子所在的位置。可以看出,相比原始算法,粒子更多分布在最优点周围。

  • 循环过程中最优解随循环次数的变化曲线:
    改进的粒子群算法(PSO)算法Python代码——非对称学习因子_第2张图片
    可以看出,收敛速度明显高于原始算法的速度。
    此外,还可以将惯性权重的线性递减与非线性递减与其融合,可以得到更快的收敛速度和更高的精度。

你可能感兴趣的:(笔记,python,算法,学习)