智能优化算法

智能优化算法

遗传算法

Genetic Algorithm,简称GA

  • 基本思想:

    • 根据问题的目标函数构造适值函数Fitness Function
    • 产生一个初始种群
    • 根据适值函数的好坏,不断的进行选择繁殖
    • 若干代后得到适值函数最好的个体即为最优解。
  • 构成要素:

    • 种群 population 种群大小 pop-size

    • 种群表达法 – 编码方法

    • 遗传算子 genetic operator

      交叉 crossover 变异 mutation

      交叉率高,解空间大,但计算时间较长

    • 选择策略

      一般为正比选择

      选择种群中适值高的个体,适者生存

    • 停止准则

      一般是指定最大迭代次数

智能优化算法_第1张图片

  • 解空间与编码空间的转换

    智能优化算法_第2张图片

各个步骤实现

  • 初始种群的产生
  • 编码方法
  • 适值函数
  • 遗传算法
  • 选择策略
  • 停止准则

Δ \Delta Δ 初始种群的产生

随机产生(依赖于编码方法);种群的大小(依赖于计算机的计算能力和计算复杂度)。

例:0,1编码

​ 产生 ζ i ∈ U ( 0 , 1 ) \zeta_i\in U(0,1) ζiU(0,1)

ζ i > 0.5 , x i = 1 ; \zeta_i>0.5,\quad x_i=1; ζi>0.5,xi=1;

ζ i < 0.5 , x i = 0 ; \zeta_i<0.5,\quad x_i=0; ζi<0.5,xi=0;

Δ \Delta Δ 编码方法 --二进制编码

二进制编码,用0,1字符串表达

背包问题:0表示不取,1表示取

特点:

精度高时编码较长,一般不采用此法而用实值函数

编码长不利于计算

便于位值计算,包括的实数范围大

Δ \Delta Δ 适值函数–根据目标函数设计

用适值函数 F ( x ) F(x) F(x)标定目标函数 f ( x ) f(x) f(x)采用 **-minf(x)**和 manf(x)

Δ \Delta Δ 遗传运算–选择、交叉、变异

★ \bigstar 交叉 Crossover

♡ \heartsuit 单切点交叉

​ 随机产生一个断点 [ 1 , n − 1 ] [1,n-1] [1,n1]

智能优化算法_第3张图片

♡ \heartsuit 双切点交叉

智能优化算法_第4张图片

★ \bigstar 变异 Mutation

​ 初始种群中没有需要的基因,在种群中按变异概率   P m \ P_m  Pm任选若干位基因改变位值0→1或1→0,

有意想不到的结果,   P m \ P_m  Pm一般设定得比较小,在5%以下。

★ \bigstar 选择

​ 最常用的正比选择

​ 对于个体 i i i,适值 F i F_i Fi,选择概率如下公式计算
P i = F i ∑ 1 N P F i P_i={F_i \over{\sum_{1}^{NP}F_i}} Pi=1NPFiFi

N P − − N u m b e r o f P o p u l a t i o n NP--Number of Population NPNumberofPopulation

​ 之后采用轮盘赌的方法进行选择:

​ 令 P P 0 = 0 , P P i = ∑ j = 1 i P j PP_0=0,PP_i=\sum_{j=1}^{i} P_j PP0=0PPi=j=1iPj

​ 随机产生 ε i ∈ U ( 0 , 1 ) \varepsilon_i \in U(0,1) εiU(0,1)

​ 当 P P i ≤ ε i ≤ P P i PP_i \le \varepsilon_i \le PP_i PPiεiPPi,选择个体 i i i

粒子群算法

Particle Swarm Optimization

  • 基本思想

    • 粒子群算法q粒子群算法的思想源于对鸟群捕食行为的研究

    • 模拟鸟集群飞行觅食的行为,鸟之间通过集体的协作使群体达到最优目的,是一种基于Swarm Intelligence的优化方法。

    • 马良教授在他的著作《蚁群优化算法》一书的前言中写到:

      “自然界的蚁群、鸟群、鱼群、羊群、牛群、蜂群等,其实时时刻刻都在给予我们以某种启示,只不过我们常常忽略了大自然对我们的最大恩赐!…”

  • 算法介绍

    • 每个寻优的问题解都被想像成一只鸟,称为“粒子”。所有粒子都在一个D维空间进行搜索。
    • 所有的粒子都由一个fitness function 确定适应值以判断目前的位置好坏。
    • 每一个粒子必须赋予记忆功能,能记住所搜寻到的最佳位置。
    • 每一个粒子还有一个速度以决定飞行的距离和方向。这个速度根据它本身的飞行经验以及同伴的飞行经验进行动态调整。

细说PSO

D维空间中,有N个粒子;

​ 粒子 i i i位置: x i = ( x i 1 , x i 2 , ⋯ x i D ) x_i=(x_{i1},x_{i2},\cdots x_{iD}) xi=(xi1,xi2,xiD),将 x i x_{i} xi代入适应函数 f ( x i ) f(x_i) f(xi)求适应值;

​ 粒子 i i i速度: v i = ( v i 1 , v i 2 , ⋯ v i D ) v_i=(v_{i1},v_{i2},\cdots v_{iD}) vi=(vi1,vi2,viD)

​ 粒子 i i i个体经历过的最好位置: p b e s t i = ( p i 1 , p i 2 , … p i D ) pbest_i=(p_{i1},p_{i2},…p_{iD}) pbesti=(pi1,pi2,piD)

​ 种群所经历过的最好位置: g b e s t = ( g 1 , g 2 , … g D ) gbest=(g_1,g_2,…g_D) gbest=(g1,g2,gD)

通常,在第 d ( 1 ≤ d ≤ D ) d(1≤d≤D) d1dD维的位置变化范围限定在 [ X m i n , d , X m a x , d ] [X_{min, d},X_{max,d}] [Xmin,d,Xmax,d]内,速度变化范围限定在 [ − V m i n , d , V m a x , d ] [-V_{min,d},V_{max,d}] [Vmin,d,Vmax,d]内(即在迭代中若 v i d , x i d v_{id},x_{id} vid,xid超出了边界值,则该维的速度或位置被限制为该维最大速度或边界位置)

  • 粒子 i i i的第 d d d维速度更新公式:
    v i d k = ω v i d k − 1 + c 1 r 1 ( p b e s t i d − x i d k − 1 ) + c 2 r 2 ( g b e s t d − x i d k − 1 ) v_{id}^{k}=\omega v_{id}^{k-1}+c_1r_1(pbest_{id}-x_{id}^{k-1})+c_2r_2(gbest_d-x_{id}^{k-1}) vidk=ωvidk1+c1r1(pbestidxidk1)+c2r2(gbestdxidk1)

  • 粒子 i i i的第 d d d维位置更新公式
    x i d k = x i d k − 1 + v i d k − 1 x_{id}^{k}=x_{id}^{k-1}+v_{id}^{k-1} xidk=xidk1+vidk1
    v i d k v_{id}^{k} vidk–表示第 k k k次迭代粒子 i i i飞行速度的矢量的第 d d d维分量

    x i d k x_{id}^{k} xidk–表示第 k k k次迭代粒子 i i i位置矢量的第 d d d维分量

    c 1 , c 2 c_1,c_2 c1,c2–表示加速度常数,调节学习最大步长

    r 1 , r 2 r_1,r_2 r1,r2–表示两个随机函数,取值范围为 [ 0 , 1 ] [0,1] [0,1],以增加搜索随机性

    w w w–表示惯性 权重,非负数,调节对解空间的搜索范围

算法流程

1.Initial:

初始化粒子群体(群体规模为n),包括随机位置和速度。

2.Evaluation:

根据fitness function ,评价每个粒子的适应度。

3.Find the Pbest:

对每个粒子,将其当前适应值与其个体历史最佳位置(pbest)对应的适应值做比较,如果当前的适应值更高,则将用当前位置更新历史最佳位置pbest。

4.Find the Gbest:

对每个粒子,将其当前适应值与全局最佳位置(gbest)对应的适应值做比较,如果当前的适应值更高,则将用当前粒子的位置更新全局最佳位置gbest。

5.Update the Velocity:

根据公式更新每个粒子的速度与位置。

6.如未满足结束条件,则返回步骤2

​ 通常算法达到最大迭代次数 G m a x G_{max} Gmax或者最佳适应度值的增量小于某个给定的阈值时算法停止。

智能优化算法_第5张图片

  • 构成要素 群体大小 m m m

    m m m是一个整型参数, m m m很小时,陷入局部最优解的可能性就越大; m m m很大时,pso的优化能力很好。当群体数目增长至一定水平时,再增长将不再有显著的作用。

  • 权重因子

    智能优化算法_第6张图片

  • 最大速度 V m V_m Vm

    在于维护算法的探索能力与开发能力的平衡

    V m V_m Vm较大时额,探索能力增强,但粒子容易飞过最优解; V m V_m Vm较小时,开发能力增强,但容易陷入局部最优解;因此 V m V_m Vm一般设为每维变量变化范围的 10 % − 20 % 10\%-20\% 10%20%

  • 邻域的拓扑结构

    • 将群体内所有个体都作为粒子的邻域

    • 只将群体中的部分个体作为粒子的邻域

      邻域拓扑结构 → 决 定 \rightarrow^{决定} 群体历史最优解

      因此,将粒子群算法分为 全局粒子群算法和局部粒子群算法

      • 全局粒子群算法

        • 粒子自己历史最优解
        • 粒子群体的全局最优解
      • 局部粒子群算法

        • 粒子自己历史最优解
        • 粒子邻居内粒子的最优解

        邻域随迭代次数的增加线性变大,最后邻域拓展到整个粒子群。

  • 粒子空间的初始化

    较好地选择粒子空间的初始化空间,将大大缩短收敛时间,初始化空间根据具体问题的不同而不同,也就是说这是问题依赖的。

算法流程

  • 在初始化范围内,对粒子群进行随机初始化,包括随机位置和速度

  • 计算每个粒子的适应值

  • 更新粒子个体的历史最优位置

  • 更新粒子群体的历史最优位置

  • 更新粒子的速度和位置,公式如下:
    v k + 1 = c 0 v k + c 1 ξ ( p k − x k ) + c 2 η ( p k − x k ) v_{k+1}=c_0v_k+c_1\xi (p_k-x_k)+c_2\eta(p_k-x_k) vk+1=c0vk+c1ξ(pkxk)+c2η(pkxk)

    x k + 1 = x k + v k + 1 x_{k+1}=x_k+v_{k+1} xk+1=xk+vk+1

  • 若未达到终止条件,则转第二步

惯性权重 $\omega $

描述的是粒子上一代速度对当前速度的影响, ω \omega ω较大时,全局寻优能力强,局部寻优能力弱;反之,则局部寻优能力强。当问题空间较大时,为了在搜索速度沙河搜索精度之间达到平衡,通常是使算法在前期有较高的全局搜索能力以得到合适的种子,而在后期有较高的局部搜索能力以提高收敛精度。
w = w m a x − ( w m a x − w m i n ) × r u n r u n m a x w=w_{max}-(w_{max-w_{min}})\times {run\over run_{max}} w=wmax(wmaxwmin)×runmaxrun
w m a x 最 大 惯 性 权 重 , w m i n 最 小 惯 性 权 重 , r u n 当 前 迭 代 次 数 , r u n m a x 为 算 法 迭 代 总 次 数 w_{max}最大惯性权重,w_{min}最小惯性权重,run当前迭代次数,run_{max}为算法迭代总次数 wmaxwminrunrunmax

你可能感兴趣的:(智能优化算法)