Mops的M>=2,MaOPs的M>=3
1.摘要
与双目标优化问题和三目标优化问题相比,目标数大于3个的多目标优化问题无疑更具挑战性。 目前,基于分解的进化算法在处理MAOPs方面表现出了很有前途的性能。然而,这些算法都需要设计权重向量,这对算法的性能有很大的影响。特别是当问题前面的Pareto不完全时,这些算法不能用传统的权值设计方法获得一组均匀分布的解。在文献中,众所周知,自组织映射(SOM)可以利用邻域函数可以保持输入数据的拓扑性质,它的显示比输入数据的概率密度更均匀。这种现象有利于在个体分布的基础上生成一组均匀分布的权重向量。因此,我们将提出一种新的基于SOM的权值设计方法,该方法可以与大多数基于分解的求解MAOPs的算法相结合。
2.介绍
多目标问题-MOPS:
最近,基于分解的算法,其中每个子问题都与搜索方向(即权向量)或目标(即参考点)相关联,已经在MOPS中应用。
2.1 基于分解
MOEA/D是最著名的基于分解的算法之一,利用权重向量将目标聚合成一个目标,并且在大多数情况下实现了良好的性能。事实上,MOEA/D[8]、M2M[9]和MOEA/DD[23]都使用了一组预先定义的均匀分布的权重向量。实验结果表明,基于分解的多目标算法的性能在很大程度上取决于PF的形状。当pf的形状接近超平面时,这些具有均匀权向量的算法可以得到一组均匀分布的Pareto最优解。当PF不完全时,有多个具有不同权重向量的标量问题导致与第三节所述的相同的Pareto最优解,从而严重恶化算法的性能。因此,如何在基于分解的进化算法中设计权向量是求解不完全PF的MAOP的关键问题。
总之,这些重量设计方法基本上都是针对MOPs而提出的。据我们所知,很少有人对MaOPs的权重设计进行过研究。
2.2 SOM
自组织映射(SOM)及其变体使用邻域函数来保持数据的拓扑性质,是最流行的神经网络之一。例如:数据聚类,数据可视化,图像分割,等等。提出了一种基于分解的自定义MOEA算法,其中采用SOM方法在决策空间中发现种群分布结构,指导搜索。然而,在基于分解的MOEAs的权值设计中,利用SOM来发现目标空间中的解的分布的工作很少。SOM模型的点密度通常与输入数据的概率密度函数成正比,但不是线性的。这意味着SOM的显示比表示输入数据的确切概率密度时更加一致。这种现象是有利的,以基于个体的分布来生成一组均匀分布的权重向量。
因此,本文将开发一种新的基于SOM的基于分解的MOEA的权重设计方法。我们利用最近个体的目标向量周期性地训练N个神经元的SOM网络,其中N是种群的大小。以神经元的权值作为权重向量。神经元重量的维数等于目标向量的维数。该权重设计方法可应用于涉及任意数量目标的优化问题。
3.切比雪夫分解方法及自组织映射综述
3.1 切比雪夫分解方法
在Tchebycheff方法下(1)中的问题可以用一组不同权重向量的标量问题来求解。同时,本文将权向量表示为传统权向量的倒数。
https://blog.csdn.net/qq_35414569/article/details/79655400
3.2 SOM
假设一个网络包含N个神经元,并且每个神经元j与一个权重vj相关联。设V={V1,V2,...Vn}是神经元权重的集合,F'={F1',F2',...Fn'}为输入数据集,其中n'>n是输入数据的大小。同时,神经元重量的维数与问题的维数(个数)相等。
1)竞争阶段:对于每个Fi',我们确定获胜神经元,该神经元是欧氏距离最小的神经元。
其中c是Fi'中“胜利者”的角标。如图1所示,黑色的v5是最接近输入数据Fi'的。这意味着v5是赢家。
2)合作阶段:在训练过程中,不仅会更新获胜神经元的权重,还会更新其邻近神经元的权重。 然后,学习规则可以表示为:
其中t表示当前的学习迭代,0<αt<1是“学习速率”。hcj(t)是以赢家为中心的邻域核。在本文中,我们使用“高斯”邻域核,即
其中Uc是胜利者c的邻域,本文采用矩形拓扑。因此,如图1所示,带灰色的神经元v2、v4、v6和v8是v5的近邻。dcj是胜利者c和j之间的距离,σt表示邻域半径的宽度。αt和σt都是时间的单调递减函数。如图1所示,胜利者及其邻居向输入数据移动,带有散列轮廓的点是更新的胜利者及其邻居。
4.建议的基于SOM的权重设计
4.1 权重设计原则
1)PF表示:权重向量必须呈现问题的PF的形状和分布。目前,基于分解的MOEA通常使用一组预先定义的权重向量{w1,w2,…,wn},这些向量是通过一种系统方法生成的,并且均匀分布在超平面上。根据分解方法的分析,当问题的PF满足以下两个条件时,均匀权向量可以导致PF上的一组均匀分布的Pareto最优解。1.pf的形状接近超平面。2.PF是完整的。
换句话说,可能存在一些与PF不相交的直线。这意味着许多具有不同权重向量的标量问题可能具有相同的Pareto最优解。对于这类问题,具有预定一致权向量的算法不会得到一组均匀分布的Pareto最优解。
会有很多线连接原点和权重向量(以空心圆圈显示)与PF不相交。权向量与PF不相交的标量优化问题的最优解位于PF的边界。因此,它不能得到一组均匀分布的Pareto最优解。特别是,如果有一些与MAOP相关或多余的目标,这个问题将变得更加突出。
2)统一性:一组均匀分布的权重向量通常通过使用基于分解的MOEAs得到一组一致解。因此,权重向量应尽可能均匀。为此,存在几种机器学习方法,例如K-means和SOM,可用于发现具有任意尺寸的输入数据的分布。然而,k均值算法倾向于近似于输入数据的密度,而SOM的显示比输入数据的概率密度更均匀。
4.2 基于SOM的权重设计方法
为了避免过拟合输入数据,输入数据N的大小必须大于N。因此,引入了一个额外的矩阵F=[F1,F2,…,FN']来保存一些个体的目标向量,以训练SOM网络。此外,归一化的目标矢量F'=[F1',F2',...F(N')']被视为SOM的输入数据,其中Fi'=Fi-z*,用于i=1,2,...、N'。通过对SOM网络的训练,可以得到神经元的N权重{v1,v2,…,vn}。
通过一些例子可以看出,神经元的权重可以很好地保持PF的分布和形状。此外,我们还发现神经元重量覆盖的区域略小于PF。如果我们直接利用神经元的权重作为公式(2)权重向量,在PF边界上获得Pareto解是不利的。因此,我们将权重向量设置为
对于i=1,2,.,N,其中v*=(v1*,v2*,.,vM*),vj*=min(vij) i=1...N,vij是v=1,2,.,M的Vi的第j个元素。
一般而言,基于分解的方法首先需要得到一组均匀分布的参照向量(权重向量)来指导选择操作。对于每个参照向量,其指导选择的过程需要比较解的优劣,这就需要用到一些标量函数来定量衡量一个解对于这个参照向量的适应度值。本文是切比雪夫分解法,该方法大致思想是减少最大差距从而将个体逼近PF。分解法是利用权重向量将目标聚合成一个目标,并且在大多数情况下实现了良好的性能。
单目标下具有均匀权向量的算法可以得到一组均匀分布的Pareto最优解。不适用于多目标问题,所以用SOM去得到均匀的权向量。
建立一个包含N个神经元的网络,每个神经元i与一个权重Vi[i=N]相关联。即输入空间是N维(即有N个输入单元)。
M是目标函数(问题)个数,fM(x)是目标分量,M为目标数。min y = f( x) = [ f1 ( x) , f2 ( x) , …, fM ( x) ],y为目标向量 , M为优化目标总数 。
Vi=Vij j=M;Vi指的就是前文中的权重向量w,表示为一个权向量即一个神经元,Vij指的是每个权值分量Vij分别对应目标向量的第j个目标分量(问题)。
对于每一个输入向量,求出对应的所有目标函数M中的最小权重向量Vij,之后进行w的重新更新,在利用切比雪夫分解法进行将MOP多目标转换到一组标量优化问题。
值得注意的是,这种权重设计方法可以适用于目标数目任意、参数可调的问题。此外,很容易将其集成到大多数基于分解的MOEA中。在下面,我们将把它分别集成到M2M和MOEA/D中,作为实现的两个例子。
4.3 M2M-SOM(多目标优化问题分解为若干简单多目标子问题,一种新版本的基于多目标优化进化算法的分解。)
我们提出了一个基于分解的多目标进化(M2m)[9],它将问题(1)分解成一组简单的多目标优化子问题,并同时求解。 对于解决MOPs,它取得了很好的效果。在本文中,我们将提出一种改进的基于SOM的M2M权值设计,即M2M-SOM,用于求解MAOPs。
该算法在域内均匀随机地生成5N个个体。根据这些个体的目标向量,用SOM算法学习N个权重向量{w1,w2,...,wn}。并设置方向向量{u1,u2,…,uK}。子种群Ik的大小nk是分配给子问题k的权向量的个数。我们将Ik中的个体初始化为目标函数值在Ωk的初始个体。
4.4 MOEA/D(一种基于分解的多目标进化算法)
MOEA/D是最著名的EMO算法之一.它通过一个权重向量将目标聚合成一个单一的目标。然后,它将MOPs分解为多个标量(变成一个)问题并同时对其进行优化,其中,对于每个wi,将邻域定义为{w1,w2,...,wN}中的一组T个最接近的权重向量。 其中T是
邻域数。子问题i的邻域B(i)是由来自wi邻域的权重向量的子问题组成。本文将基于SOM的权值设计集成到MOEA/D中,得到MOEA/D-SOM,并在算法2中对其进行了详细描述。