对多目标进化算法MOEA/D的一些理解

一个多目标优化问题通常表述如下:

    maximize  F(x)=(f_1(x),...,f_m(x))^T x\in \Omega

F包含m个目标,\Omega 是决策空间,\left\{ F(x)|x\in \Omega  \right\} 为可得到的目标函数集。通常情况下,m个目标互相矛盾,在决策空间\Omega 中不存在一点,使得多个目标同时取得最大值。因此,只能在各个目标间权衡,最佳权衡解的集合,被称之为Pareto最优。当决策空间其他点都不优于解x时,x是Pareto最优的。

因此,对Pareto最优前沿的求解可以分解为对m个标量子问题的求解,加权和、切比雪夫法、参考点法是三种分解问题的方法。

1.加权求和法

生成一组权重向量\lambda=(\lambda_1,...,\lambda_m)^T,使得每个权重都不小于0,且满足\Sigma _{i=1}^m \lambda _i=1

问题转化为:

maximize g^{ws}(x|\lambda )=\Sigma _{i=1}^m\lambda_if_i(x)

2.切比雪夫法

首先介绍参考点(reference point)z^*=(z_1^*,...,z_m^*)^T的概念,z_i^*=max \left\{ f_i(x)|x\in \Omega \right\} ,即参考点第i个分量,是决策空间内第i个目标的最大值。

因此,问题转化为:

minimize g^{te}(x|\lambda,z^*)=max_{1<=i<=m}\left\{ \lambda _i|f_i(x)-z_i^* \right\}

3.边界交叉法

minimize g^{bip}(x|\lambda ,z^*)=d_1+\theta d_2

L是经过参考点,方向为\lambda 的直线。令y为F(x)在直线L上的投影,则d_1表示z^*与y的距离,d_2表示F(x)与直线L的距离。

d_1=\frac{||(z^*-F(x))^T\lambda ||}{||\lambda ||} d_2=||F(x)-(z^*-d_1\lambda )||

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容