浅谈分布式鲁棒随机优化
随机规划与鲁棒优化都能很好地刻画随机问题,但是前者需要知道随机变量的概率分布信息,后者虽可求解问题,但是得到的解过于保守。分布式鲁棒优化则是一种基于信息不充分做出决策的优化方法。与随机规划,鲁棒优化相比,它弥补了数据与决策及统计与优化框架之间的差距,同时也继承了鲁棒优化的可求解性与随机规划刻画随机问题的灵活性。此外,分布式鲁棒优化采用最坏情况方法来正则化优化问题,从而减轻了随机优化中优化器的灾难问题。
而分布式鲁棒随机优化中的核心就是模糊集的构造,当模糊集确定好之后就是如何利用现代鲁棒优化技术使之变得可求解和应用。这是因为虽然分布式鲁棒优化自1958年由Scarf's 关于报童问题而得到人们关注,但它是在现代鲁棒优化技术的发展之下而得到了迅猛地成长。关于分布式鲁棒优化中的随机变量的实现大概可以分为两种,离散和连续。在连续的情况下,熟知的模糊集有三种构造方式:①矩信息构造的模糊集:它包含满足随机变量的矩约束(各阶矩)的所有分布;②基于度量的模糊集:利用概率距离函数(如Prohorov metric ,K-L divergence ,Wasserstein metric etc.)将模糊集定义为概率分布空间的球体,其中球体的中心是历史数据的均匀分布(经验分布),然后以为模糊集半径包含随机变量的未知真实分布。这就出现了一个问题,这个Wasserstein球体有多大的置信度能包含随机变量的未知真实分布呢?如果置信度很低或是就不包含未知真实分布,那这个模糊集就真的是很模糊了。Fournier N. 和Guillin A. 在其On the rate of convergence in Wasserstein distance of the empirical measure中证明了在该模糊集下可以以
的置信度包含未知真实分布。此外Bertsimas E.证明了在1-型Wasserstein度量下,经验分布是弱收敛于真实分布的。
现在基于度量的模糊集较为热门。因为从它的构造上我们可以看到,真实分布大概就是经验分布加上一个扰动(此处我们称之为模糊集半径),所以我们可以通过控制这个模糊集的半径来把握未知分布的保守度,显然,如果,则模糊集就收缩为一个只包含经验分布的singleton ,这种情况下分布式鲁棒优化问题就退化为一个无模糊集的SAA随机优化问题。第三种模糊集为拟合优度检验的置信域。