拉格朗日松弛方法

For a better view of math equations,
go to https://www.zybuluo.com/kailaix/note/490410.


拉格朗日松弛方法的基本思想是将“顽固”的约束(通常是等式约束)整合到目标函数中去。如果原来目标函数是一个线性函数,等式约束是一个线性约束,拉格朗日方法要求我们能够轻松求解给定区域下的线性目标函数问题。

拉格朗日方法的理论基础是凸优化中的对偶原理,需要注意的是,即使最后取得 max min 时候的极值点(argmin argmax $L(\mu)$)不是原来函数的极值点,但是在一定条件下,我们能得到一样的函数值。

另一个需要注意的是,对于去掉线性约束后约束区域无界的情况,需要小心处理(见以下笔记);虽然在数学上容易处理,但是在实践中很容易造成溢出。

下面的代码是上面两个问题的求解,注意这里我们是手动求最小值,也可以借助现有优化包例如scipy.optimize

from scipy import optimize as opt
import numpy as np
from math import pi,cos,sin
import cPickle


class ILRSolver(object):
    def __init__(self,f,marker):
        self.f = f
        self.stepsize = 1.0
        self.cnt = 0
        self.iter_cnt = 0
        self.mu = 0.0
        self.marker = marker
        self.L = []

    def _fmin(self):
        if self.marker == 1:
            if self.mu >= 1:
                self.x = np.array([0,0,0]);return 
            else:
                self.x = np.array([1,1,1]);return 
        if self.marker == 2:
            if self.mu < 1:
                self.x = np.array([1,1,1]);return 
            elif self.mu<2:
                self.x = np.array([0,1,1]);return 
            elif self.mu<3:
                self.x = np.array([0,0,1]);return 
            else:
                self.x = np.array([0,0,0]);return 

    def update_coef(self):
        delta = self.x.sum() - 1.5
        if delta > 0:
            self.mu += self.stepsize
        elif delta < 0:
            self.mu -= self.stepsize


    def update(self):
        self.update_coef()
        self._fmin()
        self.fx_old = self.fx
        self.fx = self.f(self.x)

        if self.fx == self.fx_old:
            self.cnt += 1

        if self.cnt >= 10 or self.iter_cnt % 10==0:
            self.cnt = 0
            self.stepsize /= 2.0

    def _nonstop(self):
        print "---------------------\n Current infomation:"
        print "iter: "+ str(self.iter_cnt)
        print "stepsize: "+str(self.stepsize)
        print "x: "+ str(self.x)
        print "mu: "+str(self.mu)
        print "f(x): "+ str(self.fx) 
        print "g(x): " + str(self.x.sum() - 1.5)
        obj_func = lambda x:self.f(x)+self.mu*(x[0]+x[1]+x[2]-1.5)
        print "objf(x): "+str(obj_func(self.x))
        self.L.append(obj_func(self.x))
        self.iter_cnt += 1
        # raw_input('press to continue')
        if self.stepsize <= 1e-5:
            print 'STEPSIZE TOO SMALL'
            return False
        if self.x[0]+self.x[1]+self.x[2] == 1.5:
            print 'OPTIMAL'
            return False
        return True

    def iterate(self):
        self._fmin()
        self.fx = self.f(self.x)
        while self._nonstop():
            self.update()

    def save_data(self):
        with open(str(self.marker)+'.dat','wb') as fp:
            cPickle.dump(self.L, fp)

f1 = lambda x: - ( x[0]**2 + x[1]**2 + x[2]**2 )
f2 = lambda x: - (x[0]+2*x[1]+3*x[2])

ilr1 = ILRSolver(f1,1)
ilr2 = ILRSolver(f2,2)

ilr1.iterate()
ilr1.save_data()

ilr2.iterate()
ilr2.save_data()

下面是两个对偶函数最大值的收敛形态。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 【概述】 SVM训练分类器的方法是寻找到超平面,使正负样本在超平面的两侧(分类正确性即“分得开”),且样本到超平面...
    sealaes阅读 11,356评论 0 7
  • 机器学习是做NLP和计算机视觉这类应用算法的基础,虽然现在深度学习模型大行其道,但是懂一些传统算法的原理和它们之间...
    在河之简阅读 20,808评论 4 65
  • 1. 章节主要内容 支持向量机是我认为的机器学习算法中最复杂的算法之一,又因为我在总结西瓜书内容的时候是秉持着尽量...
    闪电随笔阅读 3,736评论 0 25
  • 快到子夜12点了,马上就要到目的地南京了,空姐温柔的声音传来,目的地条件不好,要降落到上海。 飞机降落到上海,听到...
    巴拿马草帽阅读 490评论 0 2
  • 感恩天使指导灵高级智慧们,感恩心想生老师,感恩一天,感恩真我,感恩老公,那个无论怎样我都会去爱的人,感恩大儿子,能...
    李红彦阅读 490评论 0 0

友情链接更多精彩内容