凸优化上机作业

结果简要分析:ALM和ADMM可以用比较少的迭代次数收敛到不错的结果,但是时间会比较长。如果迭代次数更多点应该是可以收敛更好。

采用线性化(一步精确最小用梯度下降替代)的方法,避免了矩阵求逆和乘法的运算,可以让计算速度显著提升,虽然迭代次数比较多,但是收敛的结果很好。


(一)增广拉格朗日解对偶问题:

对于原先的lasso问题,我们想要最小化\text { minimize } \quad(1 / 2)\|A x-b\|_{2}^{2}+\mu\|x\|_{1}

等价于\min _{x, y} \mu\|x\|_{1}+\frac{1}{2}\|y\|_{2}^{2}\\
s.t. y=A x-b

写出对偶问题:                                                            \begin{array}{l}
{\min -b^{T} y+\frac{1}{2}\|y\|^{2}} \\
{\text { s.t. } z=A^{T} y} \\
{\|z\|_{\infty} \leq \mu}
\end{array}

写出增广拉格朗日函数: 


{L(y, z, x)=-b^{T} y+\frac{1}{2}\|y\|_{2}^{2}+I_{||.||_{\infty}\leq\mu}(z)+x^{T}\left(A^{T} y-z\right)+\frac{t}{2}\left\|A^{T} y-z\right\|_{2}^{2}}

根据ALM我们有下面的迭代形式:

先把对偶的变量做最小化:\left(y^{k+1}, z^{k+1}\right)=\arg \min L\left(y, z,x^{k}\right)

然后再对x做最小化:x^{k+1}=x^{k}+t\left(A^{T} y^{k+1}-z^{k+1}\right)


代码实现:设置了一个\mu_1=100,然后取代原问题的\mu逐步让他下降(具体见本文(三)中的说明)

最后收敛的结果是fval= 0.0813和cvx_mosek算出的解的输出值相差 4.2459e-04,两个解之间的errfun是 0.0047,t=  23.2169, iter= 6940。

所以这个方法并没有收敛的很好,而且其中有高维矩阵的求逆运算,所以迭代次数少但是时间很长。(相比起本文(三))

(二)ADMM解对偶问题:

增广拉格朗日之前和上面思路一样,不同的是现在要对y z x交替优化:

先更新z:z^{k+1}=\arg \min L\left(y^{k}, z, x^{k}\right)这一步的操作是投影到无穷范数球中。

再更新y:y^{k+1}=\arg \min L\left(y, z^{k+1}, x^{k}\right)这一步有闭合的表达式:

                      y^{k+1} =\left(I+t A A^{T}\right)^{-1}\left(t A z^{k+1}+b-A x^{k}\right)

但是会有高维矩阵求逆的运算。

最后是对x更新x^{k+1}=x^{k}+t\left(A^{T} y^{k+1}-z^{k+1}\right)


代码实现:见代码文件

最后收敛的结果是fval=  0.0812和cvx_mosek算出的解的输出值相差  3.6905e-04,两个解之间的errfun是  0.0041,t=  6.0506, iter= 1820。

所以这个方法并没有收敛的很好,但是比ALM时间短,迭代次数少。


(三)原问题线性化:

对于原先的lasso问题,我们想要最小化\text { minimize } \quad(1 / 2)\|A x-b\|_{2}^{2}+\mu\|x\|_{1}

写成可以应用ADMM的形式:min \quad(1 / 2)\|A x-b\|_{2}^{2}+\mu\|z\|_{1} \\
st  \quad x-z=0

写出增广拉格朗日函数:

\frac{1}{2}\|A x-b\|_{2}^{2}+\mu\|z\|_{1}+y^{\top}(x-z)+\frac{\rho}{2}\|x-z\|_{2}^{2}

分别最小化x,z,y,其中在最小化x的时候为了避免矩阵求逆的操作,我们直接采用一步梯度下降(不做精确的最小化)

迭代形式为:

x^{k+1}:=x^{k}-\eta\left[A^{T}\left(A x^{k}-b\right)+y^{k}+\rho\left(x^{k}-z^{k}\right)\right]

z^{k+1}:=S_{\lambda / \rho}\left(x^{k+1}+y^{k} / \rho\right)

y^{k+1}:=y^{k}+\rho\left(x^{k+1}-z^{k+1}\right)

其中S是 shrinkage 函数


代码实现:设置了一个\mu_1=100,每次对每个mu1做一定的次数迭代之后让\mu_1=\mu_1/10,直到和\mu=1e-3
相等。前几次作业的经验是这样可以减少迭代的次数。

在这个问题里操作的时候对每一步的迭代次数和迭代步长选择如下:

(步长取到e-3级别都会发散)

以往的问题里每个步骤的迭代次数是一样的。但是这个问题我发现在\mu_1=0.1,1的时候适当增加迭代次数会收敛得更好。

最后收敛的结果是fval= 0.0809 和cvx_mosek算出的解的输出值相差 4.8741e-06,两个解之间的errfun是1.7773e-05,t= 2.7666, iter=12000。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 220,295评论 6 512
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,928评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,682评论 0 357
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,209评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,237评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,965评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,586评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,487评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,016评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,136评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,271评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,948评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,619评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,139评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,252评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,598评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,267评论 2 358

推荐阅读更多精彩内容

  • 概述 首先,您有必要了解一下,为什么我们需要用分布式算法来计算我们的组合优化问题。 在实际生产中,即使我们基于传统...
    FinanceR阅读 2,671评论 0 1
  • 机器学习模型概念 LR : 事件发生的对数几率是输入的线性函数 优点:1)实现简单,广泛的应用于工业问题上;2)计...
    熊大状阅读 2,115评论 0 1
  • 概率论与数理统计 无穷小阶数 无穷小量表述:线性逼近 相当于利用切线和斜率来理解误差和逼近。 泰勒级数:线性逼近 ...
    Babus阅读 810评论 0 1
  • 有前面的知识,我们知道如何构建目标函数了,当目标函数构建出来后,如何求其参数使的目标函数最小化呢?这就是这一小节的...
    李涛AT北京阅读 923评论 0 0
  • 一、什么是梯度 在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。 ...
    owolf阅读 809评论 0 13