[Paper Share - 1]Neural Architecture Search With Reinforcement Learning

导读
ICLR2017,论文的主题是如何用一个RNN通过强化学习生成一个效果不错的CNN结构或者一个新的Recurrent Cell。文章的效果不算特别明显,但是思路可以借鉴。
https://arxiv.org/abs/1611.01578

1.总体思想

图1

如图一,左边递归网络(控制器)给出一个网络结构,该网络结构的概率为P。右侧,对这个网络结构进行训练,并在验证集上进行测试,得到精度为R。这时,将R反馈给左侧控制器,通过强化学习更新控制器的参数,使得控制器对R大的网络结构给出更大的概率。

2.相关工作

文中提到,当前有些方法也进行相应的研究,但是他们只能在固定长度的空间中搜索。而用贝叶斯的方法,可以搜索可变长度的空间,但是泛化能力和灵活性没有本文的好。

3.方法

3.1 控制器
图2

对于某一层,控制器可以预测该层的filter width,filter height,stride height,stride width,filter的个数,每一个预测都是通过softmax分类,并作为下一个预测的输入。实验中的停止条件是,层的个数超过了某个指定的数值。当然这个数值在训练的过程中也可以变化。

3.2用增强学习进行训练

优化的方向是,让我们的控制器得到最好的奖励。也就是说,控制器给出的网络结构越好,那么反馈的R越大,这相当于给的奖励越好。目标函数是


目标函数

但是这个目标函数的R是不可微的,需要使用policy gradient method取进行优化。他的近似解为:


近似解

为了减少方差,作者对上面的无偏估计做了写改变。
改进的近似解

这个解仍然是无偏估计。
作者还介绍了多个GPU分布式训练的一些操作,此处省去,我们关注思想。

3.3增加结构的灵活性

上面提到的控制器的搜索空间其实不包括skip connections,或者类似于GoogleNet和ResNet的旁支。所以,作者增加了这些连接方式去扩大控制器的搜索空间。


attention

使用attention机制。等式表示第i层输入到j层的概率。
改进后的控制器如下:


改进后的控制器

当然,有了skip connections之后会有写问题。比如,输入的大小不一,或者某些层根本没有输入或者输出。作者提出了他的处理方法:
  • 1.如果一个层没有输入,那么就把图片作为输入
  • 2.最后一层,把所有没有被链接的层的输出concat起来。然后输入分类器。
  • 3.如果两个concat的层的大小不一致,则小的补0.
    当然还可以加入其他更加高级的操作。
3.4生成递归单元(recurrent cell)

这一章中,作者对上面的控制器进行了修改,用来生成递归单元,其实就是RNN的单元。只不过,这个和经典的不太一样。经典的递归单元是:


基础递归单元

作者把递归单元看做成一棵树,xt和ht-1是输入,ht是输出。控制器需要预测树的每个节点用什么链接方式:addition, elementwise multiplication,etc或者激活函数:tanh, sigmoid, etc。下面是个例子。


递归单元生成

然后下面对应的是生成步骤,我直接贴图了。我们对照公式和上图看下,很清晰。


步骤

4.实验

验证生成CNN数据集:CIFAR-10
验证生成RNN的递归单元:Penn Treebank
数据预处理:作者对图片做了白化,还有放大随机crop,还有翻转。
搜索空间:对于CNN层:filter height [1,3,5,7], filter width [1,3,5,7] ,滤波器个数[24,36,48,64],步长方面作者进行了两组实验,固定为1,和可预测为[1,2,3]。
训练过程:控制器是两层的LSTM,每层有35个隐藏单元。作者说,他们用了800个GPU,同时训练800个网络。(惊叹,google就是牛。)
实验结果
实验结果我就不在啰嗦了,有一点点提升吧。这个作者后来又出了一篇新文章,还没看,这边文章的结果已经没啥参考价值了。所以我说说一点有意思的地方:
对于CNN的生成,论文附录贴了一个这样的图,下图中的网络在精度和深度之间达到不错的平衡。有意思的是,网络有不少滤波器是矩形的,而不是我们常用的正方形。而,更有意思的是,层越深,网络偏向于用更大的卷积核。

生成的一个CNN

还有生成的RNN递归单元:
生成的RNN递归单元

好了,今晚的Paper Reading就分享到这里。虽然你五分钟看完了,却花了我一个小时编写。有什么错误或者理解错的地方,一定要告诉我哇,,,反正我也不会改的。哈哈哈。。。下期,我将会继续分享,该作者的另外一篇关于用网络生成网络的论文 1707.07012-Learning Transferable Architectures for Scalable Image Recognition。敬请期待。Good Night。

2017.11.26 在深圳

转载注明下出处呗。http://www.jianshu.com/p/3192f157d067

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,837评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,551评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,417评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,448评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,524评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,554评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,569评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,316评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,766评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,077评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,240评论 1 343
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,912评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,560评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,176评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,425评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,114评论 2 366
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,114评论 2 352