公众号阅读--【Bengio vs 谷歌】深度学习兄弟对决,神经网络泛化本质之争

今天在新智元中看到一篇很感兴趣题目,讲深度学习的泛化。

Bengio实验室日前发表了一篇论文,这篇论文将作为ICLR

2017一场研讨会的主题:“深度网络不通过记忆学习”,主要针对谷歌大脑的《理解深度学习需要重新思考泛化》。

结和心智元翻译,我又看了下先来看看谷歌大脑的文章

我比较感兴趣的是作者的两个观点:

1.神经网路的训练能够拟合任意随机置换的标签,所以能够记忆。

2.神经网络在没有任何正则化方法下本身存在泛化能力。

为了说明作者的观点,作者做了些实验:

第一部分所有实验相同模型下,不使用正则化,

图1,不同数据集(正确标签随机标签,像素点置换,随机橡树,高斯数据)训练误差都随时间的下降,并且都能到达训练误差为0。

图2.随着随机标签替代率的上升收敛时间线性上升。作者认为都能收敛,说明模型不仅在记忆数据,还在记忆噪音。奇怪的是为什么呈线性呢?

图3,随着标签噪音的上升,测试误差也线性上升。

图一证明了的第一个观点,神经网路的训练能够拟合任意随机置换的标签/

作者的另外一个实验,通过加上各种正则化,比较测试正确率。

这个也是比较正常的一个图,加了正则化已后测试误差都有所下降。通常接下来的结论是,某某方法有更好的泛化效果。不过作者的关注点是,什么都不加的时候泛化率也很好啊,为什么呢?

我的小总结一下:作者观点1神经网路的训练能够拟合任意随机置换的标签,所以能够记住。(如果这里的记住是指拟合的话也是对的)

作者观点2,神经网络在没有任何正则化方法下本身存在泛化能力。(我们一般关注使用了正则化方法能够提高多少测试准确率,而本文提醒我们关注基础的测试准确率)

krugger论文

主要反对不是记忆

首先讨论了记忆是什么,该如何定义,作者选了三种:是0训练误差;是0训练误差随机测试误差;不是模式学习。无论从哪个角度看,神经网络都不在记忆,特别是第三个,神经网络在学习不同的模式。

作者首先贴了个图

图1隐藏层神经元个数不同的神经网络在不同的噪音水平下收敛后的测试准确率

相比较上一篇只关注测试准确率收敛。随机输入的测试准确率,上限比较接近提出需要更多的隐藏神经元才能达到相同的测试准确率。(这似乎也暗示了基础的测试准确率从何而来,从很多神经元的竞争中来)。

随机标签的话,上限完全不同。90%一下还可以说,增加神经元能够到达到相同测试准确率。

图2,90%准确率下,不同noiselevel所需要的hiddennumber,

Noiselevel  Hidden number

0                       约5

0.2                     约8

0.4                       约12

0.6                       约15

0.8                      约2000

我粗略的算了一下,这两张图要跑60个模型。

嘴刁的一张图,引用了作者自己另一篇文章观点:随机梯度下降发的batch越大泛化效果越差,可能是因为大批次收敛于损失函数中比较锐利的最小值。于是考察了噪音请款下收敛点的锐利程度。随着噪音增加收敛的电非常的锐利。

后续再做个实验正则化是否能避开这些锐利的点。

可以在有噪音的情况下,训练数据成绩很低(不去拟合训练数据),在真实数据上分数很高。

作者总结:反对说神经网络是记忆。神经网络是学习模式。在真实数据中学习简单模式,在噪音数据中学习了复杂模式。给了我们设计好的先验的方法,反对记忆。

我的总结:

我感觉两篇矛盾不是很大,主要反对,“能够拟合随机函数,则为记忆”这种推论。通过辩论把记忆这个词认真探究了一番。而给出的实验丰富了我们对泛华的认识。

虽然很早就理论证明神经网络能够拟合任意函数,(即任意函数在隐藏神经元足够多的请款下能偶拟合,而任意函数和文中提到的随机标签还是不一样的,随机标签有点像插值)

还是第一次看到神经网络能够把这个函数找出来。还让我们重新关注那个很高的基础泛化率,(很可能是神经元竞争的结果)。以及呼吁大家关注泛化的本质。

两篇文章比较集中在记忆的讨论了,这是一种好现象,使抽象的词分类面,神经网络什么的和日常词汇接轨,扩大听得懂人群。

看完之后很想唠叨一下自己对泛化的理解~~,下次再写。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,332评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,508评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,812评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,607评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,728评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,919评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,071评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,802评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,256评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,576评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,712评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,389评论 4 332
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,032评论 3 316
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,798评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,026评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,473评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,606评论 2 350

推荐阅读更多精彩内容

  • 开头永远是很美好,过程中,有哭有笑,彼此挣扎地捆绑在一起,口口声声为了爱情誓死要在一起,可结局往往是老死不...
    遥远的小星球阅读 382评论 0 0
  • 云淡风轻 菲儿老师,我在画小女孩的时候,身体的比例一直把握不好,总感觉小姑娘不够可爱
    y_浠雨阅读 283评论 1 0
  • 随着年龄的增长,越来越害怕很多事情了。害怕亲人的离去,更害怕他们需要我的时候,我却无力帮忙,无奈。随着年纪的越来越...
    微爱小镇阅读 964评论 2 2
  • 那条回乡的路,已经被水泥石子硬化。从远处的山顶望去,蜿蜿蜒蜒,沿着地垄、跳过小溪、爬上山坡,如一条绵延的灰色丝带一...
    凤儿有约阅读 229评论 0 8