11-Overfitting

这一节主要讲了overfitting, 主要来源自noise, 而noise来源主要有二: 其一是数据本身带有noise, 其二是模型本身的hypothesis set在拟合复杂的target function的noise(这部分应该是模型设计所导致的,因为高阶不能拟合高阶, 所以设计的高阶能力有限吧, 不能达到f)

  • illustration。解释了什么是过拟合, 如用4阶的line去拟合5个带noise的点, Ein = 0, 但是Eout就很大了。 Overfitting有两层含义: 一层是针对两个模型而言, 如3阶的模型与4阶的模型比较(4阶的过拟合); 另外一层含义是针对同个模型而言,如在神经网络中, 训练过度也会导致过拟合, 并且泛化误差大, 就是Ein在不断下降, 而Eout却不,一个技巧是使用early stopping。


    illustration

    versus
  • 下面是对overfitting下定义。 简单来说, 就是去拟合noise了。


    definition
  • case study。 为了说明noise的来源, 做了两个case: 一个的数据样本是10阶的数据点+noise; 另外一个是50阶的数据点(没有noise)。我们用了两个模型来拟合它: 一个是2阶的模型, 另外一个是10阶的模型。 按理来说, 应该有这样的感觉, 我们已经知道了是10阶的模型产生的数据, 那么我们用10阶去拟合, 应该结果会很好吧; 另外一个是50阶的数据, 案例说10阶至少会比2阶的好吧。 而事实却不是这样的。我们看到10阶的Ein都非常小, 但是Eout却十分的大!

data

fit
  • 再次从Ein和Eout的关系来看拟合的例子1. H2的模型能力比H10的模型能力差, 所以Expected Error肯定大些。 随着数据点增多, Ein变多, Eout一开始比较大, 然后逐渐降低逼近Ein, 但是会保持比Ein高的水平。 H10的分析如之前。


    case1
  • 对于例子2来说, 真的是没有noise吗? 虽然输入点x似乎没有noise。


    case2
  • case1. 为了做分析,我们有如下的notation, \sigma^2是noise的水平(case 1), Qf目标函数的复杂度(case 2); 并且, 我们比较Eout(10) - Eout(2)。


    exp1

    exp2
  • Result。我们将结果通过color plot的形式呈现出来, 左图是X方差的影响, 右图是target function复杂度的影响。 \sigma^2称为随机noise, 因为它们是无法衡量的并且随数据集固定了,是所有的模型都要面临的; Qf产生的误差称之为确定性noise, 因为当你确定了一个模型, 这个确定性noise也就确定了(稍后解释)。 我们看到, 随着数据点N的增多, overfitting在减小, 而随着随机noise的增多, overfitting在增大(我们有更大的可能性是在拟合noise?); 而随着确定性noise的增大, overfitting的问题也在增大(这是模型本身确定的了)。

res1

res2
  • 接下来详细解释确定性noise。 确定性noise定义为我们最终确定的h*(x)与f(x)之间的差异。 之所以称为noise可以这样理解, 你让一个只懂得实数的小男孩给你列举出一个复数的例子, 这显然超出了它的能力, 于是他竭尽全力也只能说1.32323(等等), 复数对它来说就是noise, 强人所难的noise。 确定性noise与随机noise主要有两个区别: 一是它依赖于假设空间, 假设空间的能力决定了确定性noise; 而是一旦x确定, 那么确定性noise也就确定了。 对于随机noise来说,它对所有的假设空间来说都是一样的, 另外是对于一个确定的x, 它也可能是不一样的。 那么, 如何确定确定性noise呢, 答案是无法确定, 但是有一点是可以肯定的是对于有限的数据点, H是在拟合noise的。


    deter1

    deter2
  • 接下来从bias variance角度来解释noise。 推导过程如lecture 8. 最终我们看到Eout = var + 确定性误差(模型能有多逼近f(x)) + 随机误差(x本身)。


    bv1

    bv2

    bv3
  • 如何解决overfitting呢, 一个是regularization(刹车), 一个是validation(守住底线), 这是接下来两节的主题。


    cures

    effect
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,922评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,591评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,546评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,467评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,553评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,580评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,588评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,334评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,780评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,092评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,270评论 1 344
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,925评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,573评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,194评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,437评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,154评论 2 366
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,127评论 2 352

推荐阅读更多精彩内容