深度模型训练方法

深度模型拥有很多超参:

  • 学习步长:alpha
  • momentum 梯度下降参数:beta
  • Adam 梯度下降参数:beta1, beta2, epsilon
  • 网络层数layers
  • 每层隐藏层的神经元的数量hidden units
  • learning rate decay
  • mini-batch size
  • activation functions

超参优化的优先级

  1. 学习步长alpha最重要
  2. momentum参数beta,默认=0.9; mini-batch; hidden units;
  3. layers; learning rate decay;
  4. beta1, 默认=0.9; bera2, 默认=0.999; epsilon, 默认=pow(10, -8)

train/dev/test sets

所有的数据将被划分为 training set/development set/test set

首先在training set上训练很多模型,然后在dev set上验证(可以cross validation)一个最好的模型,最后在test set上测试模型的性能。

数据集划分

在传统的机器学习算法中,数据集通常划分为70%的training set和30%的test set,或者60% training set, 20%dev set, 20%test set。当数据集的总量在10000量级以内,这种划分方法最合适不过了。

当如果数据总量很大,比如在百万集的量级时,我们也许需要重新思考数据的划分策略了。通常,我们会倾向与划分更小比例的数据到dev set和test set。划分dev set的目标是校验模型并且调整以及选择一个最佳的模型,同样,划分test set的目标是评估最优模型的性能。

所以,不必要划分太多的数据到这两个数据集上。如果,拥有一百万量级的数据,那么,分别划分10000条数据到dev set和test set就足够了。

此外,为了让模型拥有更好的泛化能力,training set/dev set/test set的数据分布比例必须大致相同。

Bias & Variance

Bias和Variance代表训练出来的模型往往是偏执的,为了更好地解释这个概念,本人认为偏执一般与泛化相对。其中,Bias指的是训练偏执,Variance是测试偏执。如何降低模型的偏执,增强泛化能力呢?

首先,如果模型在训练数据上拟合不足,我们认为模型已经Bias了;相反,如果模型在训练集上过度拟合,认为模型Variance,并且出现了overfitting。这两种情况都不是理想的训练结果。
下面解释Bias和Variance的判断依据:

偏执类型 Bayes optimal error Training set error Dev set error
High Bias 0.01% 12.00% 12.10%
High Variance 0.01% 0.50% 12.10%
High Bias & High Variance 0.01% 12.00% 20.10%
Low Bias & Low Variance 0.1% 0.50% 0.80%

Bayes optimal error 指的是由于数据本身的规律性和合理性的限制(数据质量不够),理论上最理想的最小识别误差值的大小。这个值往往是由相关专业人士识别数据所推导出来的误差极限(计算机算法很难达到)。Training set error指的是算法在训练集上训练出来的识别误差。Dev set error指验证集上的识别误差。

优化high Bias & high Variance

优化策略如下:

High Bias

  • Bigger network
  • Trains longer
  • Uses more advanced optimization algorithms
  • Finds a better suited network architecture

High Variance

  • get more data
  • Dropout
  • regulariztion
  • Finds a better suited network architecture

好的模型判断方法

机器学习模型算法训练的好或是不好,可以通过以下两个方面判断:

  • 模型在训练集上数据拟合的好,可以认为此时模型的Bias error很低,数据拟合的好
  • 模型在训练集上的优势依然体现在验证集和测试集上,在这两个数据集上有很好的拟合效果

此外,还有一些情况,模型在测试集上拟合的很好,性能表现优越,但在现实使用情况下表现幷不尽人意,此时需要考虑的是数据集的选择出现了偏差,需要根据现实情况合理调整数据的分布了。

正所谓,模型好坏的极限是由数据的质量决定的,而算法的性能只能让模型无限逼近这个极限。由此,数据质量的重要性可见一斑。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,921评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,635评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,393评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,836评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,833评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,685评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,043评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,694评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,671评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,670评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,779评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,424评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,027评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,984评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,214评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,108评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,517评论 2 343

推荐阅读更多精彩内容