从零构建机器学习模型(三)模型分析及神经网络入门

听老哥的,以后文章写短点,哈哈。


1.2 模型分析(Model Exploration)

1.2.1 模型准确性(Accuracy)

数据在经过预处理之后我们就可以考虑开始构建我们的模型。

任何一个模型都存在误差,并可以被分解成两部分:偏差bias,也叫经验风险empirical risk,用来衡量模型拟合的优劣;方差variance,也成为结构风险structure risk,用来衡量模型的复杂程度,二者之和作为模型误差。一般来说模型有以下关系:

低偏差<=>低训练误差,可能导致模型过于复杂,既过拟合=>高泛化误差=>

regularize[SVM],

dropout,dropconnect[Neural Network],

prepruning,postpruning[Decision Tree],=

bootstrap[Random Forest],

data boost参考上一节

低方差<=>低泛化误差可能性,可能导致模型过于简单,既欠拟合=>高训练误差=>

重构层次[Neural Network],

boost[CART],

这么说其实并不准确,因为模型的误差取决于诸多因素:样本容量,误差限,模型复杂度三者服从概率关系,也就是一致性,参考Andrew Ng斯坦福大学公开课 :机器学习课程 经验风险最小化。而实际情况可以参考下图:

v2-aa0650fbef52674a2a138eb59ae1776e_hd.jpg

我们现在来分析上面的训练图,把Capacity换成Complexity比较好,不过因为这个误差图比较典型,我们暂时采用这一张:

  1. Underfitting部分对应低偏差高方差,我们可以看到训练误差和测试误差相近,但都处于较高值,也就是高偏差低方差;
  2. Overfitting部分对应高偏差低方差,我们可以看到训练误差和测试误差差异较大,训练误差小而测试误差打,也就是高方差低偏差;
  3. 模型Loss函数下降过快,对应大学习率或过长的epoch,这一点会在之后的Neural Network做解释;
  4. 最优容量即模型的最优参数,如果此时模型准确性仍不满足要求,我们需要更新模型,调用复杂的模型并重复以上分析进行调优;

当然更多时候模型会如下图(resnet):

v2-3af17a90e525977618b5d801062b2518_hd.jpg

二者的区别主要在于MLP那张图误差稳定而Resnet图有振荡。前者可能是Batch的训练方式,模型的误差会有稳定变化,而更多时候我们为了跳出局部最优并且快速收敛,会采用mini batch(也就是后者)这种一次抓取部分样本训练的方式,而这种不稳定的抓取也就导致了误差的不稳定性。

1.2.2 模型实时性(On-Time)

一般学术上的机器学习模型更多考虑的时模型的准确性,而工业上还需模型实时性。例如我们在部署基于CNN的自动驾驶深度学习模型,我们就要考虑到模型是否能保证输出的帧率。如果模型过于复杂,则可能需要大型的处理器,或是降低输入帧率,这对自动驾驶都是有很大影响的。这部分等算法部分结束再讨论可能比较合适,跳过算法直接说实时性不好解释清楚。


1.3 机器学习算法初阶

前面我们已经讨论过了构建模型的一些基本考虑,接下来我们开始讨论一下具体的算法。

1.3.1 神经网络(Neural Network)

想了一下还是从这个Deep Learning的父类开始说能比较清楚地解释机器学习的概念。基础知识我就不做介绍了,百度谷歌有很多的资料,今天先从一个问题说一下:

为什么神经网络需要激活函数?

我们在考虑通过多个特征预测结果的问题时,很自然的想法就是对所有特征进行加权组合,而最初的神经网络其实做的就是这样一件事情:

v2-19f71a7508aab1c4c2f6fcfa34832aa7_hd.jpg

前半部分的加权求和(weighted sum)中权值就表征了特征的重要性,而最终的求和值就表征了预测结果。那为什么要加后面的激活函数(activation function)呢?

  1. 仿生学的原因。在一开始研究神经网络的时候,学者们认为每个神经的从抑制到兴奋的过程其实都是大量的输入神经递质在神经突触上聚合并在总量超越阈值的时候激活(fire)神经元,因此仿生的神经元也被加上了一个阶跃函数作为激活的过程;
  2. 规范化输出。神经元如果没有一个激活函数,那么它的输出是不可控的,比如在做分类,可能需要的label是0,1,但神经元在更新会有数值计算误差的问题,这时如果加上激活函数,就可以保证输出只是二值化的0,1(当然现今并不一定是这样,比如tansig和sig效果都要好一些,因为考虑到可微性);
  3. 激活函数的非线性化是深层网络(Multi-Layer-Perceptron)的基础,也会提升网络的表达能力。考虑这样一个事实,假设我们的yk只是加权求和,两层网络输出就会等价于单层网络的输出,可以参考下面的计算式:
v2-1e18d9183355232edc476cdabc24d1d8_hd.jpg

第二个问题,

为什么神经网络权值更新策略是负梯度?

第二个问题,

为什么神经网络权值更新策略是负梯度?

捕获.PNG

因此我们的基本更新策略就是取cost函数的负梯度

今天先为神经网络开一个头,下一章我们继续讨论神经网络的细节,东西比较多……


另外再补充具体的Resnet的变种的总结:

1.NiN(神经网络学习变换过程,内部结构是个Perceptron)

2.wide resnet(添加维数的resnet)

3.stochastic depth(依概率dropout掉resnet块)

4.identity restnet(构造标准的resnet块)

5.FractalNet(带有层次Path的Resnet)

6.Aggreated residual netword(用inception的思路添加多个resnet块)

7.Densely connected CNN(shortcut的path可以横跨种块结构)

其实总结起来就是模型的performance不仅决定于信息流过的深度(Resnet),也决定于信息流的宽度(Inception)

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,128评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,316评论 3 388
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,737评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,283评论 1 287
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,384评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,458评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,467评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,251评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,688评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,980评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,155评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,818评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,492评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,142评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,382评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,020评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,044评论 2 352

推荐阅读更多精彩内容