神经网络专业术语基本介绍

1. 卷积层

    (1)作用:提取图像特征,也称作“特征训练分类器”。

2. 池化层

    (1)作用:采样,减小图像尺寸,减少训练参数,减轻模型过拟合程度。

    (2)Max-Pooling和Mean-Pooling两种

    (3)重叠池化(Overlapping Pooling):strides < ksize

3. 激活函数

    (1)作用:将卷积后得到的值限制在指定范围内。

    (2)函数形式

        (a)sigmoid:f(x)=1/(1+exp(-x))    值域为(0,1)

        (b)tanh:  f(x)=[exp(2x)-1]/[exp(2x)+1]  值域为(-1,1)

          (c)   近似生物神经激活函数 ReLU(Rectified Linear Units):  f(x)=max(0,x)  值域为[0,∞)

        (d)近似生物神经激活函数Softplus:f(x)=log[1+exp(x)]


    (3)后面两个函数对比Sigmoid函数好在三点:①单侧抑制 ②相对宽阔的兴奋边界 ③稀疏激活性(重点,可以看到红框里前端状态完全没有激活)

4.局部响应归一化(LRN:Local Response Normalization)

    (1)作用:激活的神经单元会抑制临近神经元。

5. DropOut

    (1)作用:以一定的概率暂时丢弃神经元,使其不参与前向传播与反向传播,可减轻过拟合,加快计算速度,减少参数。

    (2)工作特点:dropout在训练时会随机将部分节点的输出改为0。

    (3)工作方式:dropout一般只在全连接层而不再卷积或池化层使用。


LeNet


AlexNet

AlexNet与LeNet除了层数之外设计不同的是,AlexNet还运用ReLU激活函数,局部反应归一化,重叠池化(overlapping Pooling)

6.  知识拓展

    (1)Top-5错误率

        对一个图片,如果分类概率前五中包含正确答案,才认为正确。

    (2)Top-1错误率

        对一个图片,如果分类概率最大的是正确答案,才认为正确。

7. 泛化能力

    深度神经网络往往带有大量的参数,但依然表现出很强的泛化能力(指训练好的模型在未见过的数据上的表现)。

    泛化能力:指训练好的模型在未见过的数据上的表现能力。良好泛化能力的网络在输入数据与训练数据稍有不同时也能得到比较好的结果

8.  正则化

    (1)定义:深度学习中用以减小测试误差,但可能会增加训练误差的策略称为正则化。

    (2)作用:避免过拟合

    (3)方式:正则化项加在了成本函数中,而且只在全连接层的权重需要加入正则化

        (a)L1正则项

                α||w||即为L1正则化项


L1正则项

        (b)L2正则项


L2正则项

        (c)目前许多正规化方法,如神经网络、线性回归、logistic回归通过在目标函数J上加一个参数规范惩罚项 Ω(θ)公式如下:


更大的 α 对应更强的正规化处理

9.  过拟合

    (1)定义:指在模型参数拟合过程中的问题,由于训练数据包含抽样误差,训练时,复杂的模型将抽样误差也考虑在内,将抽样误差也进行了很好的拟合。 

    (2)具体表现:最终模型在训练集上效果好,但是在测试集上效果差,模型泛化能力弱。

    (3)解决原因:我们无法穷尽所有状态,不可能将所有情况都包含在训练集上

    (4)解决办法:

        (a)获取更多数据。①数据增强;②采集更多数据;

        (b)使用合适的模型

            (一)网络结构 Architecture

            (二)训练时间 Early stopping

            (三)限制权值 Weight-decay,也叫正则化(regularization)

            (四)增加噪声 Noise。在输入中加噪声;在权值上加噪声;对网络的响应加噪声

        (c)结合多种模型

            (一)Bagging

            (二)Boosting

            (三)Dropout

        (d)贝叶斯方法

10.  Softmax函数

    (1)定义:在数学,尤其是概率论和相关领域中,Softmax函数,或称归一化指数函数,是逻辑函数的一种推广。它能将一个含任意实数的K维的向量“压缩”到另一个K维实向量 f(Z) 中,使得每一个元素的范围都在(0,1)之间,并且所有元素的和为1。该函数的形式通常按下面的式子给出:

Softmax函数

    (2)通俗的讲解:



softmax Layer的结构图



参考:

[1]  星小环的AI读书会—深度学习系列08经典卷积神经网络LeNet&AlexNet,https://zhuanlan.zhihu.com/p/31435647

[2]  深度学习:正则化,http://shartoo.github.io/regularization-deeplearning/

[3]  ReLu(Rectified Linear Units)激活函数,http://www.cnblogs.com/neopenx/p/4453161.html

[4]  机器学习中用来防止过拟合的方法有哪些?https://www.zhihu.com/question/59201590

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,793评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,567评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,342评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,825评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,814评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,680评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,033评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,687评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,175评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,668评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,775评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,419评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,020评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,206评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,092评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,510评论 2 343

推荐阅读更多精彩内容