2018-09-28【机器学习笔录】机器学习中一些函数的概念及应用[二]

--------------------------------
Author : ShawnDong
updateDate :2018.9.29
Blog : ShawnDong98.github.io
--------------------------------

激活函数

  • 是什么?
    目前主要的激活函数有以下几种:

传统神经网络中最常用的两个激活函数为sigmoid和tanh,sigmoid被视为神经网络的额核心所在。

sigmoid:


sigmoid

非线性的sigmoid函数对中央区的信号增益较大,对两侧区的信号增益较小,在信号的特征空间映射上,有很好的效果。

tanh:


tanh.png

由于sigmoid和tanh激活函数左右两端在很大程度上接近极值,容易饱和,因此正在进行计算时当传递的数值过大或过小时会使神经元梯度接近于0,使得模型计算时会多次计算接近于0的梯度,花费了学习时间却使得权重没有更新。

ReLu:


image.png

ReLu对于达到阈值的数据其激活力度随着数值的加大而增大,呈线性关系。
ReLu计算简单,单纯一个值的输入输出不需要进行一系列的复杂计算,从而获得激活值。
ReLu进行模型计算时,一部分神经元在计算时如果有一个大的梯度经过,则此神经元的梯度会被强行设置为0,而在整个其后的训练过程中这个神经元都不会被激活,这会导致数据多样化的丢失,但是也能防止过拟合。

Relu当输入是负数的时候,ReLU是完全不被激活的,这就表明一旦输入到了负数,ReLU就会死掉。这样在前向传播过程中,还不算什么问题,有的区域是敏感的,有的是不敏感的。但是到了反向传播过程中,输入负数,梯度就会完全到0,这个和sigmod函数、tanh函数有一样的问题。

ELU:


image.png

ELU函数是针对ReLU函数的一个改进型,相比于ReLU函数,在输入为负数的情况下,是有一定的输出的,而且这部分输出还具有一定的抗干扰能力。这样可以消除ReLU死掉的问题,不过还是有梯度饱和和指数运算的问题。

PReLu:


image.png

PReLU也是针对ReLU的一个改进型,在负数区域内,PReLU有一个很小的斜率,这样也可以避免ReLU死掉的问题。相比于ELU,PReLU在负数区域内是线性运算,斜率虽然小,但是不会趋于0,这算是一定的优势吧

  • 为什么?
    对于神经网络的拟合,其过程可以认为是在不停地将相似的数据和特征叠加在一起,而激活函数就起到在这些叠加层之间进行切割的作用,使其在真实的贴近过程中还有一个能够被相互区分的能力
  • 怎么用?
    来自于莫凡老师的说法,激活函数就是将输入”掰弯“,将神经元的输入映射到输出端。

卷积层

  • 是什么?

卷积核是一个大小远远小于图像的矩阵,对于图像大矩阵中的每个像素,计算其周围的像素和卷积核对应位置的乘积,最后将将结果相加最终得到的值就是该像素的值,这样就完成了一次卷积。

数字图像处理卷积运算主要有两种思维:

稀疏矩阵:对于稀疏矩阵来说, 卷积网络具有稀疏性, 卷积核的大小远远小于输入数据矩阵的大小。这样能够在计算后获取更少的参数特征,极大地减少了后续的计算量。

参数共享:在提取特征过程中,一个模型在多个参数之中使用相同的参数

  • 为什么?

卷积核中不同位置权重不同,因为权重不同,在卷积核在和图像的每个像素及其周围像素相乘时,可以提取图像的特征信息。

  • 怎么用?
    在tensorflow中对卷积复杂的数学运算进行了很好的封装,调用函数
tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)

池化层

  • 是什么?

计算图像一个区域上的某个特定特征的平均值(或最大值)作为特征提取。这种聚合的操作叫做池化,根据不同的池化方式叫做平均池化和最大池化。

  • 为什么?

理论上卷积后得到图像的特征,可以通过这些特征去训练分类器,但是这样会面临计算量的挑战,池化使得特征具有低得多的维度。

  • 怎么用?
    TensorFlow中池化运算的函数如下:
tf.nn.max_pool(value, ksize, strides, padding, name=None)

全连接层

  • 是什么?

正如其名,全连接层就起到将已经训练得到的特征(也就是卷积池化后的输出)和最终输出(也就是最终分类)连接起来的作用。

  • 为什么?

全连接层将学习到的“分布式特征表示”映射到标记空间的作用 (其实就是将已经提取的特征,通过分类器,进行分类的过程(如softmax激励函数))

  • 怎么用?
    TensorFlow中使用分类器进行分类的过程其实也就是全连接的过程
  tf.nn.softmax()

如何防止过拟合

  • 是什么?

在TensorFlow训练的过程中,因为去拟合偏离程度较大的点,导致曲线变形。

  • 为什么?
  1. 训练集的数量级和模型的复杂度不匹配,训练集的数量级要小于模型的复杂度。
  2. 训练集和测试集特征分布不一致;
  3. 样本里的噪音数据干扰过大,大到模型过分记住了噪音特征,反而忽略了真实的输入输出间的关系;
  4. 权值学习迭代次数足够多(Overtraining),拟合了训练数据中的噪声和训练样例中没有代表性的特征
  • 怎么用?

1、使用Dropout,训练过程按一定几率关闭或忽略某些层的节点。
2、权重衰减(正则化):将权值大小加入到损失函数中

此外还有获取更多数据集,采用合适模型,Early Stopping, 可变化的学习率, 使用Batch_Normalization,交叉验证,PCA特征提取,增加各种噪音等方式来降低过拟合。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,937评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,503评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,712评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,668评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,677评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,601评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,975评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,637评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,881评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,621评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,710评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,387评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,971评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,947评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,189评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,805评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,449评论 2 342

推荐阅读更多精彩内容