吴恩达深度学习笔记(19)-非线性激活函数的作用

为什么需要非线性激活函数?(why need a nonlinear activation function?)

为什么神经网络需要非线性激活函数?

事实证明:要让你的神经网络能够计算出有趣的函数,你必须使用非线性激活函数,证明如下:

这是神经网络正向传播的方程(看图中公式)

现在我们去掉函数g,然后令a^([1])=z^([1]),或者我们也可以令g(z)=z,这个有时被叫做线性激活函数(更学术点的名字是恒等激励函数,因为它们就是把输入值输出)。

为了说明问题我们把a^([2])=z^([2]),那么这个模型的输出y或仅仅只是输入特征x的线性组合。

如果我们改变前面的式子,令: 

如果你是用线性激活函数或者叫恒等激励函数,那么神经网络只是把输入线性组合再输出。

(你可以理解为其实做这样的变换没有对数据和我们想要的结果有很大的改变)

我们稍后会谈到深度网络,有很多层的神经网络,很多隐藏层。

事实证明,如果你使用线性激活函数或者没有使用一个激活函数,那么无论你的神经网络有多少层一直在做的只是计算线性函数,所以不如直接去掉全部隐藏层。

在我们的简明案例中,事实证明如果你在隐藏层用线性激活函数,在输出层用sigmoid函数,那么这个模型的复杂度和没有任何隐藏层的标准Logistic回归是一样的,如果你愿意的话,可以证明一下。

在这里线性隐层一点用也没有,因为这两个线性函数的组合本身就是线性函数,所以除非你引入非线性,否则你无法计算更有趣的函数,即使你的网络层数再多也不行;

只有一个地方可以使用线性激活函数------g(z)=z,就是你在做机器学习中的回归问题(记得哦,这个是建模是考虑的)

y 是一个实数,举个例子,比如你想预测房地产价格,y 就不是二分类任务0或1,而是一个实数,从0到正无穷。如果y 是个实数,那么在输出层用线性激活函数也许可行,你的输出也是一个实数,从负无穷到正无穷。

划重点!划重点!划重点!

总而言之,不能在隐藏层用线性激活函数,可以用ReLU或者tanh或者leaky ReLU或者其他的非线性激活函数,唯一可以用线性激活函数的通常就是输出层;

除了这种情况,会在隐层用线性函数的,除了一些特殊情况,比如与压缩有关的,那方面在这里将不深入讨论。

在这之外,在隐层使用线性激活函数非常少见。因为房价都是非负数,所以我们也可以在输出层使用ReLU函数这样你的y^都大于等于0。

理解为什么使用非线性激活函数对于神经网络十分关键,接下来我们讨论梯度下降,并在下一个笔记中开始讨论梯度下降的基础——激活函数的导数。

就是开始推导公式了,所以要注意了,还记得各个激活函数的表达式是什么么?

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 原文地址:http://www.cnblogs.com/subconscious/p/5058741.html 神...
    Albert陈凯阅读 5,573评论 0 48
  • 文章主要分为:一、深度学习概念;二、国内外研究现状;三、深度学习模型结构;四、深度学习训练算法;五、深度学习的优点...
    艾剪疏阅读 22,160评论 0 58
  • 在搭建好的OpenStack环境,创建虚拟机。 登录OpenStack 根据自己的账号信息登录。 登录进去之后,查...
    2010jing阅读 21,327评论 7 8
  • 六种不同的思考方式,对应不同的事情,单独思考,“集思广益”,对应团队,达到目的。
    高密中百阅读 217评论 0 0
  • 画:心情 江南的春天总是这样阴阴郁郁,淅淅沥沥。孩子也好大人也罢,一个个仍罩着厚厚的冬装,裏紧脖子缩着脑袋...
    冬儿clp阅读 360评论 0 3

友情链接更多精彩内容