AI疯狂进阶——激活函数篇

本文作者专注于AI进阶算法,正在推出AI疯狂进阶之基础理论进阶篇,如有兴趣可持续关注我。

核心导读:

1. 神经网络激活函数的作用是什么?

2. 如何评价激活函数的好坏?

3. ReLU存在哪些问题?

4. 存在替换万年ReLU的激活函数吗?

1. 激活函数的作用是什么?

激活函数对于人工神经网络模型学习、理解非常复杂的数据来说具有十分重要的作用。激活函数给神经元引入了非线性因素,使得神经网络可以逼近任何非线性函数,这样神经网络就可以应用到众多的非线性模型中。目前最常见的激活函数当属ReLU以及在其基础上改进的如PReLU,RReLU,LeakyReLU等。本文在激活函数上进行了进阶总结,下面一一阐述:

2.如何评价激活函数的好坏?

目前学术界总计有50+类型的激活函数,但没有统一的或者明确的标准去衡量激活函数的好坏,最根本的原因是因为神经网络通过训练本质上是去拟合训练数据的非线性分布,然而现实中数据的分布是无法统计的,所以采用哪种激活函数能拟合的更好是无法通过理论去推导出来,因此大部分论文都是通过在几十种不同的任务上做实验去看准确率以及准确率浮动的范围(稳定性)来评判激活函数的好坏。从最近研究出的一些比较好的激活函数中可以总结出好的激活函数必须拥有以下三个特点:

(1) Unboundedness(x>0无饱和区域):传统的激活函数如sigmoid和tanh函数都有饱和区域,所以必须依赖较好的初始化让输入数据处于非饱和区域,否则饱和区域产生的梯度过小会影响收敛速度,而Relu系列都是x>0无饱和区域。

(2)NegativeOutputs(x<0产生非0值):Relu在x<0的值全都是0,而PReLU,RReLU,LeakyReLU最大的共同改进点就是在x<0产生非0值,少量的NegativeOutputs能减少神经元训练过程中出现"die"的概率,提升模型的鲁棒性。

(3)Smoothness(平滑性):Relu,PReLU,RReLU都是在x=0点都是不连续的,最明显的现象是在特征响应图上产生断层,平滑的激活函数更利于梯度信息的回传。

3.ReLU存在哪些问题?

(1)Dead ReLU Problem:《Applying Deep Learning to Airbnb Search》中解释了这个问题,神经网络接受异于常值范围的输入时,在反向传播过程中会产生大的梯度,这种大的梯度,会因梯度消失而永久关闭诸如 ReLU 的激活函数,这主要是ReLU没有NegativeOutputs所带来的问题。下面举了个简单的例子说明这个现象。

(2)High-Confidence Predictions:《Why ReLU Networks Yield High-Confidence Predictions Far Away From the Training Dataand How to Mitigate》中针对例如将一个在CIFAR 10数据集(10类普通物体)上训练的神经网络,放到SVHN数据集(街景门牌)上做测试,该模型竟然能够以100%的置信度将门牌识别为狗、鸟和飞机等这种现象,通过理论建模,解释ReLU带来的高置信度问题,并提出CEDA和ACET来缓解这种不良情况。

4.存在替换万年ReLU的激活函数吗?

答案是肯定的。本文作者在这里给大家推荐2个激活函数。这2个激活函数在自己的工程项目中都尝试过,相比Relu均有稳定0.5%左右的提升。仅仅改变激活函数就能带来白给的提升,何乐而不为?第一个是Google Brain提出的Swish函数,其形式为f(x) = x · sigmoid(x) ,《SWISH: A SELF-GATED ACTIVATION FUNCTION 》论文在多个任务上实验精度都超过Relu,同时在2019年推出的端侧引擎MobilenetV3中,也是直接用Swish替换掉Relu。另一个是Mish函数,其形式为f(x) = x⋅ tanh(ln(1 + exp(x)),《Mish: A Self Regularized Non-Monotonic Neural Activation Function 》也是在多个任务上实验最终准确度上比Swish(+.494%)和ReLU(+ 1.671%)都有提高。从下图可以看出Swish和Mish在特征图上数据分布比Relu更加平滑。由于激活函数替换的成本较低,所以当你看到这篇文章的时候,可以尝试在自己的项目中采用这2个激活函数试一试,说不定就能带来一定的提升。

5.小结

激活函数一直是神经网络研究中的一个重要方向,未来也会有更多更好的激活函数出现,如果不知道采用哪个激活函数好,可以采用Auto ML进行搜索。

如需转载,请注明出处。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,384评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,845评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,148评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,640评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,731评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,712评论 1 294
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,703评论 3 415
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,473评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,915评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,227评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,384评论 1 345
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,063评论 5 340
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,706评论 3 324
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,302评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,531评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,321评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,248评论 2 352

推荐阅读更多精彩内容