07.18 深度学习常见函数(不定期更新)

softmax:

image.png

tanh:

image.png

ReLu


{\displaystyle f(x)=x^{+}=\max(0,x)}
{\displaystyle f(x)=x^{+}=\max(0,x)}

Softplus(x)=log(1+ex)


image.png

sigmoid:

image.png

maxout?

image.png

对于CNN来说,并不是所有上下层神经元都能直接相连,而是*通过“卷积核”作为中介

输出值和真实值差距比较大,对误差进行反向传播,更新权值,重新计算输出

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容