softmax:
image.png
tanh:
image.png
ReLu
{\displaystyle f(x)=x^{+}=\max(0,x)}
Softplus(x)=log(1+ex)
image.png
sigmoid:
image.png
maxout?
image.png
对于CNN来说,并不是所有上下层神经元都能直接相连,而是*通过“卷积核”作为中介
输出值和真实值差距比较大,对误差进行反向传播,更新权值,重新计算输出
softmax:
tanh:
ReLu
Softplus(x)=log(1+ex)
sigmoid:
maxout?
对于CNN来说,并不是所有上下层神经元都能直接相连,而是*通过“卷积核”作为中介
输出值和真实值差距比较大,对误差进行反向传播,更新权值,重新计算输出