传统的, 经典的激活函数:
softmax
sigmoid
tanh
ReLU -- 出奇的简单
softplus
记得周大神说过,激活函数的作用是:让某一部分的神经元先激活出来,然后传到后面层的神经元
比如说:一个猫的研究,一个车的轮胎
如果A层学习提取到这个特征,那么就会把这个特征传给下一层B层
layer1 ----传过来的值---激活函数 -----layer2
传统的, 经典的激活函数:
softmax
sigmoid
tanh
ReLU -- 出奇的简单
softplus
记得周大神说过,激活函数的作用是:让某一部分的神经元先激活出来,然后传到后面层的神经元
比如说:一个猫的研究,一个车的轮胎
如果A层学习提取到这个特征,那么就会把这个特征传给下一层B层
layer1 ----传过来的值---激活函数 -----layer2