一、共同点
1、取值范围都是0~1区间,表示概率,概率自然是这个取值范围
2、都可以用来作为分类任务的输出层函数
二、不同点
1、sigmod作为输出层函数时解决的二分类任务,输出值是一个小数;除此之外可以用作隐层的激活函数,
另提一点,激活函数是解释神经网络非线性的核心原因。
2、softmax是二分类任务的推广,用于解决多分类问题,输出值是一组小数,有几类就有几个小数,相加为1。
原文链接:https://blog.csdn.net/sinat_19559525/article/details/80350687