sigmod、softmax

一、共同点

1、取值范围都是0~1区间,表示概率,概率自然是这个取值范围

2、都可以用来作为分类任务的输出层函数

二、不同点

1、sigmod作为输出层函数时解决的二分类任务,输出值是一个小数;除此之外可以用作隐层的激活函数,

另提一点,激活函数是解释神经网络非线性的核心原因。

2、softmax是二分类任务的推广,用于解决多分类问题,输出值是一组小数,有几类就有几个小数,相加为1。

原文链接:https://blog.csdn.net/sinat_19559525/article/details/80350687

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

友情链接更多精彩内容