机器学习值softmax

softmax这个函数用于多分类任务,在我们使用中经常和交叉熵联合起来,至于交叉熵计算loss,以后看到了会写,

先放图

softmax函数图形如下



没图

这个函数不同于sigmoid函数,函数图形不好画

放公式

这个

这个公式看上去可能有复杂,实际上wiki解释就是,将一组n维向量转化为0,1之间的另外一组向量。

这个函数同sigmoid函数一样适用于分类任务,将线性回归后tensor输入到softmax,会得到一个对应分类的概率,

根据所给出概率实现分类任务,不同于sigmoid的二分类,softmax对任意的维度都适用,至于分类任务太多,效果好不好我也没有实践过。好了,简单介绍了softmax,有兴趣的还可以深入


欢迎大家留言讨论

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容