240 发简信
IP属地:山西
  • 120
    学习笔记

    学习笔记 softmax sigmod 1/1+exp(-x) 交叉熵损失函数 Relu激活函数 相较于sigmoid和tanh,Relu的主要优势是计算效率高且不会出现梯...