先看看生物学神经网络:
再看看人工神经网络:
再比较一下Andrew Ng讲的逻辑回归求导:
x1,x2 是输入的特征值;w1,w2是特征值权重; b是偏置(bias),Z是神经元(Cell Body)里面的求和函数,a是激活函数(activation function),输出预测值;
L是损失函数(Loss Function),反向计算下一个更新的参数:w1,w2和b
这样一比较,是不是非常形象和生动?
先看看生物学神经网络:
再看看人工神经网络:
再比较一下Andrew Ng讲的逻辑回归求导:
x1,x2 是输入的特征值;w1,w2是特征值权重; b是偏置(bias),Z是神经元(Cell Body)里面的求和函数,a是激活函数(activation function),输出预测值;
L是损失函数(Loss Function),反向计算下一个更新的参数:w1,w2和b
这样一比较,是不是非常形象和生动?