回顾
- DeepLearning笔记:机器学习和深度学习的区别
- 对话深度学习1:Neural Networks 神经网络
- 对话深度学习2:Linear regression 线性回归
- 对话深度学习3:Activation Function 激活函数
阿扣
:阿特,还记得训练神经网络的目标其实是什么吗?
阿特
:我记得好像是要找出最合适的权重(weights),使得输出结果尽可能接近真实值。
阿扣
:Hin 棒!你说的没错。说回到训练神经网络,我们需要在训练中及时了解训练效果如何,是不是朝着训练目标在一点点靠近。如果偏离目标,就说明训练模型可能在「犯错」,就要纠正过来。
阿特
:那怎么知道模型是不是在「犯错」呢?
阿扣
:我们会找一个度量标准。一个常见的度量方法是计算误差的平方和(SSE, sum of the squared errors):
阿特
:你……欺负人 >.<
阿扣
:别着急,我们来拆解这一坨是个什么东西。先看看各个字母的含义:
)。
最右边的求和项表示我们训练出来的权重 w 乘上输入值 x 得出的目标值 $\hat y$(也就是我们给数据打算的标签),然后用这些结果跟实际的数据中的 y 值做比较,看看偏差有多大。
现在你理解了最右边的求和项了吗?
阿特
:大概意思是我们从数据中预测出来的 y ?
阿扣
:没错,我们先把这一坨替换成 $\hat y$,简化一下公式:
阿特
:世界清静多了~
阿扣
:我们再来看右边这个求和项。j 表示有 j 个隐层节点,把每个节点的误差平方
计算出来。现在只剩下最后一个求和项了,它表示把 u 个输出节点的误差加起来。这样就得到了总体误差。
Art & Code 的热门文章
- DeepLearning笔记:Docker 入门和用 Python 实现词频统计
- DeepLearning笔记: 语言模型和 N-gram
- 设计师学编程?从五个思维训练开始
- 菜鸟数据科学入门01 - 工具包概略
- 菜鸟数据科学入门02 - IPython 基础
- 菜鸟数据科学入门03 - NumPy 数组基础和基本操作
- 多用Git少交税
- VR 学习图谱