一. 梯度下降
我们的目标是预测值与真实值的差距越小越好,由此可以设置目标函数为:
上式中,平方项内为真实值与预测值的差值,目标函数为差值的平方的均值。
思考:目标函数值越小越好,即求取目标函数的最小值点。通过梯度下降一点一点地求取。
1.批量梯度下降
上式第一个式子为目标函数对θ求偏导,求得均值梯度,上式第二个式子即利用左边计算出的梯度值。
优缺点:容易得到最优解,但是由于每次计算需考虑所有样本,计算速度很慢。
2.随机梯度下降
随机寻找一个样本,计算梯度。
优缺点:迭代速度快,但不一定每次都朝着收敛的方向。
3.小批量梯度下降法
每次更新选择一小部分数据来算。
优缺点:速度折中,方向准确度折中。
二. 学习率
即步长,每次前进的距离,一般设置的很小,如0.001。
如何设置?
一般从小的值开始,如果效果不好,再取消一些。
关注公号【开发小鸽】,获取海量计算机视觉与深度学习资源,实战项目源码,最新论文下载,大厂面试经验!!!