2.2逻辑回归
使用这种学习算法会得到的输出标签y,y在监督学习问题中全是0或者1,因此这是一种针对二分类问题的算法。
给定的输入特征向量X和一幅图片对应,我希望识别这是否是一张猫的图片,因此我们想要一种算法能输出一个预测值,我们称之为y帽(yhat)。
形式上讲,yhat是当给定输入特征X时,预测标签y为1的概率。换种说法就是当x是一张图片。
X是一个n_x维的向量,约定逻辑回归的参数是w,w也是一个n_x维的向量。参数b是一个实数。
想要得到yhat,有一个传统方法。
但这对于二分类并不是一个好的算法,因为你希望yhat能够输出y为1的概率,因此yhat的值应该在0到1之间,上述方法所得到的值可能会比1大很多或者是一个负数。
所以让逻辑回归的输出yhat等于对这个值应用sigmoid函数的结果。
如果水平轴的标签为z,那么函数sigmoid(z)是这样的,它从0平滑地升高到1。
这里用z表示
当z是一个实数,sigmoid(z)就等于
注意:1、如果z非常大,e^(-z)就会接近0,sigmoid(z)就会非常接近1.
[if !supportLists]2、[endif]相反的,如果z非常小,sigmoid(z)就会非常接近0.