1、
2、逻辑回归我们要求h(theta)的值在0和1之间,g(z)是s型函数或者叫逻辑函数,令z = theta'x使得h(theta)在0和1之间
3、注意下图红框中的等式
4、z >= 0时,h(x)的值为1,否则为0
决策边界是z =0
非线性决策边界,只需要听课里面如何确定各个theta参数了(通过找最优目标或者代价函数来拟合theta参数)
5、利用求线性回归模型的代价函数来拟合逻辑回归模型的theta参数将会得到非凸函数 J(theta),无法求得全局最优值?
6、逻辑回归函数的代价函数如下
6、如何判断alpha值设置的正确性以及如何确定梯度下降是正确运行的
7、优化算法不止梯度下降
8、多分类问题,预测一个new x所对应的类别时,选择由多个分类器得到的多个概率中最大的那个。
9、octave中运行的高级算法?没弄明白最后一道题既然用的是梯度下降为什么题目上说的是advanced optimaztion ??? !!!
10、 这篇文章对正则的讲解 http://www.cnblogs.com/jianxinzhou/p/4083921.html
11、提交前的答题记录
此题应该是选择第二个,对于第一项,引进正则化是为了minimize your error while regularizing your parameters”,也就是在规则化参数的同时最小化误差,即减小误差的同时能够让模型对于测试数据能有很好的性能。其中‘减小误差’,相当于对训练数据也有很好的性能。
正确!!!
在正则化线性回归中,如果正则化参数值 λ 被设定为非常大,我们将会非常大地惩罚参数θ1 θ2 θ3 θ4 … 也就是说,我们最终惩罚θ1 θ2 θ3 θ4 … 在一个非常大的程度,那么我们会使所有这些参数接近于零。如果我们这么做,那么就是我们的假设中相当于去掉了这些项,并且使我们只是留下了一个简单的假设,这个假设只能表明房屋价格等于 θ0
的值,那就是类似于拟合了一条水平直线,对于数据来说这就是一个欠拟合 (underfitting)。这种情况下这一假设它是条失败的直线,对于训练集来说这只是一条平滑直线,它没有任何趋势,它不会去趋向大部分训练样本的任何值。
另外,此题的最后一个选项,不是正则化而是多项式使得J(θ)不在是凸函数,正则化是使得凹函数稍微平滑的方法。
故此题选择第二项。
看第二遍视频的补充: