嘿哈!小y同学换个账号来造作呀!
心里一直揣着大牛Andrew NG的ML课程……半懂不懂,久久不能释怀
今天脑袋一抽……翻墙Coursera走起!重新从第一周开始看起,天哪……1.5倍速刷了视频,感觉I can sail through it!
简单稍微写一下第一周的:
What is ML?
Just Experience---E,task---T,performance measure ---P,就是在training set的基础上,解决一个任务,用p来测量任务完成得好不好,不好咋办捏?从E上继续学呗!
然后呢,主要是supervised learning和unsupervised learning,这俩啥区别咩,一个是how to do,另一个呢,是learn by itself。第一个从数据集里直接得出结论,包括classification 和regression,第二个呢……现在还没太搞明白呢呢呢
Regression
先来单变量线性回归滴,叫个linear regression with one variable
好几个视频讲了个啥尼
3个公式吧:
1Hypothesis:hx=thet1+thet2X
2Cost function:J thet=1/2m求和(hxi-yi)^2
3Gradient decent:就是求出让代价函数达到最小值时候的thet值咩
Thet1=thet1-a*1/mSUM(hxi-hi)
Thet2=thet2-a*1/mSUM(hxi-hi)xi
Thet好难打,还不知道对不对……
除去各种例子,最核心的就是这个了叭……先假设函数然后求代价函数,然后用梯度下降算出最小值来……最后捏就得到算法了……