Just now

嘿哈!小y同学换个账号来造作呀!

心里一直揣着大牛Andrew NG的ML课程……半懂不懂,久久不能释怀

今天脑袋一抽……翻墙Coursera走起!重新从第一周开始看起,天哪……1.5倍速刷了视频,感觉I can sail through it!

简单稍微写一下第一周的:

What is ML?

Just Experience---E,task---T,performance measure ---P,就是在training set的基础上,解决一个任务,用p来测量任务完成得好不好,不好咋办捏?从E上继续学呗!

然后呢,主要是supervised learning和unsupervised learning,这俩啥区别咩,一个是how to do,另一个呢,是learn by itself。第一个从数据集里直接得出结论,包括classification 和regression,第二个呢……现在还没太搞明白呢呢呢

Regression

先来单变量线性回归滴,叫个linear regression with one variable

好几个视频讲了个啥尼

3个公式吧:

1Hypothesis:hx=thet1+thet2X

2Cost function:J thet=1/2m求和(hxi-yi)^2

3Gradient decent:就是求出让代价函数达到最小值时候的thet值咩

Thet1=thet1-a*1/mSUM(hxi-hi)

Thet2=thet2-a*1/mSUM(hxi-hi)xi

Thet好难打,还不知道对不对……

除去各种例子,最核心的就是这个了叭……先假设函数然后求代价函数,然后用梯度下降算出最小值来……最后捏就得到算法了……


This is the hand of Jobs!
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容