Andrew Ng ML学习总结

概述
断断续续,一个月的时间,把吴老师的机器学习视频教程看完,收获很多,从一无所知到概念的理解、公式的推导、算法的探究等等,可以说基本上算是快要入门了,接下来将是继续学习。当然,在学习的过程中需要不断的总结、实践和提升,所以,接下来我将对所学到的知识进行简单总结,以加强自我学习。
什么是机器学习
机器学习是人工智能的核心,它在数据挖掘、计算机视觉、自然语言处理等领域有着广泛的应用。机器学习可以分为监督学习和无监督学习。
监督学习
监督学习是指:利用一组已知类别的样本调整分类器的参数,使其达到所要求性能的过程。例如,线性回归、逻辑回归、神经网络等算法都属于监督学习。
线性回归算法
线性回归根据其特征数,可分为一元线性回归和多元线性回归,这里以通用模型进行讲解。线性回归的假设函数模型如下:

其中,x为特征值,θ为我们的参数也叫权重,x_0=1。经过推导和演变,可以得到我们的代价函数(方差):

我们的梯度下降公式如下:

其中𝛼为学习率,它决定算法收敛的快慢,但取值过大可能造成无法收敛。通过迭代次数与J(θ)函数的可视化,可以查看梯度下降是否正确收敛
根据多元微分法,我们可得到:

这样就可求得θ的值,进而得到我们的算法模型。
在梯度下降中,我们可以进行特征缩放,将我们的特征值缩放到一个相近的范围,如[-1,1],这样我们的梯度下降会更快的收敛(特征缩放不能用于x_0,因为它是我们假设的常量1)。均值归一化是一个不错的特征缩放方式。其公式为: x_i = (x_i – 平均值) / (最大值 – 最小值)
除了梯度下降法求解θ的值,我们还可以用正规方程法直接求解θ。

正规方程法:假设我们有m个样本数据,有n个特征值,那么我们构建一个矩阵X和向量y,矩阵X的第i行数据为第i个样本数据的特征值(第一个值是我们添加的x_0=1,如第一行[1,x_1,x_2,…,x_n],第二行[1,x_1,x_2,…,x_n],其中特征值分别是第1个样本数据和第2个样本数据的特征值);向量y是我们的预测值。这样X是一个m(n+1)的矩阵,y是一个m维的向量,我们计算theta的公式:theta=(X的转置X)的逆X的转置y,即可得到theta。其公式如下:

至于什么时候选择梯度下降?什么时候选择正规方程求解?可根据我们的训练集大小来定夺,如果数据量过大,比如超过10000,那么应该就要考虑使用梯度下降来求解,如果数据量较小,那么选择方程法直接求解也是一个不错的选择。
线性回归学习算法的Python部分代码如下:

def learn_para(X, y, batch_size = 5, epoch_num  = 5):
"""线性回归学习算法

参数:
    X:特征向量
    y:样本值
    batch_size:批处理大小
    epoch_num:批次

返回值:
    w,b元组:w参数,b偏置
"""

batch_num = int(X.shape[0] / batch_size)
X = X[:batch_size * batch_num]
y = y[:batch_size * batch_num]

cost,w,b = 0,0,0
learn_rate = 0.05

for i in range(epoch_num):
    X_y = np.concatenate((X, y), axis=1)
    np.random.shuffle(X_y)
    X, y = X_y[:, 0].reshape(200, 1), X_y[:, 1].reshape(200, 1)
    for index in range(0, len(X), batch_size):
        batch_X = X[index: index + batch_size].reshape(batch_size, 1)
        batch_y = y[index: index + batch_size].reshape(batch_size, 1)
        
        predict = w * batch_X + b
        cost = np.power((predict - batch_y), 2).sum()/(2*batch_size)
        
        w = w - learn_rate * (-(batch_y-predict)*batch_X).mean()
        b = b - learn_rate * (-(batch_y-predict)).mean()

return w, b

逻辑回归算法
当我们要预测的值为一些离散的值时(如0、1的分类问题)线性回归就显得不适用,这时我们就需要开发一个新的算法——逻辑回归。其算法推导过程如下:
我们希望假设函数0≤h_θ (x)≤1,根据线性回归的模型:

我们经过加工如下:

其中,g为凸函数,定义如下:

最后得到我们的假设函数如下:

我们的假设函数取值范围为[0,1],如下:

在这个假设函数中,我们可以得到决策边界,来对我们的训练集进行分类,它是假设函数的属性,通过可视化,我们可以清晰的看到决策边界将训练集进行了分类。
逻辑回归的代价函数如下:

此模型是由统计学中极大似然法得来,且是凸性质的。
同样为了拟合代价函数,得到J(θ)最小值时参数θ,我们运用梯度下降公式:

从规则来看线性回归和逻辑回归基本相同,但实际上两者是不同的,区别在于假设函数:

特征缩放同样适用于逻辑回归算法。

正则化

如果我们的算法具有高方差,则可能出现过度拟合的情况;如果我们的算法出现高偏差,则可能为欠拟合。
当出现过拟合时我们有2种方法进行处理:
1)人工检查变量清单,看哪些变量更为重要,哪些应该保留,哪些应该舍弃;
2)模型选择算法,这种算法可自动选择哪些变量应该保留,哪些应该舍弃;
这种减少特征变量的方法可以有效避免过拟合,但缺点就是舍弃了一些信息,可能导致我们算法的结果不是很理想。
正则化可以有效避免过拟合问题,其思路是尽可能的使参数θ变小,这样我们拟合的线条就是更加平滑,所以需要给代价函数加一个惩罚项:

其中lambda为平衡参数,这样我们拟合出来的函数就会更加平滑。(默认情况下惩罚项不应用于θ_0)
线性回归中的正则化后的代价函数如下:

我们在执行梯度下降时的公式如下:

逻辑回归中的正则化后的代价函数如下:

它的梯度下降执行与线性回归基本相同。

神经网络
如下图所示,我们输入x_1,x_2,x_3,到神经元,再输出h_θ(x)函数,其中x_0为偏置单元或偏置神经元

这是最简单的一个神经网络。

如上图所示,我们的输入单元为x_1,x_2,x_3,Layer1是输入层,Layer3是输出层,中间层是隐藏层。另外可以显式添加x_0和a_0(2)两个偏置单元。
术语:a_i(j)表示图层j的第i个激活项;θ(j)表示图层j到图层j+1映射的权重矩阵。
继续看上图,我们可以推导:

接下来我们将其向量化:

这样的推导方式称为前向传播
神经网络简单应用的实例如下:

X1&X2

X1|X2

~X

X1 NOR X2

神经网络的代价函数如下:

神经网络反向传播算法:

应用机器学习的建议
当我们在调试学习算法的过程中,我们可以有以下尝试的方法:
获取更多的样本数据
将特征值缩放
获取更多特征
组合多项式特征
增加或减小lambda值
但上述方法未必能很好的解决问题,我们在评估假设函数时,可以将训练样本随机分成70%训练集和30%测试集,这样我们通过训练集学习算法,再用测试集计算误差。
或者我们可以将样本数据分为60%训练集、20%验证集(交叉验证集)和20%测试集,先训练集学习算法,再用验证集对算法进行评价,最后用测试集检查算法的泛化能力。
如果训练误差和交叉验证误差都很高,那么算法应该存在高偏差,即欠拟合;如果训练误差小,但交叉验证误差较大,那么算法存在高方差,即过拟合。
正则化可以很好的解决偏差或方差问题。
可视化学习曲线可以很直观的看出高偏差高方差的现象。
当您在研究一个机器学习算法时,最好的做法是先实现一个简单粗暴的算法,尽管它不太理想或者效果很差,一旦有了一个算法雏形之后我们再对它进行优化改进,看看它所造成的错误,通过误差分析看看出现了什么错误,然后决定优化方法。
当我们的训练集样本数据的正样本数与负样本数比例非常高,而我们预测y=0的概率非常好,但实际是算法欺骗了我们,我们称之为偏斜类,计算查准率和召回率可以很好的检查此类问题,查准率=真阳性数/预测阳性数,召回率=真阳性数/实际阳性数,查准率和召回率越高说明算法越好。

支持向量机
SVM的全称是Support Vector Machine,即支持向量机,主要用于解决模式识别领域中的数据分类问题,属于有监督学习算法的一种,SVM也叫大间距分类器

核函数

无监督学习
无监督学习就是应用一些没有标签的样本来训练模型,来达到我们的分析、分类等目的。其应用场景广泛,如消费者细分、社会人际关系分析、管理计算机集群等。

K-means

K均值算法是应用比较广泛的聚类分析算法。它是一个迭代算法,会做两件事,第一是簇分配,第二是移动聚类中心,具体算法如下图:

代价函数如下:

在随机初始化K个聚类中心时,我们可以随机抽取K个数据样本来作为我们的聚类中心。另外,我们可以运行N次(一般在50到1000)K均值算法,来选择一个比较合理的结果,从而避免算法陷入局部最优解。
我们如何选择K的值呢?这个没有固定的套路或者自动的方法,基本上是依赖于我们自己的意愿,可以可视化聚类结果,然后选择一个你比较中意的值(可以尝试肘部法则)。

降维
降维,即将数据从高维降到低维,将数据压缩,这样使我们的算法运行得更快。
降维最常用的算法是主成分分析法(PCA),它试图找到一个低维平面,使得数据投影到这个平面的距离最短。
PCA与线性回归有些相似,但是两区是不同的,PCA要找的是最小投影误差,而线性回归要找的是预测值与真实值的方差。
在降维之前,我们先要对数据进行处理,包括均值标准化和特诊缩放。均值标准化的处理为如下:

svd为奇异值分解。

异常检测
异常检测就是给定数据集{x1,x2,x3,x4…},判断x_test是否异常?它经常用于用户异常行为检测,工业制造,数据中心计算机监控等领域。我们一般用高斯分布来进行异常检测。
高斯分布也叫正态分布,如何来表示高斯分布:

其中参数为均值和方差。
异常检测的算法如下:

在异常检测中,我们在什么情况下使用异常检测算法或者是监督学习算法呢?
当有少量正样本和大量负样本时,使用异常检测算法;
当同事存在大量正样本和负样本时,使用监督学习算法;
在多元高斯分布中,我们的μ将作为向量,Σ是协方差,如下实例:


多元高斯分布的算法如下:

推荐系统
暂无记录。

大规模机器学习
暂无记录。

结束
(本来计划国庆节期间完成本文的截稿,但写好之后一直没有校对发表)以上就是我在学些过程中的简单总结,只是对其概念模型有所掌握,至于应用,那就还需要不断的打磨,学以致用。接下来将继续学些机器学习相关的知识,然后再学习深度学习,希望能抓紧时间,尽快的把所学的知识进行转换应用于实际的项目中。

Anuo.
Oct 15,2018
Chengdu

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,100评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,308评论 3 388
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,718评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,275评论 1 287
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,376评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,454评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,464评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,248评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,686评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,974评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,150评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,817评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,484评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,140评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,374评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,012评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,041评论 2 351

推荐阅读更多精彩内容