机器学习(3)再说监督学习的套路

前面说过了监督学习的重要性,这里我们再来说说监督学习的套路。

让我们再回到问题的本质,不管是监督学习还是非监督学习,都是为了找到特征。

什么是特征?电视机是长方形的,球是圆形的,这就是特征。

1像铅笔能写字,2像鸭子水中游,3像耳朵能听话,4像红旗迎风飘,5像鱼钩把鱼钓,6像哨子能吹响,7像镰刀能割草,8像葫芦上下圆,9像勺子能盛饭。

这些都是特征。

当我们辨别一个东西的时候,实际上我们是在比较特征,它跟那些特征相似,我们就认为它是啥?对吧。

在监督学习中,训练的目的是为了得到数据的特征。我们怎么来确定这个特征是真的特征,同样用的是相似性。

这个相似性在数学表达上,通俗的讲,就是距离最近,距离最近的那个特征就是我们要找的特征。

这在机器学习中有一个专业术语叫损失函数(Loss function)或代价函数(Cost function),我们要做的就是让这个函数值(也就是距离)最小,那么对应的特征就是我们要找的特征。

我们后面还会说到欠拟合(Underfit)和过拟合(Overfitting),目前为了理解,我们假设我们已知特征的性质。

在数学上,要找到最小值,高等数学的方式就是求导;怂一点的方法就是梯度下降,不断尝试,直到满意为止。


这次就到这里,监督学习找特征的套路:定义代价函数,让它最小,搞定。

本文使用 文章同步助手 同步

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容