数据挖掘领域十大经典算法之—K-邻近算法/kNN(附代码)

又叫K-邻近算法,是监督学习中的一种分类算法。目的是根据已知类别的样本点集求出待分类的数据点类别。

简介

又叫K-邻近算法,是监督学习中的一种分类算法。目的是根据已知类别的样本点集求出待分类的数据点类别。

基本思想

kNN的思想很简单:在训练集中选取离输入的数据点最近的k个邻居,根据这个k个邻居中出现次数最多的类别(最大表决规则),作为该数据点的类别。kNN算法中,所选择的邻居都是已经正确分类的对象。

e.g:下图中,绿色圆要被决定赋予哪个类,是红色三角形还是蓝色四方形?如果k=3,由于红色三角形所占比例为2/3,绿色圆将被赋予红色三角形那个类,如果k=5,由于蓝色四方形比例为3/5,因此绿色圆被赋予蓝色四方形类。



算法复杂度

kNN是一种lazy-learning算法,分类器不需要使用训练集进行训练,因此训练时间复杂度为0;kNN分类的计算复杂度和训练集中的文档数目成正比,也就是说,如果训练集中文档总数为n,那么kNN的分类时间复杂度为O(n);因此,最终的时间复杂度是O(n)。

优缺点

优点

理论成熟,思想简单,既可以用来做分类也可以用来做回归 ;

适合对稀有事件进行分类(例如:客户流失预测);

特别适合于多分类问题(multi-modal,对象具有多个类别标签,例如:根据基因特征来判断其功能分类), kNN比SVM的表现要好。

缺点

当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数;

计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点;

可理解性差,无法给出像决策树那样的规则。

代码

代码已在github上实现,这里也贴出来


我这里给大家准备了一些学习资料,大家需要的话可以加我QQ:3300863615  免费领取 哦


©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 分类算法之K最近邻算法(KNN)的Python实现 KNN的定义 所谓K近邻算法,即是给定一个训练数据集,对新的输...
    盗梦者_56f2阅读 8,595评论 0 2
  • yiqian091阅读 1,639评论 0 1
  • 在寒冷的深秋,有个少女,因患严重肺炎,一病不起。她躺在病床上,望着窗外攀爬在墙壁上那株常春藤廖廖可数的叶子,悲凄地...
    老曹的環保日記阅读 4,605评论 0 3
  • #师北宸一块听听写作课# 世界的发展是稳定的双螺旋,是遵循客观规律螺旋上升的。 要讲清楚这个观点,足足需要多本著作...
    OneWing阅读 4,643评论 9 6
  • 渴望在北京居住的小白,如今终于安居在了北京里的一个出租屋内。 小白其实以前,大概五六岁时就来到过北京,那是她被北京...
    yuil阅读 1,337评论 0 0

友情链接更多精彩内容