KNN-分类算法

一.什么叫KNN

KNN,K-NearestNeighbor,即K个最近的邻居的意思。对于一个输入样本,用特征上最接近它的K个临近值大多数属于的标签来对它进行分类。KNN是最简单的机器学习算法之一,可以用于分类和回归,是一种监督学习算法。

二.KNN的过程介绍

具体实现过程如下:
①准备数据,对数据进行预处理


预处理

在已经分好类的情况下,我们需要对没有分类的物品进行分类 。
②计算测试样本点(也就是待分类点)到其他每个样本点的距离。


距离计算

要度量空间中点距离的话,有好几种度量方式,比如常见的曼哈顿距离计算,欧式距离计算等等。不过通常KNN算法中使用的是欧式距离,这里只是简单说一下,拿二维平面为例,,二维空间两个点的欧式距离计算公式如下:
二维空间欧式距离

其实就是计算(x1,y1)和(x2,y2)的距离。拓展到多维空间,则公式变成这样:


多维空间欧式距离

这样我们就明白了如何计算距离,KNN算法最简单粗暴的就是将预测点与所有点距离进行计算
③对每个距离进行排序,然后选择出距离最小的K个点 。
距离排序

④对K个点所属的类别进行比较,根据少数服从多数的原则,将测试样本点归入在K个点中占比最高的那一类
我们将K值取3,可以看出,距离其最近的三个点的投票结果是:
A类物品 2
B类物品 1
所以我们可以将需要识别物品归类于A类物品

三.K值的选择

k值是KNN算法的一个参数,K的含义即参考”邻居“标签值的个数。
如果当K的取值过小时,一旦有噪声得成分存在们将会对预测产生比较大影响,例如取K值为1时,一旦最近的一个点是噪声,那么就会出现偏差,K值的减小就意味着整体模型变得复杂,容易发生过拟合;
如果K的值取的过大时,就相当于用较大邻域中的训练实例进行预测,学习的近似误差会增大。这时与输入目标点较远实例也会对预测起作用,使预测发生错误。K值的增大就意味着整体的模型变得简单;
如果K==N的时候,那么就是取全部的实例,即为取实例中某分类下最多的点,就对预测没有什么实际的意义了
在划分好数据集后,我们可以通过交叉验证法来得到最佳的K值

四.KNN算法的优缺点

优点:
1.无数据输入假定,在分类完的情况下进行测试
2.预测精度高
3.对异常值不敏感
缺点:
1.时间复杂度和空间复杂度高,计算到每一个点的距离,计算量较大
2.当样本不平衡的时候,比如一个类的样本容量大,另一个类的样本容量很小,对于测试识别的样本来说,投票结果更容易靠近样本容量大的类,从而导致分类错误

五.KNN算法简单代码实现

#---------------------------------------引用库-----------------------------------#
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
import math
#---------------------------------------测试集-----------------------------------#
train_x=[12,15,24,56,68,90]
train_y=[50,59,67,101,115,123]
#---------------------------------------训练集-----------------------------------#
test_x=[40]
test_y=[72]
#--------------------------------------分类标签----------------------------------#
labels=['A','A','A','B','B','B']
#--------------------------------------绘制图像----------------------------------#
def runplt():
    plt.figure()
    plt.title("train data ")
    plt.xlabel('x data')
    plt.ylabel('y data')
    plt.grid(True)
    plt.xlim(0, 100)
    plt.ylim(0, 150)
    return plt
dia = train_x
price = train_y
print(dia)
print(price)
plt = runplt()
plt.plot(dia, price, 'k.')
plt.scatter(test_x,test_y,color='b')
plt.show()
#-------------------------------------距离计算------------------------------------#
distance=[]
len1=len(test_x)
len2=len(train_x)
for i in range(len1):
    for j in range(len2):
        derta_x=abs(train_x[j]-test_x[i])
        derta_y=abs(train_y[j]-test_y[i])
        distance.append(pow(pow(derta_x,2)+pow(derta_y,2),0.5))
#-------------------------------- 输出排序结果------------------------------------#
print (np.argsort(distance)) # 正序输出索引,从小到大
for i in range(len(labels)):
    print(labels[np.argsort(distance)[i]])
#--------------------------------进行投票表决-------------------------------------#
A=0
B=0
for i in range(int(len(labels)/2)):
    if labels[np.argsort(distance)[i]] == 'A':
        A+=1
    if labels[np.argsort(distance)[i]] == 'B':
        B+=1
print(A)
print(B)
if A>B:
    test_data_label='A'
if A<B:
    test_data_label='B'
#--------------------------------输出分类结果-------------------------------------#
test_data_label
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容