from numpy import *
import operator
def createDataSet():
#样本集
group = array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]])
#样本集对应的标签
labels = ['A', 'A', 'B', 'B']
return group, labels
#inX为输入的待测向量,横纵坐标为其两个参数
#dataSet为样本集
#labels为样本集对应的标签
#k为kNN算法的参数,为指定的接近样本的数量,需小于样本集的个数,用户自己指定
def classify0(inX, dataSet, labels, k):
#取dataSet数据集的维度,其中shape为numpy中的函数,用法为Matrix.shape,则直接获取矩阵的全部维度,如二维矩阵,则输出(行数,列数),
#如Matrix.shape[0]则表示获取二维矩阵的行数,shape[1]则为获取二维矩阵的列数
dataSetSize = dataSet.shape[0]
#tile为numpy中的函数,输入格式为(向量,(行,列)),输出为将输入的向量在行和列进行重复
#此处将输入的待测向量转化为与样本集相同的矩阵大小(在行方向进行复制)进行做差
diffMat = tile(inX, (dataSetSize, 1)) - dataSet
#将作得的差进行平方,该步采用的是欧式距离公式,即两点间的距离公式
sqDiffMat = diffMat**2
#同理,采用两点间距离公式,讲得到的值进行相加,其中函数sum(axis=1)的axis=1表示矩阵在横向相加求和,axis=0则表示在竖向相加求和
sqDistances = sqDiffMat.sum(axis=1)
#两点距离公式的开平方根
distances = sqDistances**0.5
#对求得的距离进行排序,其中argsort为numpy中的函数,其作用为将数据从小到大排列,并提取出排序过后的下标作为新的数组的内容
sortedDistIndicies = distances.argsort()
#创建一个新的空字典,大小为动态大小
classCount = {}
#k为kNN方法中指定的考虑个数,进行循环
for i in range(k):
#将之前的sortedDistIndicies遍历,得到其对应样本集标签的下标(k由于小于样本集的个数,所以不冲突),将labels对应的字符赋予voteIlabel
voteIlabel = labels[sortedDistIndicies[i]]
#对字典文件进行赋值,如果存在相应的key,则返回value+1,否则则为0+1,对应的值越大则表明相同的概率越高越接近,即确定出现的频率
classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1
#采用sorted进行临时排序,获取classCount里的字符,reverse=True表示从大到小排序,key=operator.itemgetter(1)表示取第一个域的值
sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)
#输出value最大值的key,即最接近的分类标签
return sortedClassCount[0][0]
kNN算法
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- 我来自Android开发人员,刚刚接触的机械学习,整理了k-近邻算法的classify0函数的具体意义,以及一步一...
- KNN算法的基本思路: 给定一个训练数据集,对于新的输入实例,在训练数据集中找到与该实例最邻近的k个实例,这k个实...