《统计学习方法》 python实现 chapter3 k近邻算法

我是一个很喜欢讲故事的,我由于自己一直不好好学这方面,所以一直在入门阶段。而真正的开始入门是从k近邻开始的,入门的方法是看视频学习。在这里感谢深度眸(黄海安)的启迪。在这里给大家附上他的《机器学习实战》的链接:https://zhuanlan.zhihu.com/p/31310720


k近邻法写一下英文名字:k-nearest neighbor,k-NN。写出来的原因是因为怕误解成 neural network,这并不是一个神经网络。同时knn包含了回归和分类两种,之前在网上找资源的时候找到的大部分都是关于分类的例子,我争取多找几个回归的例子。如果觉得我写的不行,那直接去看我推荐的视频


knn的三个基本要素:k值的选择,距离度量以及分类决策规则
knn算法简单直观: 给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的k葛实例,这k个实例的多数属于某个类,就把该输入实例分类为这个类。
算法


knn

(距离度量)特征空间中两个实例点的距离是两个实例点相似程度的反应。使用的距离是欧氏距离,但也可以是其他距离。
设特征空间\chi 是n维实数向量空间R^n,x_i,x_j\in\chi,x_i = (x_i^{(1)},x_i^{(2)},···,x_i^{(n)})^T,x_j = (x_j^{(1)},x_j^{(2)},···,x_j^{(n)})^T,x_i,x_jL_p的距离定义为
L_p(x_i,x_j)=(\sum_{l=1}^n|x_i^{(l)}-x_j^{(l)}|)^{1\over p}
这里p\ge1
当 p = 2时,称为欧氏距离,也就是差值的平方和开根号,
当 p = 1时,称为曼哈顿距离,也就是差值的绝对值之和,
p=\infty 时,是各个坐标距离最大的值

(k值的选择)
如果选择较小的k值,就相当于用较小的邻域中的训练实例进行预测,可以使近似误差减小。但是k值减小会导致整体模型变得复杂,容易发生过拟合。
如果选择较大的k值,有点事减小估计误差,缺点是近似误差会增大。导致整个模型的复杂度减小。
在应用中k值一般选取一个比较小的数值,通常采用交叉验证法来选取最优的k值

(分类决策规则)
多数表决规则由如下解释:如果分类的损失函数为0-1损失函数,分类函数为f:R^n\to\{c_1,c_2,···,c_K\}
那么误分类的概率为P(Y \ne f(X)) = 1 - P(Y = f(X))
如果涵盖N_k^{(x)}的区域的类别为c_j,那么误分类率是{1 \over k } \sum_{x_i \in N_k(x)}I( y_i \ne c_j) = 1 - {1 \over k} \sum_{x_i \in N_k(x)}I( y_i = c_j)要使误分类率最小也就是经验风险最小,就要是\sum_{x_i \in N_k(x)}I( y_i = c_j)最大,所以多数表决规则等价于经验风险最小化。

k近邻的实现:kd树

k近邻法最简单的实现方法是线扫描。这时言计算输入实例域每个训练实例的距离。当训练集很大的时候,计算非常耗时,这种方法是不可行的。
算法:构造平衡kd树

平衡kd树

书上这一段不是很好理解的,可以看树上的例子。


code

import math

# 定义距离函数
def L(x, y, p=2):
    if len(x) == len(y) and len(x) > 1:
        sum = 0
        for i in range(len(x)):
            sum += math.pow(abs(x[i] - y[i]), p)
        return math.pow(sum, 1/p)
    else:
        return 0

# 书本例子3.1
# 输入实例
x1 = [1, 1]
x2 = [5, 1]
x3 = [4, 4]

# 计算不同距离下的最近邻数据
for i in range(1,5): #p=1, 2, 3, 4
    r = {'1- {}'.format(c):L(x1, c, p =i) for c in [x2, x3] }
    print(min(zip(r.values(),r.keys())))
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split

from collections import  Counter

from sklearn.neighbors import KNeighborsClassifier

# 数据加载
iris = load_iris()
df = pd.DataFrame(iris.data, columns=iris.feature_names)
df['label'] = iris.target
df.columns = ['sepal length', 'sepal width', 'petal length', 'petal width', 'label']

# print(df)

# 散点图绘制
plt.scatter(df[:50]['sepal length'], df[:50]['sepal width'], label='0')
plt.scatter(df[50:100]['sepal length'], df[50:100]['sepal width'], label='1')
plt.xlabel('sepal length')
plt.ylabel('sepal width')
plt.legend()
plt.show()

# 数据集划分
data = np.array(df.iloc[:100, [0, 1, -1]])
X, y = data[:,:-1], data[:,-1]
# print(X)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)

class KNN:
    def __init__(self, X_train, y_train, n_neighbors=3, p=2):
        """
        :param X_train:
        :param y_train:
        :param n_neighbors:  k =3
        :param p: p=2 采用欧氏距离
        """
        self.n = n_neighbors
        self.p = p
        self.X_train = X_train
        self.y_train = y_train

    def predict(self, X):
        # 取出n个点
        knn_list = []
        for i in range(self.n):
            dist = np.linalg.norm(X-self.X_train[i], ord= self.p)# 二范数,相当于求欧氏距离
            knn_list.append((dist, self.y_train[i]))
            # print(knn_list)

        for i in range(self.n, len(self.X_train)):
            max_index = knn_list.index(max(knn_list, key= lambda x: x[0]))
            dist = np.linalg.norm(X - self.X_train[i], ord = self.p)
            if knn_list[max_index][0] > dist :
                knn_list[max_index] = (dist, self.y_train[i])

        # 统计
        knn = [k[-1] for k in knn_list]
        count_pairs = Counter(knn)
        max_count = sorted(count_pairs, key=lambda x:x)[-1]
        return max_count

    def score(self, X_test, y_test):
        right_count = 0
        n = 10
        for X,y in zip(X_test, y_test):
            label = self.predict(X)
            if label == y:
                right_count += 1
        return right_count/len(X_test)




if __name__ == '__main__':
    clf = KNN(X_train,y_train)
    clf.score(X_test, y_test)
    test_point = [6.0, 3.0]
    print('Test Point: {}'.format(clf.predict(test_point)))
    plt.scatter(df[:50]['sepal length'], df[:50]['sepal width'], label='0')
    plt.scatter(df[50:100]['sepal length'], df[50:100]['sepal width'], label='1')
    plt.plot(test_point[0], test_point[1], 'bo', label='test_point')
    plt.xlabel('sepal length')
    plt.ylabel('sepal width')
    plt.legend()
    plt.show()

    # 使用sklearn
    clf_sk = KNeighborsClassifier()
    '''
    parameter for choose:
    n_neighbors: 临近点个数
    p: 距离度量
    algorithm: 近邻算法,可选{'auto', 'ball_tree', 'kd_tree', 'brute'}
    weights: 确定近邻的权重
    '''
    clf_sk.fit(X_train,y_train)
    clf_sk.score(X_test,y_test)

明天更新kd树

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,039评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,223评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,916评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,009评论 1 291
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,030评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,011评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,934评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,754评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,202评论 1 309
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,433评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,590评论 1 346
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,321评论 5 342
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,917评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,568评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,738评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,583评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,482评论 2 352