原理介绍
LDA(Linear Discriminant Analysis):核心思想就是投影后类内方差(Qe)最小,类间方差(Qa)最大
,它广泛用于模式识别领域(人脸识别),这个LDA要区别与自然语言处理领域的LDA(Linear DIrihlet Allocation)。
上一张图可能更好理解:
二分类
假设我们有数据集
[图片上传失败...(image-c327d3-1542949423246)]={(x_1,y_1),(x_2,y_2)\dots(x_m,y_m)})
其中任意Xi为n维向量,且[图片上传失败...(image-ffb57e-1542949423246)]
我们定义Nj(j=0,1)为第j类样本数,Xj为j类样本集合,[图片上传失败...(image-57b06d-1542949423246)])为j类样本均值向量。图片上传失败...(image-60c2d3-1542949423246)^T\qquad(j=0,1))为j类协方差矩阵。
由于是两类数据,因此我们只需要将数据投影到一条直线上即可。假设我们的投影直线是向量w,则对任意一个样本本xi,它在直线w的投影为[图片上传失败...(image-47e754-1542949423246)]对于我们的两个类别的中心点μ0,μ1,在在直线w的投影为[图片上传失败...(image-a4f355-1542949423246)]和[图片上传失败...(image-e94a3-1542949423246)]由于LDA需要让不同类别的数据的类别中心之间的距离尽可能的大,也就是我们要最大化[图片上传失败...(image-1daf59-1542949423246)]同时我们希望同一种类别数据的投影点尽可能的接近,也就是要同类样本投影点的协方差wTΣ0w和wTΣ1w尽可能的小,即最小化[图片上传失败...(image-505a0e-1542949423246)]
综上所述,我们的优化目标为:
[图片上传失败...(image-b5aea4-1542949423246)]=\frac{||wTu_0-wTu_1||}{wT\Sigma_0w+wT\Sigma_1w})
优化一下:
[图片上传失败...(image-8450f1-1542949423246)]=\frac{wTS_bw}{wTS_ww})
利用广义瑞利商的性质可以求得解。们的J(w)最大值为矩阵[图片上传失败...(image-810c6a-1542949423246)]的最大特征值,而对应的w为[图片上传失败...(image-2cd8c-1542949423246)]的最大特征值对应的特征向量! 而[图片上传失败...(image-105c1c-1542949423246)]的特征值和[图片上传失败...(image-b9f7bf-1542949423246)]的特征值相同,[图片上传失败...(image-d4bc10-1542949423246)]的特征向量w′和[图片上传失败...(image-738b5-1542949423246)]的特征向量w满足[图片上传失败...(image-75f4e1-1542949423246)]的关系!
源码中的实现:
案例实现:
LDA for iris
import matplotlib.pyplot as plt
from sklearn import datasets
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
iris = datasets.load_iris()
X = iris.data
y = iris.target
target_names = iris.target_names
lda = LinearDiscriminantAnalysis(n_components=2)
X_r2 = lda.fit(X, y).transform(X)
colors = ['r', 'g', 'y']
plt.figure()
for color, i, target_name in zip(colors, [0, 1, 2], target_names):
plt.scatter(X_r2[y == i, 0], X_r2[y == 1, 1], alpha=.8, c=color, label=target_name)
plt.legend(loc='best', shadow=False, scatterpoints=1)
plt.title('LDA of IRIS dataset')
plt.show()
效果展示:
相对于上篇PCA on iris的效果好了很多
LDA for hdw_digits
from sklearn import datasets
import numpy as np
import matplotlib.pyplot as plt
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
from sklearn.preprocessing import scale
from sklearn.cluster import KMeans
np.random.seed(7)
digits = datasets.load_digits()
data = digits.data
labels = digits.target
data = scale(data)
n_samples, n_features = data.shape
n_digits = len(np.unique(labels))
print("n_digits: %d, \t n_samples %d, \t n_features %d" % (n_digits, n_samples, n_features))
reduce_data = LinearDiscriminantAnalysis(n_components=2).fit_transform(data, labels)
kmeans = KMeans(n_clusters=n_digits, init='k-means++', n_init=10)
kmeans.fit(reduce_data)
plt.figure()
plt.clf()
colors = ['b', 'c', 'g', 'k', 'm', 'r', 'navy', 'y', 'darkorange', 'turquoise']
target_names = range(10)
centroids = kmeans.cluster_centers_
for (color, i, target_name) in zip(colors, target_names, target_names):
plt.scatter(reduce_data[labels == i, 0], reduce_data[labels == i, 1], s=2, color=color, lw=2, label=target_name)
plt.legend(loc='best', shadow=False, scatterpoints=1)
plt.scatter(centroids[:, 0], centroids[:, 1], marker='v', s=100, linewidths=3, color=colors, zorder=10)
plt.show()
效果展示:
我们发现和PCA&k-means on hdw_digits相比有几个数字已经分的很开了。