利用K-均值聚类算法对未标注数据分组(二)

二分K-均值算法

为了解决K-均值算法收敛于局部最小值的问题,有人提出了二分K-均值的算法。首先,将整个数据集作为一个簇,然后将该簇一分为二。之后选择其中一个簇继续划分。选择哪一个簇进行划分取决于对其划分是否可以最大程度降低SSE的值。上述过程不断重复,直到得到用户指定的簇数目为止。
伪代码如下:

将所有点看成一个簇
当簇数目小于k时:
    对于每一个簇:
        计算总误差
        在给定的簇上面进行K-均值聚类(k=2)
        计算将该簇一分为二之后的总误差
    选择使得误差最小的那个簇进行划分

另一种做法是选择SSE最大的簇进行划分。

def biKmeans(dataSet, k, distMeas=distEclud):
    m = dataSet.shape[0]
    clusterAssment = np.mat(np.zeros((m,2)))
    # 计算初始簇的质心
    centroid0 = np.mean(dataSet, axis=0).tolist()[0]
    # 保存质心的列表
    centList = [centroid0]
    # 计算并保存每个点到初始质心的误差
    for j in range(m):
        clusterAssment[j, 1] = distMeas(np.mat(centroid0), dataSet[j, :]) ** 2
    while len(centList) < k:
        lowestSSE = np.inf
        # 遍历当前所有的簇
        for i in range(len(centList)):
            # 当前簇的所有点
            ptsInCurrCluster = dataSet[np.nonzero(clusterAssment[:,0].A == i)[0], :]
            centroidMat, splitClustAss = kMeans(ptsInCurrCluster, 2, distMeas)
            # 被划分的SSE
            sseSplit = np.sum(splitClustAss[:, 1])
            # 没有被划分的簇的SSE
            sseNotSplit = np.sum(clusterAssment[np.nonzero(clusterAssment[:,0].A != i)[0], 1])
            if (sseSplit + sseNotSplit) < lowestSSE:
                bestCentToSplit = I
                bestNewCents = centroidMat
                bestClustAss = splitClustAss.copy()
                lowestSSE = sseSplit + sseNotSplit
        # 更新
        bestClustAss[np.nonzero(bestClustAss[:, 0].A == 1)[0], 0] = len(centList)
        bestClustAss[np.nonzero(bestClustAss[:, 0].A == 0)[0], 0] = bestCentToSplit
        centList[bestCentToSplit] = bestNewCents[0, :]
        centList.append(bestNewCents[1, :])
        clusterAssment[np.nonzero(clusterAssment[:, 0].A == bestCentToSplit)[0], :] = bestClustAss
    centList = list([np.matrix.tolist(i)[0] for i in centList])
    print(centList)
    return np.mat(centList), clusterAssment

下面看一下实际运行效果。

data = np.mat(loadDataSet('testSet2.txt'))
centList, clustAssing = biKmeans(data, 3)

cluster1 = data[np.nonzero(clustAssing[:,0].A == 0)[0]]
cluster2 = data[np.nonzero(clustAssing[:,0].A == 1)[0]]
cluster3 = data[np.nonzero(clustAssing[:,0].A == 2)[0]]

import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif'] = ['SimHei']

plt.scatter(cluster1[:, 0].T.tolist()[0], cluster1[:, 1].T.tolist()[0], marker='s')
plt.scatter(cluster2[:, 0].T.tolist()[0], cluster2[:, 1].T.tolist()[0], marker='o')
plt.scatter(cluster3[:, 0].T.tolist()[0], cluster3[:, 1].T.tolist()[0], marker='*')
plt.scatter(centList[:,0].T.tolist()[0], centList[:,1].T.tolist()[0], marker='+', s=150)
plt.title('二分K-均值算法聚类结果')
plt.show()

结果如下。


小结

  • 聚类是无监督学习
  • 聚类将相似数据点归于同一簇,不相似数据点归于不同簇。
  • 聚类可以使用多种不同的方法来计算相似度。
  • Kmeans算法从k个随机质心开始,简单有效但容易受到随机的初始质心影响。
  • 二分K-均值算法可以解决Kmeans收敛到局部最小值的问题。
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容