前一篇文章讲到了轨迹的绘制,那么今天就顺着讲下轨迹的聚类,比如说我们常见的,寒潮研究把寒潮的冷空气路径分为三类(西路,北路,西北路),或者台风研究中也可以根据台风的速度,或者拐点等要素对台风轨迹分类研究,再比如降水可以对不同降水事件的水汽来源做聚类研究等等。
实际上NCL就可以实现聚类算法,官方提供了k-means的算法函数(kmeans_as136),这个函数笔者也用过,相比与Python的聚类可以说还是比较麻烦的。
另外我也见过大佬们用MetoInfo的软件做轨迹和聚类研究,十分方便。
K-means聚类
百度搜索python的K-means算法,可以得到的结果还是很多的,然而大部分都是基于鸢尾花数据实现的,例子有限,那我就结合我所使用的寒潮路径数据来做个印证,对比起来更容易理解。
下图是我们的总路径,我们现要对其进行分类。
使用的数据是这样的:
print(x.shape)
print(y.shape)
#(216, 68),216为216条路径,68指每条路径由68个时刻点构成。
#(216, 68)
(这套数据是使用FLEXPART后向追踪得到的,与我目前的论文有关,因此暂时不提供)
首先调用库
from sklearn.cluster import KMeans
接着整合数据,因为我们的X和Y是两个数组存放的,现在合并起来,这一步的方法有很多(concatenate,stack等等都可以),我给一个容易理解的方法:
traj = np.zeros((216,68,2))
traj[:,:,0] = x
traj[:,:,1] = y
traj = traj.reshape((216,68*2))
最后的reshape我们得到了一个[216,136]的数组,要知道聚类是不会管你的点的实际物理意义的,对他来说都是数字而已,每一个时刻的一个点是由2个要素构成的,即经度和维度,那么1条完整的路径是由68*2个要素构成的,因此我们去聚类时,只要将需要考虑的要素全部按顺序给进去就可以了,但是有一个问题是需要注意的,聚类时,如果要素过大,而样本过少,就会导致信息熵很大,这样的聚类虽然不能说有错,但是起码误差很大,能否达到需要的效果就需要慎重考虑了,因此,当要素过大时,可以考虑用PCA方法或者其他手段,提取主成分,降低信息熵,对于一般的轨迹聚类,是不用考虑这些的,就比如这个例子,虽然我们给出了136个要素,但是效果还是符合预期的。
那么接下来就可以聚类了
km = KMeans(n_clusters=3)#构造聚类器
km.fit(traj)#聚类
label = km.labels_ #获取聚类标签
K-means需要我们实现给定标签,这与层次聚类不同,层次聚类是两两最优合并,因此会得出一个聚类树状图,根据结果选定聚类数。K-means则是事先给定聚类数,然后计算聚类效果(通过一些参数评估),不断调整聚类数,最终确定聚类数。
可以看到,216条路径已经被分为了3种,我们现在逐类挑出即可
label0=np.array(np.where(labels==0))
label1=np.array(np.where(labels==1))
label2=np.array(np.where(labels==2))
numlabel0=len(label0[0,:])
numlabel1=len(label1[0,:])
numlabel2=len(label2[0,:])
#[0,:]是因为上面取出来的数据是两维的,第一维是1,因此需要指定才可以获取长度
x0 = np.array([x[i,:] for i in label0]).reshape((numlabel0,68))
y0 = np.array([y[i,:] for i in label0]).reshape((numlabel0,68))
x1 = np.array([x[i,:] for i in label1]).reshape((numlabel1,68))
y1 = np.array([y[i,:] for i in label1]).reshape((numlabel1,68))
x2 = np.array([x[i,:] for i in label2]).reshape((numlabel2,68))
y2 = np.array([y[i,:] for i in label2]).reshape((numlabel2,68))
这段就可以看出,python的代码还是很简洁的。
那现在我们获取了每一类的经度和纬度,按我上一篇文章的方法绘制即可。
K-means聚类效果评估
最后,讲一下K-means聚类的效果如何评估,通常用几个参数来确定聚类数。这个要用数据说话,不能很主观的我们想分几类就分几类。
一、SSE(簇内误方差)
SSE参数的核心思想就是计算误方差和,SSE的值越小,证明聚类效果越好,当然,聚类数越大,SSE必然是越小的,SSE的分布类似对数函数,是逐渐趋0的,同样也类似对数函数,有一个突然的拐点,即存在一个下降趋势突然变缓的点,这个点对应的K值即为最佳聚类数。
SSE = []
for i in range(1,11):
km = KMeans(n_clusters=i)
km.fit(traj)
#获取K-means算法的SSE
SSE.append(km.inertia_)
可以看到,k=3之后的误方差和下降变缓,因此3类是最佳选择。
二、轮廓系数S
对于其中的一个点 i 来说:
计算 a(i) 为i向量到所有它属于的簇中其它点的距离的平均值
计算 b(i) i向量到各个非本身所在簇的所有点的平均距离的最小值
那么 i 向量轮廓系数就为:S(i) = (b(i)-a(i))/(max(a(i),b(i)))
当然了,公式并不重要,如果需要在论文中给出的话,建议查询维基百科。
SKLEANR库给出了计算函数。
from sklearn.metrics import silhouette_score
S = [] # 存放轮廓系数
for i in range(2,10):
kmeans = KMeans(n_clusters=i) # 构造聚类器
kmeans.fit(traj)
S.append(silhouette_score(traj,kmeans.labels_,metric='euclidean'))
需要注意的是,这里使用的衡量标准是"euclidean"也就是常说的欧氏距离。
可以看到,k=3时,局部轮廓系数最大(极大值),因此K=3为最优选择。
如何确定数据是否合适使用K-means方法
通常的话前面介绍到的两种评估参数即可确定该数据能否使用K-means聚类方法,不需要两种同时使用,只需要其中一种评估参数可以挑选出一个最优K值即可。如果两种参数都无法挑出最优K值,那么说明你可能需要另外再找一种聚类方法了,再或者就是我前文提到的,数据要素太大,信息熵溢出了,使用PCA提取主成分,对数据进行降维。