python-计算k均值的距离时的环绕
作者:互联网
我正在尝试使用sklearn对某些数据集进行K-均值聚类.问题在于,其中一个维度是一天中的一个小时:一个介于0-23之间的数字,因此距离算法认为0与23的距离非常远,因为从绝对意义上来说,它是23.实际上,出于我的目的,小时0非常接近小时23.是否有一种方法可以使距离算法进行某种形式的环绕,从而计算出更多的“真实”时差.
我正在做一些简单的事情,类似于以下内容:
from sklearn.cluster import KMeans
clusters = KMeans(n_clusters = 2)
data = vstack(data)
fit = clusters.fit(data)
classes = fit.predict(data)
数据元素看起来像[22、418、192],其中第一个元素是小时.
有任何想法吗?
解决方法:
为什么k均值不适用于任意距离
K均值不是基于距离的算法.
K-means最小化了平方内群集内和之和,它是一种方差(它大致是所有群集的加权平均方差,其中每个对象和维的权重均相同).
为了使Lloyds算法收敛,您需要使两个步骤都优化相同的功能:
>重新分配步骤
>重心更新步骤
现在,“均值”函数是最小二乘估计器.即对于WCSS目标,在步骤2中选择均值是最佳的.在步骤1中用最小二乘方差(=平方欧几里德距离,单调到欧几里德距离)分配对象也会产生保证的收敛性.均值恰好是您的环绕式创意会崩溃的地方.
如果您插入@elyase建议的随机其他距离函数,则k-means可能不再收敛.
正确的解决方案
有多种解决方案:
>使用K型医学(PAM).通过选择medoid而不是均值,您可以确保在任意距离下都可以收敛.但是,计算类固醇非常昂贵.
>将数据转换为内核空间,您可以在其中最小化平方和.例如,您可以将小时转换为sin(hour / 12 * pi),cos(hour / 12 * pi),这对于SSQ可能是可以的.
>使用其他基于距离的聚类算法. K-means很老,从那以后,有很多关于聚类的研究.您可能要从分层聚类(它实际上与k-means一样古老)开始,然后尝试DBSCAN及其变体.
标签:machine-learning,classification,cluster-analysis,python 来源: https://codeday.me/bug/20191030/1967974.html