我对K-Means++算法的完全理解有困难。 我对如何选择第一个k
质心感兴趣,即初始化,因为其余部分与原始K-Means算法相似。
- 概率函数是基于距离还是高斯分布?
- 同时,最长距离点(从其他质心)被选为新质心。
我将感激一步一步的解释和示例。 Wikipedia上的解释不够清晰。 如果您使用6个数组,请告诉我们每个数组用于什么。
我对K-Means++算法的完全理解有困难。 我对如何选择第一个k
质心感兴趣,即初始化,因为其余部分与原始K-Means算法相似。
我将感激一步一步的解释和示例。 Wikipedia上的解释不够清晰。 如果您使用6个数组,请告诉我们每个数组用于什么。
这是一个有趣的问题。感谢您让我注意到这篇论文 - K-Means++:小心选种的优势
简单来说,聚类中心最初是从输入观测向量集合中随机选择的,其中如果向量x不靠近任何先前选择的中心,则选择向量x的概率很高。
以下是一维示例。我们的观测值为[0, 1, 2, 3, 4]。假设第一个中心c1为0。选择下一个聚类中心c2为x的概率与 ||c1-x||^2 成比例。因此,P(c2 = 1) = 1a,P(c2 = 2) = 4a,P(c2 = 3) = 9a,P(c2 = 4) = 16a,其中a=1/(1+4+9+16)。
假设 c2=4。那么,P(c3 = 1) = 1a,P(c3 = 2) = 4a,P(c3 = 3) = 1a,其中a=1/(1+4+1)。
我已经用Python编写了初始化过程;不知道是否能帮到您。
def initialize(X, K):
C = [X[0]]
for k in range(1, K):
D2 = scipy.array([min([scipy.inner(c-x,c-x) for c in C]) for x in X])
probs = D2/D2.sum()
cumprobs = probs.cumsum()
r = scipy.rand()
for j,p in enumerate(cumprobs):
if r < p:
i = j
break
C.append(X[i])
return C
编辑并澄清:使用 cumsum
的输出为我们提供了将区间 [0,1] 划分的边界。这些区间的长度等于相应点被选择为中心的概率。因此,由于 r
在 [0,1] 之间均匀选择,它会落入这些区间中的一个(因为有 break
)。for
循环检查看 r
落在哪个区间内。
示例:
probs = [0.1, 0.2, 0.3, 0.4]
cumprobs = [0.1, 0.3, 0.6, 1.0]
if r < cumprobs[0]:
# this event has probability 0.1
i = 0
elif r < cumprobs[1]:
# this event has probability 0.2
i = 1
elif r < cumprobs[2]:
# this event has probability 0.3
i = 2
elif r < cumprobs[3]:
# this event has probability 0.4
i = 3
if X[i] not in C
- Yoshua Joo Bin一句话概括。
假设我们需要选择2个聚类中心,与简单的k均值不同的是我们不会随机选择它们。我们将随机选择第一个聚类中心,然后找到离第一个中心最远的点(这些点很可能不属于第一个聚类中心,因为它们距离它很远),并将第二个聚类中心分配给那些远离的点附近。
我已经按照Toby Segaran的书籍《集体智慧》和这里提供的k-menas++初始化准备了完整的源代码实现。
实际上,这里有两个距离函数。对于初始质心,使用基于numpy.inner的标准函数,然后对于质心固定,使用Pearson函数。也许Pearson函数也可以用于初始质心。他们说这样更好。
from __future__ import division
def readfile(filename):
lines=[line for line in file(filename)]
rownames=[]
data=[]
for line in lines:
p=line.strip().split(' ') #single space as separator
#print p
# First column in each row is the rowname
rownames.append(p[0])
# The data for this row is the remainder of the row
data.append([float(x) for x in p[1:]])
#print [float(x) for x in p[1:]]
return rownames,data
from math import sqrt
def pearson(v1,v2):
# Simple sums
sum1=sum(v1)
sum2=sum(v2)
# Sums of the squares
sum1Sq=sum([pow(v,2) for v in v1])
sum2Sq=sum([pow(v,2) for v in v2])
# Sum of the products
pSum=sum([v1[i]*v2[i] for i in range(len(v1))])
# Calculate r (Pearson score)
num=pSum-(sum1*sum2/len(v1))
den=sqrt((sum1Sq-pow(sum1,2)/len(v1))*(sum2Sq-pow(sum2,2)/len(v1)))
if den==0: return 0
return 1.0-num/den
import numpy
from numpy.random import *
def initialize(X, K):
C = [X[0]]
for _ in range(1, K):
#D2 = numpy.array([min([numpy.inner(c-x,c-x) for c in C]) for x in X])
D2 = numpy.array([min([numpy.inner(numpy.array(c)-numpy.array(x),numpy.array(c)-numpy.array(x)) for c in C]) for x in X])
probs = D2/D2.sum()
cumprobs = probs.cumsum()
#print "cumprobs=",cumprobs
r = rand()
#print "r=",r
i=-1
for j,p in enumerate(cumprobs):
if r 0:
for rowid in bestmatches[i]:
for m in range(len(rows[rowid])):
avgs[m]+=rows[rowid][m]
for j in range(len(avgs)):
avgs[j]/=len(bestmatches[i])
clusters[i]=avgs
return bestmatches
rows,data=readfile('/home/toncho/Desktop/data.txt')
kclust = kcluster(data,k=4)
print "Result:"
for c in kclust:
out = ""
for r in c:
out+=rows[r] +' '
print "["+out[:-1]+"]"
print 'done'
data.txt:
p1 1 5 6
p2 9 4 3
p3 2 3 1
p4 4 5 6
p5 7 8 9
p6 4 5 4
p7 2 5 6
p8 3 4 5
p9 6 7 8
这是一个数据文件,其中包含了一些数据点的坐标。每个数据点都有三个值,分别表示x、y和z坐标。