В даний час я намагаюся обчислити BIC для мого набору даних про іграшки (ofc iris (:). Я хочу відтворити результати, як показано тут (рис. 5). Цей документ також є моїм джерелом для формул BIC).
У мене є 2 проблеми з цим:
- Позначення:
- = кількість елементів кластера
- = центральні координати кластера
- = точки даних, призначені кластеру
- = кількість кластерів
1) Дисперсія, визначена у рівнянні. (2):
Наскільки я бачу, це проблематично і не охоплено, що дисперсія може бути негативною, коли в кластері є більше кластерів ніж елементів. Це правильно?
2) Я просто не можу змусити свій код працювати для обчислення правильного BIC. Сподіваємось, помилок немає, але було б дуже вдячно, якби хтось міг перевірити. Ціле рівняння можна знайти у рівнянні. (5) у статті. Я використовую scikit learn для всього зараз (щоб виправдати ключове слово: P).
from sklearn import cluster
from scipy.spatial import distance
import sklearn.datasets
from sklearn.preprocessing import StandardScaler
import matplotlib.pyplot as plt
import numpy as np
def compute_bic(kmeans,X):
"""
Computes the BIC metric for a given clusters
Parameters:
-----------------------------------------
kmeans: List of clustering object from scikit learn
X : multidimension np array of data points
Returns:
-----------------------------------------
BIC value
"""
# assign centers and labels
centers = [kmeans.cluster_centers_]
labels = kmeans.labels_
#number of clusters
m = kmeans.n_clusters
# size of the clusters
n = np.bincount(labels)
#size of data set
N, d = X.shape
#compute variance for all clusters beforehand
cl_var = [(1.0 / (n[i] - m)) * sum(distance.cdist(X[np.where(labels == i)], [centers[0][i]], 'euclidean')**2) for i in xrange(m)]
const_term = 0.5 * m * np.log10(N)
BIC = np.sum([n[i] * np.log10(n[i]) -
n[i] * np.log10(N) -
((n[i] * d) / 2) * np.log10(2*np.pi) -
(n[i] / 2) * np.log10(cl_var[i]) -
((n[i] - m) / 2) for i in xrange(m)]) - const_term
return(BIC)
# IRIS DATA
iris = sklearn.datasets.load_iris()
X = iris.data[:, :4] # extract only the features
#Xs = StandardScaler().fit_transform(X)
Y = iris.target
ks = range(1,10)
# run 9 times kmeans and save each result in the KMeans object
KMeans = [cluster.KMeans(n_clusters = i, init="k-means++").fit(X) for i in ks]
# now run for each cluster the BIC computation
BIC = [compute_bic(kmeansi,X) for kmeansi in KMeans]
plt.plot(ks,BIC,'r-o')
plt.title("iris data (cluster vs BIC)")
plt.xlabel("# clusters")
plt.ylabel("# BIC")
Мої результати для BIC виглядають приблизно так:
Що навіть не є близьким до того, що я очікував, а також не має сенсу ... Я деякий час дивився на рівняння і не отримую жодного подальшого визначення моєї помилки):