PCA - це інструмент зменшення розмірів, а не класифікатор. У Scikit-Learn усі класифікатори та оцінювачі мають predict
метод, який не має PCA . Вам потрібно встановити класифікатор даних, трансформованих PCA. У Scikit-Learn є багато класифікаторів. Ось приклад використання дерева рішень для даних, трансформованих PCA. Я вибрав класифікатор дерева рішень, оскільки він добре працює для даних з більш ніж двома класами, що стосується набору даних райдужки.
from sklearn.decomposition import PCA
from sklearn.tree import DecisionTreeClassifier
from sklearn.datasets import load_iris
# load data
iris = load_iris()
# initiate PCA and classifier
pca = PCA()
classifier = DecisionTreeClassifier()
# transform / fit
X_transformed = pca.fit_transform(iris.data)
classifier.fit(X_transformed, iris.target)
# predict "new" data
# (I'm faking it here by using the original data)
newdata = iris.data
# transform new data using already fitted pca
# (don't re-fit the pca)
newdata_transformed = pca.transform(newdata)
# predict labels using the trained classifier
pred_labels = classifier.predict(newdata_transformed)
У SciKit learn є зручний інструмент під назвою Pipeline, який дозволяє з'єднати трансформатори та остаточний класифікатор:
# you can make this a lot easier using Pipeline
from sklearn.pipeline import Pipeline
# fits PCA, transforms data and fits the decision tree classifier
# on the transformed data
pipe = Pipeline([('pca', PCA()),
('tree', DecisionTreeClassifier())])
pipe.fit(iris.data, iris.target)
pipe.predict(newdata)
Це особливо корисно під час перехресної перевірки, оскільки це заважає вам випадково перевстановити будь-який крок трубопроводу на тестовий набір даних:
from sklearn.cross_validation import cross_val_score
print cross_val_score(pipe, iris.data, iris.target)
# [ 0.96078431 0.90196078 1. ]
До речі, вам може навіть не знадобитися використовувати PCA, щоб отримати хороші результати класифікації. Набір даних райдужної оболонки не має багатьох розмірів, і дерева рішень вже добре працюватимуть на неперетворених даних.