Как рассчитывается scikit-learn cross val predict accuracy score?

тут cross_val_predict (см. doc, начиная с версии v0.18) С k - метод сгиба, как показано в коде ниже, вычисляет точность для каждой сгиба и усредняет их окончательно или нет?

cv = KFold(len(labels), n_folds=20)
clf = SVC()
ypred = cross_val_predict(clf, td, labels, cv=cv)
accuracy = accuracy_score(labels, ypred)
print accuracy

3 ответов


нет, это не!

по данным перекрестная проверка doc страницы cross_val_predict не возвращает никаких баллов, а только метки, основанные на определенной стратегии, которая описана здесь:

функция cross_val_predict имеет аналогичный интерфейс для cross_val_score, но возвращает для каждого элемента на входе предсказание, которое было получено для этого элемента, когда он был в тесте set. Только перекрестная проверка стратегии, которые присваивают все элементы тестовый набор можно использовать только один раз (в противном случае возникает исключение).

и поэтому, позвонив accuracy_score(labels, ypred) вы просто вычисляете оценки точности меток, предсказанных вышеупомянутой конкретной стратегией по сравнению с подлинной этикетки. Это снова указано на той же странице документации:

эти предсказания затем могут быть использованы для оценки классификатора:

predicted = cross_val_predict(clf, iris.data, iris.target, cv=10) 
metrics.accuracy_score(iris.target, predicted)

обратите внимание, что результат этого вычисления может немного отличаться от полученных через cross_val_score как элементы сгруппированы по разному.

Если вам нужны оценки точности различных складок, вы должны попробовать:

>>> scores = cross_val_score(clf, X, y, cv=cv)
>>> scores                                              
array([ 0.96...,  1.  ...,  0.96...,  0.96...,  1.        ])

и затем для средней точности всех складок используйте scores.mean():

>>> print("Accuracy: %0.2f (+/- %0.2f)" % (scores.mean(), scores.std() * 2))
Accuracy: 0.98 (+/- 0.03)

Edit:

расчета Cohen Kappa coefficient и матрица путаницы я предположил, что вы имеете в виду каппа коэффициент и матрица путаницы между истинными метками и предсказанными метками каждой складки:

from sklearn.model_selection import KFold
from sklearn.svm.classes import SVC
from sklearn.metrics.classification import cohen_kappa_score
from sklearn.metrics import confusion_matrix

cv = KFold(len(labels), n_folds=20)
clf = SVC()
for train_index, test_index in cv.split(X):
    clf.fit(X[train_index], labels[train_index])
    ypred = clf.predict(X[test_index])
    kappa_score = cohen_kappa_score(labels[test_index], ypred)
    confusion_matrix = confusion_matrix(labels[test_index], ypred)

Edit 2:

что значит cross_val_predict вернуться?

KFold разбивает данные на k частей, а затем для i=1..K итераций делает это: берет все части, кроме i-й части, в качестве обучающих данных, соответствует модели с ними, а затем предсказывает метки для i-й части (тестовые данные). На каждой итерации предсказывается метка i-й части данных. В итоге cross_val_predict объединяет все частично предсказанные метки и возвращает их в целом.

этот код показывает этот процесс шаг за шагом:

X = np.array([[0], [1], [2], [3], [4], [5]])
labels = np.array(['a', 'a', 'a', 'b', 'b', 'b'])

cv = KFold(len(labels), n_folds=3)
clf = SVC()
ypred_all = np.chararray((labels.shape))
i = 1
for train_index, test_index in cv.split(X):
    print("iteration", i, ":")
    print("train indices:", train_index)
    print("train data:", X[train_index])
    print("test indices:", test_index)
    print("test data:", X[test_index])
    clf.fit(X[train_index], labels[train_index])
    ypred = clf.predict(X[test_index])
    print("predicted labels for data of indices", test_index, "are:", ypred)
    ypred_all[test_index] = ypred
    print("merged predicted labels:", ypred_all)
    i = i+1
    print("=====================================")
y_cross_val_predict = cross_val_predict(clf, X, labels, cv=cv)
print("predicted labels by cross_val_predict:", y_cross_val_predict)

результат:

iteration 1 :
train indices: [2 3 4 5]
train data: [[2] [3] [4] [5]]
test indices: [0 1]
test data: [[0] [1]]
predicted labels for data of indices [0 1] are: ['b' 'b']
merged predicted labels: ['b' 'b' '' '' '' '']
=====================================
iteration 2 :
train indices: [0 1 4 5]
train data: [[0] [1] [4] [5]]
test indices: [2 3]
test data: [[2] [3]]
predicted labels for data of indices [2 3] are: ['a' 'b']
merged predicted labels: ['b' 'b' 'a' 'b' '' '']
=====================================
iteration 3 :
train indices: [0 1 2 3]
train data: [[0] [1] [2] [3]]
test indices: [4 5]
test data: [[4] [5]]
predicted labels for data of indices [4 5] are: ['a' 'a']
merged predicted labels: ['b' 'b' 'a' 'b' 'a' 'a']
=====================================
predicted labels by cross_val_predict: ['b' 'b' 'a' 'b' 'a' 'a']

Как вы можете видеть из кода cross_val_predict on github, функция вычисляет для каждой складки предсказания и объединяет их. Прогнозы делаются на основе модели, полученной из других складок.

вот это комбинация кода и примера, приведенного в коде

from sklearn import datasets, linear_model
from sklearn.model_selection import cross_val_predict, KFold
from sklearn.metrics import accuracy_score

diabetes = datasets.load_diabetes()
X = diabetes.data[:400]
y = diabetes.target[:400]
cv = KFold(n_splits=20)
lasso = linear_model.Lasso()
y_pred = cross_val_predict(lasso, X, y, cv=cv)
accuracy = accuracy_score(y_pred.astype(int), y.astype(int))

print(accuracy)
# >>> 0.0075

наконец, чтобы ответить на ваш вопрос: "нет, точность не усредняется для каждой складки"


Я хотел бы добавить опцию для быстрого и простого ответа, что предыдущие разработчики внесли.

Если вы возьмете микро-среднее значение F1, вы по существу получите коэффициент точности. Так, например, это было бы:

from sklearn.model_selection import cross_val_score, cross_val_predict
from sklearn.metrics import precision_recall_fscore_support as score    

y_pred = cross_val_predict(lm,df,y,cv=5)
precision, recall, fscore, support = score(y, y_pred, average='micro') 
print(fscore)

это работает математически, так как микро-среднее дает вам средневзвешенное значение матрицы путаницы.

удачи.