Ошибка метрики Scikit F-score

Я пытаюсь предсказать набор меток, используя логистическая регрессия от SciKit. мои данные действительно несбалансированы (есть много больше "0", чем " 1 " метки), поэтому я должен использовать F1 оценка метрика во время шага перекрестной проверки, чтобы "сбалансировать" результат.

[Input]
X_training, y_training, X_test, y_test = generate_datasets(df_X, df_y, 0.6)
logistic = LogisticRegressionCV(
    Cs=50,
    cv=4,
    penalty='l2', 
    fit_intercept=True,
    scoring='f1'
)
logistic.fit(X_training, y_training)
print('Predicted: %s' % str(logistic.predict(X_test)))
print('F1-score: %f'% f1_score(y_test, logistic.predict(X_test)))
print('Accuracy score: %f'% logistic.score(X_test, y_test))

[Output]
>> Predicted: [0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0]
>> Actual:    [0 0 0 1 0 0 0 0 0 1 1 0 0 1 0 0 0 0 0 0 0 1 1]
>> F1-score: 0.285714
>> Accuracy score: 0.782609
>> C:Anaconda3libsite-packagessklearnmetricsclassification.py:958:  
   UndefinedMetricWarning:
   F-score is ill-defined and being set to 0.0 due to no predicted samples.

Я, конечно, знаю, что проблема связана с моим набором данных: он слишком мал (это только образец реального). Однако может ли кто-нибудь объяснить смысл "Undefinedmetric WARNING" предупреждение, что я вижу? Что на самом деле происходит за кулисами?

2 ответов


кажется, это известная ошибка здесь который был исправлен, я думаю, вы должны попробовать обновить sklearn.


однако, может ли кто-нибудь объяснить значение предупреждения "UndefinedMetricWarning", которое я вижу? Что на самом деле происходит за кулисами?

это хорошо описано в https://stackoverflow.com/a/34758800/1587329:

https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/metrics/classification.py

F1 = 2 * (точность * отзыв) / (точность + напомним)

precision = TP / (TP+FP), как вы только что сказали, если предиктор не прогнозирует положительную класс точности равно 0.

recall = TP / (TP+FN), в случае, если предиктор не предсказывает положительный класс-TP равен 0-отзыв равен 0.

Итак, теперь вы деления 0/0.

чтобы исправить проблему взвешивания (классификатору легко (почти) всегда предсказывать более распространенный класс), вы можете использовать class_weight="balanced":

logistic = LogisticRegressionCV(
    Cs=50,
    cv=4,
    penalty='l2', 
    fit_intercept=True,
    scoring='f1',
    class_weight="balanced"
)

LogisticRegressionCV говорит:

"сбалансированный" режим использует значения y для автоматической регулировки Весов, обратно пропорциональных частотам классов во входных данных как n_samples / (n_classes * np.bincount(y)).