www.machinelearningmastery.ru

Машинное обучение, нейронные сети, искусственный интеллект
Header decor

Home

Матрица путаницы

Дата публикации Oct 3, 2019

Что такое матрица путаницы?

Путаница используется, чтобы сказать, насколько хорошомодель классификацииполучил обучение ... просто, чтобы описать производительность модели классификации.

Терминология, которую нужно знать: True = Cat, False = Dog

Истинный Позитив: Когда у тебя естьКотВаша модель предсказана какКот,

Правда отрицательный: Когда у тебя естьСобакаВаша модель предсказана какСобака,

Ложно положительный: Когда у тебя естьСобакаВаша модель предсказана какКот,

Ложный Отрицательный: Когда у тебя естьКотВаша модель предсказана какСобака,

TP = фактическое значение True, прогнозируемое значение True

TN = Фактическое Ложь, Предсказанное Ложное

FP = Фактический Ложь, Предсказанный Истинный

FN = фактическая правда, предсказанная ложь

точность: правильно классифицированный позитив / общий прогнозируемый позитив

Например: если ваша модель предсказывает 40 значений как кота, из 40 сколько фактически является котом.

Напомним / Чувствительность: Правильно классифицированный позитив / тотал позитив

Например: если ваша модель прогнозирует 40 значений Cat, то Recall is Out of всего Cat в вашем наборе данных, сколько фактических котов.

Счет F1: Это баланс между точностью и отзывом.

точность: общее количество двух правильных прогнозов (TP + TN), деленное на общее количество набора данных (P + N).

специфичность: правильный негативный прогноз / Всего негативов

Давайте посмотрим несколько строк кода Python для реализации Confusion Matrix.

из sklearn.metrics импорт confusion_matrix
из sklearn.metrics импортировать классификацию_отчет
фактический = ['Собака', 'Собака', 'Кошка', 'Собака', 'Кошка', 'Кошка', 'Собака', 'Собака', 'Кошка', 'Кошка', 'Собака'] # 6 собака 5 кошек
предсказано = ['Dog', 'Dog', 'Cat', 'Dog', 'Cat', 'Cat', 'Dog', 'Cat', 'Cat', 'Cat', 'Cat'] # 4 собака 7 кот
res = confusion_matrix (фактическое, прогнозируемое)
печать (классификация_отчет (фактическая, прогнозируемая))

precision    recall  f1-score   support

Cat 0.71 1.00 0.83 5
Dog 1.00 0.67 0.80 6

accuracy 0.82 11
macro avg 0.86 0.83 0.82 11
weighted avg 0.87 0.82 0.82 11

Давайте вручную проверим, как работает точность, вспомним…

Предсказанная Кошка = 7, Предсказанная Собака = 4

Фактическая кошка = 5, Фактическая собака = 6

Правильно классифицированный кот= 5 из 7,Правильно классифицированная собака= 4 из 4

Точность и отзыв для кошки:

precision_cat = 5/7 # (правильно классифицированная кошка / предсказанная кошка)
rev_cat = 5/5 # (правильно классифицированная кошка / общая кошка)
печать («Precision for Cat:», precision_cat)
печать («Recall for Cat:«, напоминает о кошке)

Precision for Cat :  0.7142857142857143
Recall for Cat : 1.0

Точность и отзыв для собаки:

precision_dog = 4/4 # (правильно классифицированная собака / прогнозируемая собака)
rev_dog = 4/6 # (правильно классифицированная собака / общая собака)
печать («Precision for Dog:«, precision_dog)
печать («Recall for Dog:«, rev_dog)

Precision for Dog :  1.0
Recall for Dog : 0.6666666666666666

Вывод :

  • Матрица путаницы также известна как метрика ошибки, которая используется для описания эффективности модели классификации.
  • Точность должна быть близка к 1, что означает, что все положительные образцы правильно классифицированы.
  • False Positive (Actual False Predicted True) должен быть очень низким, ниже FP, точность больше
  • Путаница Матрица только для задач классификации.
  • Важными показателями являются точность, отзыв, оценка F1, точность

Оригинальная статья

Footer decor

© www.machinelearningmastery.ru | Ссылки на оригиналы и авторов сохранены. | map