Vous êtes sur la page 1sur 2

Matrice de confusion :

La matrice de confusion est une mesure de la performance d'un modèle de


classification dans l'apprentissage automatique (AI). Elle est utilisée pour évaluer la
qualité d'un modèle en comparant les prédictions qu'il a faites avec les résultats réels.

La matrice de confusion est une table qui répertorie les résultats de la classification en
fonction des prédictions et des résultats réels. Elle permet de visualiser les
performances du modèle en termes de précision, de rappel, de taux de faux positifs et
de taux de faux négatifs.

La matrice de confusion est généralement présentée sous la forme d'un tableau à deux
dimensions, avec les prédictions en colonne et les résultats réels en ligne. Les cellules
de la matrice représentent le nombre d'observations qui ont été classées dans chaque
catégorie. Les cellules diagonales représentent les prédictions correctes, tandis que les
cellules non diagonales représentent les erreurs de classification.

En résumé, la matrice de confusion est un outil utile pour évaluer les performances
d'un modèle de classification et pour comprendre ses forces et ses faiblesses. Elle est
largement utilisée dans de nombreux domaines de l'AI, tels que la vision par
ordinateur, le traitement du langage naturel et la classification des données.

Métrique d’évaluation :

Il existe plusieurs métriques d'évaluation qui peuvent être déduites à partir de la


matrice de confusion. Voici quelques-unes des métriques les plus courantes :

1. Accuracy : L'accuracy (ou exactitude) est une métrique d'évaluation


couramment utilisée pour mesurer la performance d'un modèle de
classification en machine learning. Elle représente le nombre d'observations
correctement classées par rapport au nombre total d'observations.
2. Précision : la précision mesure la proportion d'observations positives qui ont
été correctement identifiées. Elle se calcule en divisant le nombre de vrais
positifs par la somme des vrais positifs et des faux positifs.
3. Rappel : le rappel mesure la proportion d'observations positives réelles qui ont
été correctement identifiées. Il se calcule en divisant le nombre de vrais
positifs par la somme des vrais positifs et des faux négatifs.
4. F1-score : le F1-score est une mesure de la précision et du rappel qui prend en
compte les deux métriques. Il est calculé comme la moyenne harmonique de la
précision et du rappel.
5. Taux de faux positifs : le taux de faux positifs mesure la proportion
d'observations négatives qui ont été incorrectement identifiées comme
positives. Il se calcule en divisant le nombre de faux positifs par la somme des
faux positifs et des vrais négatifs.
6. Taux de faux négatifs : le taux de faux négatifs mesure la proportion
d'observations positives réelles qui ont été incorrectement identifiées comme
négatives. Il se calcule en divisant le nombre de faux négatifs par la somme
des vrais positifs et des faux négatifs.
Il est important de choisir la métrique d'évaluation appropriée en fonction des
objectifs spécifiques du modèle et du problème de classification. Par exemple, si les
faux positifs sont plus préjudiciables que les faux négatifs, il est préférable d'utiliser
une métrique qui met davantage l'accent sur le taux de faux positifs.

Vous aimerez peut-être aussi