Académique Documents
Professionnel Documents
Culture Documents
VALIDATION Scoring Scoring
VALIDATION Scoring Scoring
Une fois un modèle ou plusieurs modèles de scoring sont estimés, il convient d’analyser
leurs performances avant de les valider pour être utilisés comme outil d’aide à la décision.
L’analyse de performances, à l’issue de la quelle une méthode de scoring est validée, permet
notamment
L’analyse des performances d’un modèle gagnerait à être conduite sur un jeu de données
différent de celui qui a été utilisé pour l’estimation. On doit en effet, lorsque cela est
possible, distinguer entre l’échantillon d’apprentissage et l’échantillon de test ou de
validation. Ce dernier doit nécessairement contenir les valeurs réelles de la variable cible
(appartenance aux groupes). D’une manière générale, il s’agit de comparer entre les valeurs
réelles de la variable cible avec celles prédites par le modèle.
1. CONCEPTS DE BASE
Soit une population partitionnée en deux sous groupes G1 et G2. On appelle (par
convention) les positifs les individus de G1 et les négatifs les individus de G2. On dispose par
ailleurs d’une fonction de score (issue d’un modèle) notée S et d’un seuil s définies tels que :
• On affecte l’individu présentant l’observation x au groupe G1 si S(x) > s . Autrement dit, on
considère cet individu comme positif.
= Faux positif, un individu négatif considéré par la méthode de score comme positif
= Faux négatif, un individu positif considéré par la méthode de score comme négatif
1.2 Spécificité
C’est donc la probabilité de bien détecter un négatif ou encore c’est la proportion des
négatifs dans la population pouvant être détecté par la méthode.
1.3 Sensibilité
C’est donc la probabilité de bien détecter un positif ou encore c’est la proportion des positifs
dans la population pouvant être détecté par la méthode.
Remarques
• On peut aussi considérer la quantité γ = Pr (S(x) > s ) qui est la probabilité de considérer un
individu comme positif. C’est la proportion d’individus supposés être intéressés par un
nouveau produit dans une compagne marketing par exemple.
• Le meilleur modèle (et donc la meilleure fonction de score) est celui qui minimise les deux
types de risque d’affectation (les quantités β et α) .
• Les coefficients α et β changent lorsque le seuil s change. On les exprime comme des
fonctions de s : α(s) et β(s). Le seuil s est déterminé à l’extérieur du modèle notamment par
des considérations d’ordre économique.
NB : En augmentant s, on réduit la probabilité de tomber sur des faux positifs (α) mais on
augmente la probabilité d’avoir des faux négatifs (β). A noter aussi que le modèle le plus
performant est celui pour le quel les deux distributions sont séparées. En revanche, lorsque
les deux distributions sont confondues, le modèle correspondant est le moins performant.
Matrice de confusion
La courbe ROC
Pour créer la courbe ROC, la sensibilité est comparée à la probabilité d'une fausse
alarme (taux de faux positifs) à divers seuils. L'évaluation des outils de mesure de
performance à divers seuils constitue une fonctionnalité désirable de la courbe ROC.
Les taux varient avec les problèmes des entreprises et leur stratégie.
La zone sous la courbe ROC (AUC) est une mesure utile qui indique la capacité
prédictive d'un classificateur. Dans le domaine du risque de crédit, une valeur AUC
supérieure ou égale à 0,75 est la norme, et est nécessaire pour l'acceptation du
modèle.
La courbe LIFT
Cette courbe est très utilisée en marketing. Elle peut servir aussi à mesurer la performance
d’une compagne de promotion d’un nouveau produit. Elle est alors déterminée à partir des
données de la population.
Acceptation de l'utilité – Le modèle sera-t-il accepté ? – C'est la
dernière question à poser pour déterminer si le modèle est utile du point
de vue de l'entreprise. C'est la phase critique : le data scientist doit
présenter les résultats du modèle à l'entreprise et défendre la validité du
modèle. Les critères clés d'évaluation sont les avantages qu'apporte le
modèle à l'entreprise. Par conséquent, l'analyse des avantages est
essentielle lors de la présentation des résultats. Les data scientists doivent
absolument présenter les résultats de manière concise afin qu'ils soient
faciles à comprendre. Sinon, l'entreprise risque de rejeter le modèle, et le
projet aura échoué.