Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
visages
I. Introduction
III. L’Adaboosting
Multiples détections
Fausses alarmes
les occlusions
où chaque
L’étiquette est associée aux visages tandis que l’étiquette
est associée aux non visages.
Notations
En général, on n’apprend pas directement à partir des images mais à
partir d’attributs (calculés sur les images) permettant en général de :
diminuer la dimension de représentation des images,
d’améliorer les performances en détection.
marge
Minimisation du Risque Empirique (ERM)
Une idée naturelle d’induction est d’approcher la machine idéale en
minimisant le risque empirique i.e.
Intervalle de confiance
Risque empirique
Or Vapnik a montré
Adaboost linéaire,
Nb weak- recherche locale ≥ Maximum/2
learner gloutonne
Pourquoi choisir Adaboost ?
Le choix de l’Adaboost se justifie car
la prédiction peut être en (selon le choix du weak-learner),
tend à maximiser également une marge.
La classifieur Adaboost consiste à construire un classifieur « fort »
à l’aide d’une somme pondérée de classifieurs faibles .
0.8
0.6
0.4
Rätsch 02
0.2 Schapire 98
avec
avec
exemple
Conclusions & Perspectives
Détection performante et rapide grâce :
à l’adaboost : classifieur à vaste marge,
attributs calculés rapidement via l’intégrale image,
classifieur faible = decision stump,
technique de cascade.
Amélioration d’Adaboost :
Utiliser des versions d’adaboost à marge douce,
Minimisation « globale » de l’erreur structurelle via
optimisation stochastique.
Relevance Support Vector Machine + noyaux séparables + cascades