Académique Documents
Professionnel Documents
Culture Documents
Aurélien Géron
Chapitre 7 :
Apprentissage d’ensemble
et
forêts aléatoires
Présenté par: Groupe 8
RABENIRINA Onjaniaina
2 Exercices
3 Démonstration
4 Conclusion
PLAN
1 Résumé
2 Exercices
3 Démonstration
4 Conclusion
Résumé
Classificateurs par vote
Bagging et Pasting
Forêts aléatoires
Boosting
Stacking
Classificateurs par vote
Classificateurs par vote
Bagging
Pasting
Bagging et Pasting
Bagging Pasting
(tirage avec remise) il sur-ajuste les données Le pasting tirage sans remise.
d’apprentissage. Par contre, il fournit souvent de simple
(moins complexe) et meilleur modèle et un biais élevé.
Bagging et Pasting
Bagging et Pasting
Evaluation hors
sélection
?
P A et SE A
Cet algorithme augmente le biais, ce qui engendre sa Une autre grande qualité des forêts aléatoires est
qu’elles permettent de mesurer facilement
rapidité par rapport aux forêts aléatoires. l’importance relative des variables
Boosting
Adaboost
Boosting de gradient
Adaboost
Adaboost
Poids du prédicteur
Adaboost
Prédictions AdaBoost
Boosting de gradient
Boosting de gradient
2 Exercices
3 Démonstration
4 Conclusion
Exercices
2 Exercices
3 Démonstration
4 Conclusion
PLAN
1 Résumé
2 Exercices
3 Démonstration
4 Conclusion
Conclusion
Ensemble spécifique
pour certaines données
Merci de votre attention!