Académique Documents
Professionnel Documents
Culture Documents
Lalgorithme de base
Lheuristique dentropie
Concepts
Arbres de Dcision
dcision
Apprentissage
Jouer au tennis
Exemple
Instance :
Fonction x qui associe
tout attribut a une valeur v.
Jouer au tennis
Exemple
Instance :
Fonction x qui associe
tout attribut a une valeur v.
Exemple :
paire (x, c) o x est une
instance et c la classe
prdire pour cette
instance.
Jouer au tennis
Structure
Arbre de dcision
Construit partir des
donnes
Noeuds: attributs
Branches: valeurs
Feuilles: dcisions (classes)
Structure
Arbre de dcision
Construit partir des
donnes
Noeuds: attributs
Branches: valeurs
Feuilles: dcisions (classes)
Classification
Une nouvelle instance est
Structure
Arbre de dcision
Construit partir des
donnes
Noeuds: attributs
Branches: valeurs
Feuilles: dcisions (classes)
Classification
Une nouvelle instance est
Structure
Rgles
Chaque chemin depuis la
Structure
Rgles
Chaque chemin depuis la
tte
2 Apprentissage
dArbres de Dcision
Comment construire un arbre de dcision partir dun jeu de
donnes ?
Algorithme
b) Entropie
a)
Problme
Description du problme
Etant donn un ensemble dexemples E, trouver un arbre de dcision h,
Taille
La taille dun arbre de dcision est donne par le nombre de nuds
qui le reprsentent.
Rasoir dOccam
Etant donn un ensemble H dhypothses consistantes avec les donnes,
Problme
Complexit
Etant donn un ensemble dexemples E et un paramtre k,
Recherche
(a i 1)
vi
i 0
Il faut trouver :
des stratgies de parcours de lespace
des heuristiques de choix dattributs
a) Algorithme
Algorithme
Stratgie
Hill-Climbing : Etendre la
Algorithme
Stratgie
Hill-Climbing : Etendre la
Algorithme
Stratgie
Hill-Climbing : Etendre la
Algorithme
Stratgie
Hill-Climbing : Etendre la
Algorithme
Stratgie
Hill-Climbing : Etendre la
Algorithme
Entre
Nud courant de
larbre de dcision
Ensemble dexemples E
Ensemble dattributs A
Sortie
Un arbre de dcision
Ea ,v x, c E : x(a) v
Algorithme
Entre
Nud courant de
larbre de dcision
Ensemble dexemples E
Ensemble dattributs A
Sortie
Un arbre de dcision
Projection
Ea ,v x, c E : x(a) v
dexemples
Nombre de bits ncessaires
H ( E ) pi log 2 pi
i 1
linformation B
Le nombre de questions ncessaires pour trouver la bote va
conditionner le prix de linformation dtenue par C
Exemple
Si N = 1, I = 0. Il ny a quune seule bote : aucune question nest ncessaire.
Exemple
Si N = 1, I = 0. Il ny a quune seule bote : aucune question nest ncessaire.
Si N = 2, I =
Exemple
Si N = 1, I = 0. Il ny a quune seule bote : aucune question nest ncessaire.
Exemple
Si N = 1, I = 0. Il ny a quune seule bote : aucune question nest ncessaire.
alors dliminer deux des botes et il suffit dune dernire question pour
trouver quelle est la bonne bote par deux.
k
Si N = 2 , I =
Exemple
Si N = 1, I = 0. Il ny a quune seule bote : aucune question nest ncessaire.
Si N = 2, I = 1. On demande si la bonne bote est la bote n1. La rponse OUI
Exemple
Si N = 1, I = 0. Il ny a quune seule bote : aucune question nest ncessaire.
Si N = 2, I = 1. On demande si la bonne bote est la bote n1. La rponse OUI
I log 2 (N)
probabilit.
Entropie
minimale ?
dexemples
Nombre de bits ncessaires
H ( E ) pi log 2 pi
i 1
Heuristique dentropie
Entropie dun ensemble
dexemples
Nombre de bits ncessaires
H (E) 1
H ( E ) pi log 2 pi
i 1
Heuristique dentropie
Entropie dun ensemble
dexemples
Nombre de bits ncessaires
H ( E ) pi log 2 pi
i 1
Heuristique dentropie
Entropie dun ensemble
dexemples
Nombre de bits ncessaires
H (E) 0
H ( E ) pi log 2 pi
i 1
Heuristique dentropie
Entropie dun ensemble
dexemples
Nombre de bits ncessaires
H ( E ) pi log 2 pi
i 1
Heuristique dentropie
Entropie dun ensemble
dexemples
Nombre de bits ncessaires
H ( E ) 0.33
H ( E ) pi log 2 pi
i 1
Heuristique dentropie
Gain entropique
= Diminution de lentropie
vV ( a )
Ea ,v
E
H ( Ea ,v )
Heuristique dentropie
Gain entropique
= Diminution de lentropie
vV ( a )
Ea ,v
E
H ( Ea ,v )
Heuristique dentropie
Gain entropique
= Diminution de lentropie
vV ( a )
Ea ,v
E
H ( Ea ,v )
Heuristique dentropie
Gain entropique
= Diminution de lentropie
vV ( a )
Ea ,v
E
H ( Ea ,v )
3 Evaluation de lapprentissage
Elagage
a)
b)
Evaluation empirique
c)
Sur-apprentissage
d)
Techniques dlagage
Pruning
Rduire les branches de larbre afin de permettre damliorer la
prcision estime
Plusieurs mthodes destimation: thoriques, empiriques.
Plusieurs techniques dlagage: pre-pruning, post-pruning,
reduced error, pruning, . . . .
heuristique de recherche
Biais de Langage
Souvent statique, simplmente travers le langage
courtes arbitraires ?
Il y a beaucoup de manires de dfinir de petits ensembles
dhypothses
b) Evaluation empirique
= (FP+FN)/(TP+TN+FP+FN)*100
Exemple :
classeurs
Donnes d'optimisation ou de validation
utilises pour optimiser les paramtres de ces classeurs
Donnes de test
utilises pour calculer les taux d'erreurs sur classeurs optimiss
Ensemble test
Pour prdire les performances d'un classeur sur les donnes
d'apprentissage
les deux ensembles doivent avoir des exemples
reprsentatifs du problme
Validation croise
Leave-one-out
...
Hold-out
Un sous-ensemble pour le test, le reste pour
l'apprentissage
Rpter le processus k fois (par permutation circulaire)
Erreur = moyenne des erreurs sur les k partitions
Leave-one-out
Cas particulier de la k-validation croise o k = nombre
d'exemples
Avantage :
chaque itration utilise un nombre lev de donnes pour la
phase d'apprentissage
dterministe : pas de variance
Inconvnients :
algorithme d'apprentissage excut n fois
pb de garantie de la stratification des exemples
c) Sur-apprentissage
Sur-apprentissage - Exemple
concidence,
contribuent au sur-apprentissage
d) Techniques dlagage
exceptions ?
Compromis: coder le modle contre coder lerreur rsiduelle
noeud)
Pour et contre
lagage
Convertir T en un ensemble de rgles
quivalentes (une pour chaque chemin de
la racine une feuille)
Elague (gnralise) chaque rgle
indpendamment en effaant toutes les
prconditions dont leffacement amliore
lerreur apparente
Trier les rgles obtenues par leur prcision
Les appliquer dans lordre D_test
Ngatif
Positif
VP
FN
Sensibilit = VP/(VP+FN)
Ngatif
FP
VN
Spcificit = VN/(VN+FP)
Prcision
= VP/(VP+FP)
une feuille)
Conclusion : tiquette de classe
Exemple :
SI (Ciel = Soleil) et (Humidit = Eleve) ALORS PlayTennis = non
SI (Ciel = Soleil) et (Humidit = Normale) ALORS PlayTennis = oui
Inconvnients
Pb si la taille de lensemble dapprentissage augmente
Pb si bruit dans les donnes
Rfrence biblio
en TP
Amlioration de la recherche
Mthodes lookahead, beam search, branch-and-bound search, . . .
Amlioration de la prcision
Mthodes ensemble: boosting, bagging, stacking, . . .
Tree drafting