Académique Documents
Professionnel Documents
Culture Documents
+ f()
w1 wL
w2
d1 d2 dL
x
Tiré de E. Alpaydin, Introduction to Machine Learning, 2e édition, MIT Press, 2010.
Arbres de décision
I Séparation hiérarchique (récursive) de l’espace d’entrée
I Chaque nœud de l’arbre est un test sur valeur avec issues discrète
I Effectue une division de plus en plus fine de l’espace d’entrée
Propriétés des arbres de décision
I Construction descendante (top-down) des arbres selon critère de
performance (ex. entropie)
I Élagage (pruning) permet réduire sur-spécialisation
I Utile pour extraire des règles de décision interprétables
Figure 9.1
Tiré de E.Example
Alpaydin, of a dataset
Introduction and theLearning,
to Machine corresponding
3e édition, decision
MIT Press, tree.
2014. Oval
nodes are the decision nodes and rectangles are leaf nodes. The univariate de-
cision node splits along one axis, and successive splits are orthogonal to each
other. After the first split, {x|x1 < w10 } is pure and is not split further.
E
ror
0.5
k l e arnearining er
weaghted tr
0.4 wei
0.3
ensem
ble te
0.2 st err
ensem or
ble tr
0.1 ainin
g erro
r
kmax
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
2 m =1 2 m =2 2 m =3
0 0 0
−2 −2 −2
−1 0 1 2 −1 0 1 2 −1 0 1 2
2 m =6 2 m = 10 2 m = 150
0 0 0
−2 −2 −2
−1 0 1 2 −1 0 1 2 −1 0 1 2
Mixture d’experts
I Classifieurs-experts spécialisés sur certains aspects du problème
I Travaillent en parallèle, avec fonction de routage pondérant les
décisions selon l’expertise
I Similaire au vote pondéré, mais avec pondération non constante
L
X
h̄(x) = wj (x)hj (x)
j=1
f()
+
wL
gating
w1
d1 d2 dL
x
Tiré de E. Alpaydin, Introduction to Machine Learning, 2e édition, MIT Press, 2010.
f()
d1 d2 dL
x
Tiré de E. Alpaydin, Introduction to Machine Learning, 2e édition, MIT Press, 2010.
y=d L
y=d 2
yes
y=d 1 no ...
w 2>θ 2 dL
yes
no
w 1>θ 1 d2
d1