Académique Documents
Professionnel Documents
Culture Documents
( Machine-Learning )
Fabien Moutarde
Centre de Robotique (CAOR)
MINES ParisTech (Ecole des Mines de Paris)
Fabien.Moutarde@mines-paristech.fr
http://www.mines-paristech.fr/~moutarde
mai 2011
Un domaine interdisciplinaire
INTELLIGENCE
ARTIFICIELLE
STATISTIQUES,
analyse de donnes
OPTIMISATION
Apprentissage
Artificiel
AUTOMATIQUE,
commande,
robotique
Apprentissage artificiel ( Machine-Learning )
VISION
mai 2011
APPRENTISSAGE ARTIFICIEL
Capacit dun systme
amliorer ses performances via
des interactions avec son environnement
mai 2011
Exemples introductifs
Reconnaissance de caractres
Systme de
reconnaissance
de chiffres
mai 2011
AGENT
?
"actionneurs "
"action"
ENVIRONNEMENT
senseurs
NOTES :
1. action comprendre AU SENS LARGE (par exemple a
peut tre fournir un diagnostic )
2. Boucle Agent/Environnement pas ncessairement ferme
Apprentissage artificiel ( Machine-Learning )
mai 2011
Spcificit de lapprentissage
mai 2011
prdiction
donnes
externes
mai 2011
Typologie de lapprentissage
Capacit dun systme amliorer ses performances via
des interactions avec son environnement
Quel systme ?
Quelles performances ?
fonction de cot, objectif, critre implicite,
Comment amliorer ?
mai 2011
Paradigme dapprentissage
Chaque paradigme se caractrise par :
mai 2011
Exemple trivial :
rgression linaire par moindres carrs
n
xi2
i 1
n
xi
i 1
n
xi
xi yi
a
i 1
i 1n
b
n
yi
i 1
n
mai 2011
10
Nombreux paradigmes
mai 2011
11
Heuristiques diverses :
mai 2011
12
APPRENTISSAGE SUPERVIS :
rgression et classification
Environnement exemples de type (entre,sortie)
entre = perception
AGENT
?
sortie adquate ( dsire )
Rgression
Classification
(approximation)
(yi = tiquettes )
sortie
entre =
position point
sortie dsire =
classe ( =-1,+=+1)
entre
Fonction
tiquette=f(x)
(et frontire de
sparation)
mai 2011
13
Apprentissage supervis
Exemples entre-sortie
(x1,y1), (x2,y2), , (xn, yn)
H famille de
modles mathmatiques
ALGORITHME
hH
DAPPRENTISSAGE
Hyper-paramtres pour
lalgorithme dapprentissage
mai 2011
14
mai 2011
15
Notion de perte et
les diverses erreurs dapprentissage
Mesure de la qualit du modle h :
E(h)=E( L(h(x),y) )
o L(h(x),y) est la fonction de perte
gnralement = ||h(x)-y||2
E(h*H,n)-E(h*)=[E(h*H,n )-E(h*H)]+[E(h*H)-E(h*)]
Apprentissage artificiel ( Machine-Learning )
mai 2011
16
APPRENTISSAGE SUPERVIS :
dfinition formelle
APPRENDRE = INFERER/INDUIRE + GENERALISER
mai 2011
17
mai 2011
18
Fonction de cot
et terme de rgularisation
Plus pcisment Vapnik a montr que :
Proba(maxhH |Egen(h)Eemp(h)| ) < G(n,,)
mai 2011
19
RESEAUX NEURONAUX
Inspirs de larchitecture et fonctionnement cerveau
corps cellulaire
dendrite
synapse
axone
P f
Wij
Oj
O j f P e ,Wj
avecpar exemple
P e ,Wj eiWij
f p tanh( p)
X1
Y1
X2
Y2
X3
neurone formel
Apprentissage artificiel ( Machine-Learning )
Rseau =
assemblage de neurones
mai 2011
20
mai 2011
21
Espace
d'entres X
F
x
Redescription
non linaire
h
Sparation
linaire
Espace
de sortie
F connue seulement
indirectement via noyau k
k(x,z) = <F(x),F(z)>
y
h sparation linaire optimale
au sens marge maximale,
i.e. distance maxi entre hyperplan
et exemples plus proches
(= points de support )
mai 2011
22
?
sortie voulue INCONNUE
ENVIRONNEMENT
entre = perception
mai 2011
23
H famille de
modles mathmatiques
[ chaque hH agent
avec comportement y=h(x) ]
ALGORITHME
DAPPRENTISSAGE
hH telle que
critre J(h,X)
soit vrifi ou
optimis
Hyper-paramtres pour
lalgorithme dapprentissage
mai 2011
24
mai 2011
25
Proximit et distance
Notion de proximit
Mesure de dissimilarit DM : plus la mesure est faible, plus les
points sont similaires ( distance)
Mesure de similarit SM : plus la mesure est grande, plus les points
sont similaires
Comment mesurer la distance entre 2 points d(x1; x2) ?
distance euclidienne :
d2(x1; x2) = i (x1i - x2i)2 = (x1 - x2).t(x1 - x2) (norme L2)
distance de Manhattan :
d(x1; x2) = i |x1i - x2i| (norme L1)
distance de Sebestyen :
d2(x1; x2) = (x1 - x2)W t(x1 - x2) avec W= matrice diag.
distance de Mahalanobis :
d2(x1; x2) = (x1 - x2)C t(x1 - x2), avec C=covariance
Apprentissage artificiel ( Machine-Learning )
mai 2011
26
Types de clustering
Clustering par agglomration
Regroupement Hirarchique Ascendant (Agglomerative
Hierarchical Clustering)
mai 2011
27
Regroupement H. Ascendant
Principe : chaque point ou cluster est progressivement
"absorb par le cluster le plus proche.
Algorithme
Initialisation :
Chaque individu est plac dans son propre cluster
Calcul de la matrice de ressemblance M entre chaque couple de
clusters (ici les points)
Rpter
Slection dans M des deux clusters les plus proches Ci et Cj
Fusion de Ci et Cj par un cluster Cg plus gnral
Mise jour de M en calculant la ressemblance entre Cg et les
clusters existants
mai 2011
28
mai 2011
29
RHA: Dendrogramme
mai 2011
30
Chaque cluster Ck est dfini par son centrode ck, qui est un
prototype (un vecteur de lespace dentre) ;
Tout x est assign au cluster Ck(x) dont le prototype est le plus
proche de x : k(x)=ArgMink(dist(x,ck))
ALGO :
On choisit K points distincts c1,,cK au hasard parmi {x1,, xn}
On rpte jusqu stabilisation des ck :
Assigner chaque xi au cluster Ck(i) tq dist(xi,ck(i)) est minimum
x card Ck
Recalculer les centrodes ck des clusters : ck
K
xCk
k 1 xCk
mai 2011
31
Partitionnement spectral
Principe = passer par graphe dadjacence
nuds = points donnes
val. artes = similarits
(ds [0;1], 1 mme pt)
0.8
0.1
0.9
0.6
0.4
0.8
0.5
0.2
4
mai 2011
32
0.8
0.6
0.5
0.2
Aij e
||si s j || / 2
2
x1
x2
X3
x4
x5
x6
x1
1.5
-0.8
-0.6
-0.1
x2
-0.8
1.6
-0.8
x3
-0.6
-0.8
1.6
-0.2
x4
-0.2
1.1
-0.4
-0.5
x5
-0.1
-0.4
1.4
-0.9
x6
-0.5
-0.9
1.4
0.9
0.4
0.8
0.6
1.5
0.4
0.5
0.2
0
-2
-1.5
-1
-0.5
0.5
1.5
-0.709
-0.7085
-0.708
-0.7075
-0.707
-0.7065
-0.5
0
-0.706
-0.2
-1
-0.4
-1.5
-0.6
-2
-0.8
mai 2011
33
neurones
de
sortie
X1
X2
Xn
Entres
mai 2011
34
mai 2011
35
Caractristiques
du rseau de Kohonen
une seule couche de neurones
neurones de type distance
mai 2011
36
mai 2011
37
mai 2011
38
L'ALGORITHME DE KOHONEN
t=0, initialiser les poids (hasard ?)
date t, prsenter l'exemple X
dterminer le neurone gagnant g de poids le plus proche
dterminer le pas (t) [et ventuellement le voisinage V(t)]
modifier les poids :
Wi(t+1) = Wi(t) + (t) (X-Wi(t)) (i,g,t)
avec (i,g,t)=1 si iV(t) et 0 sinon (cas voisinage limit),
ou bien (i,g,t)=exp(-dist(i,g)2/(t)2) [par exemple]
t = t+1
Convergence de l'algorithme :
conditions sur (t) (1/t convient)
[Voir dmo ]
Apprentissage artificiel ( Machine-Learning )
mai 2011
39
mai 2011
40
Idem en vue 3D
de courbes de niveau
Niveau de gris
(+ sombre = + gde distance)
Exemple chainLink
Apprentissage artificiel ( Machine-Learning )
Exemple twoDiamonds
Fabien Moutarde, CAOR, MINES ParisTech
mai 2011
41
Application de Kohonen
au text-mining
Chaque document
reprsent comme un
histogramme des mots
contenus
A droite extrait dune
carte obtenue avec tous
les articles de
lEncyclopedia
Universalis
WebSOM (voir dmo, etc http://websom.hut.fi/websom)
Apprentissage artificiel ( Machine-Learning )
mai 2011
42
Objectif :
partant de M mlanges diffrents de
M signaux indpendants,parvenir
reconstituer les signaux sources
(exemple : plusieurs locuteurs ou instruments, et autant de
micros placs des endroits diffrents)
Apprentissage artificiel ( Machine-Learning )
mai 2011
43
...
m (t )
M
Agent
sparateur
y1 ( t )
...
y (t )
M
m1
m2
y(t)
mM
mai 2011
44
W (t 1) W (t ) I g1 ( y ) g2 ( y ) W (t )
(Jutten et Hrault)
OU
W (t 1) W (t ) I y y T g ( y ) y T y g ( y T ) W (t )
(Cardoso, EASI)
[o m= pas ; I=matrice identit ; g,g1,g2= fonctions non-linaires ; voir dmo]
Apprentissage artificiel ( Machine-Learning )
mai 2011
45
mai 2011
46
mai 2011
47