Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
1
Exercice arbres de décision
n Construire l’arbre de décision à partir des données
suivantes en utilisant l’algorithme ID3.
Présence Interaction avec le prof Mange à Noël Réussite
Régulière Pose des questions Dinde Oui
Régulière Ne pose pas de questions Canard Non
Absence Pose des questions Dinde Non
Régulière Pose des questions Canard Oui
Régulière Ne pose pas de questions Dinde Non
Régulière Ne pose pas de questions Canard Oui
Source: http://dolques.free.fr/enseignement/2012/IA/CFAI/exo.pdf
c
n Rappel: Entropie ( S ) = ∑ − pi log 2 pi
i =1
Sv
Gain( S , A) = Entropie( S ) − ∑ Entropie( S v )
v∈Valeurs ( A ) S
2
Problème de la compression/
dilation du temps
3
Topologies typiques
4
Comment estimer les
probabilités associés à la
machine à états finis?
5
Modèle de Markov
n Un processus de Markov est un processus stochastique
possédant la propriété de Markov
La prédiction du future, sachant le présent, n est pas plus
précise si des informations supplémentaire concernant le
passé deviennent disponibles.
6 Ref: http://fr.wikipedia.org/wiki/Chaîne_de_Markov
Modèle de Markov
Typiquement représenté par une machine à états finis
0.4 0.6
Probabilités de transition:
0.3 ! a
P N a1,2 a1,3 $ ! 0.4 0.3 0.3 $
# 1,1 & # &
(q1) 0.2 (q2)
A = # a2,1 a2,2 a2,3 & = # 0.2 0.6 0.2 &
0.3 # & # 0.1 0.1 0.8 &
0.1 #" a3,1 a3,2 a3,3 &% " %
0.1
0.2
Probabilités initales:
S
(q3)
0.8
! = [ p(q1 ), p(q2 ), p(q3 )]
7
Balles dans des urnes
8
Simple HMM à états discrets
0.4 0.6
9
Définition d’un HMM
n N: nombre d’états dans le modèle
¨ États:
¨ État au temps t:
n T: nombre d’observations/trames
¨ Symboles d’observations: O = {o , o , o ,L , oT }
1 2 3
¨ Observation au temps t:
n Distribution de prob. de transition d’états:
¨ Transition entre l’état si au temps t et l’état sj
au temps t+1:
10
Définition d’un HMM
n Distribution de prob. d’observation ok à l’état j:
b j (k ) = P(ok⎪qt = s j ) 1 ≤ j ≤ N , 1 ≤ k ≤ T
¨ Ensemble de toutes les observations:
n Distribution des états initiaux:
11
Génération des observations
1. Choisir un état initial à partir de la distribution des états
initiaux
2. Pour t =1 à T
1. Choisir ot en fonction de la probabilité d’observation d’un
symbole à l’état i :
2. Faire une transition à un nouvel état en fonction de la
probabilité de transition d’états
12
Représentation sous forme de treillis des HMM
13
3 Problèmes de base des HMM
1. Évaluation:
1. Problème: calculer la probabilité d’observation de la séquence
d’observations étant donnée un HMM:
2. Solution: Forward Algorithm
2. Décodage:
1. Problème: trouver la séquence d’états qui maximise la
séquence d’observations
2. Solution: Viterbi Algorithm
3. Entraînement:
1. Problème: ajuster les paramètres du modèle HMM afin de
maximiser la probabilité de générer une séquence
d’observations à partir de données d’entraînement
2. Solution: Forward-Backward Algorithm
14
Évaluation
n doit être évaluée pour toutes les séquences d’états
Q={q1,q2,…,qT} possibles:
15
Exemple: Pile ou face avec deux pièces de
monnaie 0.5 0.5
O={Face,Pile,Pile}
! p( face) = 0.5 $ 0.5 ! p( face) = 0.4 $
# & # &
#" p( pile) = 0.5 &% q0 q1 #" p( pile) = 0.6 &%
0.5
P(FPP) : 0.136125
16
Forward Algorithm
n Une approche plus efficace pour évaluer
n Définissons ….
17
1. Initialisation:
2. Induction:
3. Terminaison:
18
Forward Algorithm
o ot+1
t
α1j
sj
α Nj
19
0.5 0.5
0.5*0.4
q1 0.135 0.0743
0.5*0.2 0.5*0.135
20
Backward Algorithm
n Une approche efficace pour évaluer dans la
direction inverse
n Définissons
21
ot+1,ot+2,…,oM
n Initialisation:
n Induction:
n Terminaison:
n
n Avec T observations et N états, ceci requiert
environ N2T opérations
22
23
0.5 0.5
0.1361
24
3 Problèmes de base des HMM
1. Évaluation:
¨ Problème: calculer la probabilité d’observation de la séquence
d’observation étant donnée un HMM:
¨ Solution: Forward Algorithm
2. Décodage:
¨ Problème: trouver la séquence d’état qui maximise la séquence
d’observations
¨ Solution: Viterbi Algorithm
3. Entraînement:
¨ Problème: ajuster les paramètres du modèle HMM afin de
maximiser la probabilité de générer une séquence d’observation
à partir de données d’entraînement
¨ Solution: Forward-Backward Algorithm
25
Problème de décodage:
chercher la séquence optimale d’états
n Critère d’optimalité: choisir la séquence d’états qui
maximize la probabilité en utilisant l’algorithme
de Viterbi
26
Problème de décodage:
chercher les séquences optimales d’états
n Définissons …
27
28
Algorithme de Viterbi
n Cumuler les probabilités de chemins maxima:
n Garder la trace des meilleures séquences :
29
Exemple Viterbi
-1 -0.737
! = "# !1 !1 $% " A = !2.322 % " A = !1.737 %
$ ' -1 $ '
$ C = !1.737 ' $ C = !2.322 '
$ G = !1.737 ' q0 q1 $ G = !2.322 '
$ ' -1.322 $ '
$# T = !2.322 '& $# T = !1.737 '&
G G C A C T G A A
q0 -2.737 -5.474 -8.211 -11.53 -14.00 -17.32 -19.54 -22.86 -25.65
3 7 9 0 2 8
q1 -3.322 -6.059 -8.796 -10.94 -14.00 -16.48 -19.54 -22.01 -24.48
8 7 1 0 4 8
Séquence : q1 q1 q1 q2 q2 q2 q2 q2 q2
Source :Exemple de Didier Gonze adapter de Borodovsky & Ekisheva (2006), p. 80- 81
30
3 Problèmes de base des HMM
1. Évaluation:
¨ Problème: calculer la probabilité d’observation de la séquence
d’observation étant donnée un HMM:
¨ Solution: Forward Algorithm
2. Décodage:
¨ Problème: trouver la séquence d’état qui maximise la séquence
d’observations
¨ Solution: Viterbi Algorithm
3. Entraînement:
¨ Problème: ajuster les paramètres du modèle HMM afin de
maximiser la probabilité de générer une séquence d’observation
à partir de données d’entraînement
¨ Solution: Forward-Backward Algorithm
31
Entraînement des HMM
n Consiste à entraîner les paramètres du modèle HMM
afin de maximiser la probabilité
32
Algorithme Forward-Backward
n Soit un modèle HMM initial, , estimons un nouvel
ensemble de paramètres du modèle de telle sorte
que
33
Réestimation des paramètres
n Définissons
34
35
Réestimation des paramètres
n Définissons de nouvelles probabilités a posteriori à partir
de
36
Réestimation des paramètres
n Probabilité des états initiaux:
37
Réestimation des paramètres
38