Académique Documents
Professionnel Documents
Culture Documents
Modèle
y= H U L L I E R
i
M I Li L E R
i+1
i,j Préc Suivant M
I
j+1 Suivant i+1,j+1
j L
L
E
R
i i+1
j j M I Li L E R
• puis on avance ensuite dans j
(on supprime le o) M
i i
O
j j+1 j L
L
E
R
i i+1 M I Li L E R
j j
M
I
j L
E
R
Ajout M I Li L E R
Suppression
min
min
min min
Initial But
min
min
min
f 15
10
b
10
20 15
15
15 15 g j 5
10
10
d c a
25 10
Départ h 15 Arrivée
15 10 k
20
25
10 35
e
5 i
Modèle
Modèle ?
0 10
d( , “t”)
R o b e r t
Variations uniquement
dans la longueur Variations dans la longueur
et dans la composition
Entrée Sortie
En effet :
– de nombreuses multiplications sont répétées (portions de sous-
séquences communes)
Idées :
1. Calculer P(O|) de manière incrémentale ou inductive
• c.à.d de manière progressive, permettant à chaque nouvelle étape
de ne calculer que ce qui concerne le nouvel état
2. Calculer P(O|) de deux manières duales en allant de l’origine et
de l’extrémité (pour éviter de se perdre à la recherche de la
sortie)
Calcul inductif vers l’avant :
– Définissons
t(i)= P(o1,o2,…,ot,qt=si|)
– la probabilité de la sous-séquence o1,…,ot et d’être dans l’état si
en t
s1
1( i ) i * bi ( o1 ) N
N sj si P(O ) t (i )
t 1( i ) t ( j )aij * b j( ot 1 ) i 1
j1
sN
Forward
Initialisation : s1
T ( i ) 1, 1 i N
ai,j
si sj
Induction :
N
T (i)= aijbj (ot+1 )t+1(j) T -1 t 1 1 i N sN
j=1
Backward
N
P (O ) t (i )t (i )
i 1
s2 s2 s2 s2 s2
si si si si si
sN sN sN sN sN
i jk
jN
t(i)t(i)
IL FAUT TOUJOURS SE RAMENER A UN FLUX ENTRANT ET A UN FLUX SORTANT :
C’EST CAPITAL POUR COMPRENDRE TOUT LE RESTE
P(O/)P(O/)
• Nous avons donc trouvé un modèle ¯ à partir duquel la suite
d’observation a plus de chance d’être produite
• Nous utilisons ¯ à la place de et nous répétons la ré-estimation
jusqu’à un point limite. Le modèle résultant est un HMM obtenu
par le Maximum de Vraisemblance : MLE
Modèle idéal
Modèle initial 0
Nombre d’itérations
3. Nouvelles estimations
a-ij, b-j (k), -i pour 1i,jN, 1i N, 1kM d’où -
a : 0.5
b : 0.5
a : 0.5
1.0
b : 0.5 0.5 2
1 4
0.5 1.0
3
a : 0.5
b : 0.5
Dans ce cas, l’apprentissage ne permettra pas de privilégier un chemin
plutôt qu’un autre
Les deux chemins garderont la même probabilité de départ
a : 0.5
b : 0.5
a : 0.5
1.0
b : 0.5 0.6 2
1 4
0.4 1.0
3
a : 0.5
b : 0.5
P ( ) P ( ,V )
• …mais c’est un algorithme optimal
* b j ( o l )
M ijl N ijk
P ( V , ) i (1)
i i
a j ,k
s j S o l s k S
M
T
N ji il
i 1 i 1
.45
.4
– Chemins « interdits »
(P=0) sont supprimés
– Paramètres A, B et
ont évolué
– Pas de départ en 3,
contrairement à
l’hypothèse de départ
(où tout état peut être
le départ)
– Probabilité du modèle
très faible
P(O/) P(O/)
Idée : améliorer la probabilité de la séquence à apprendre
sachant le modèle
Pour ce faire, on ré-estime le modèle afin qu'il soit plus
proche des données
Exemple2 1
a12
2
Probabilité=0.0334125
1 1* 1 (1) 1 2 * 1 (2) 2 1* 2 (1) 2 2 * 2 (2)
3 1* 3 (1) 3 2 * 3 (2) 4 1* 4 (1) 4 2 * 4 (2)
Exemple2 1
a12
2
Probabilité = 0.19075
1 1* 1 (1) 1 2 * 1 (2) 2 1* 2 (1) 2 2 * 2 (2)
3 1* 3 (1) 3 2 * 3 (2)
http://www.mathworks.com/matlabcentral/fileexchang
e/loadFile.do?objectId=1341