Académique Documents
Professionnel Documents
Culture Documents
Chaines de Markov
Markov ::
de la
de la modélisation
modélisation àà l’analyse
l’analyse des
des systèmes
systèmes
Chaînes de Markov à temps discrèt
CMTD
Encore un petit rappel :
L’idée intuitive de la notion de probabilité est ce que l’on appelle « la loi des fréquences »,
c.à.d. que si un événement « A » se réalise avec une probabilité « p »,
Chaines de Markov :
la « fréquence de réalisation de A » , noté ici par A » converge vers « p » quand
de la modélisation à l’analyse des systèmes
le nombre d’épreuves (indépendantes) augmente. On peut écrire :
p= A
3
1. Processus stochastique discret
Suite de variables aléatoires X t , t T
T est un ensemble d'entiers non-négatifs et
X t représente une mesure d'une caractéristique au temps t
Propriétés:
pij 0 i, j 0, , M
M
p
j 0
ij 1 i 0, , M
Exemple de la météo:
p00 P X t 1 0 | X t 0 0.8
0.8 0.2
p10 P X t 1 0 | X t 1 0.6 P
0.6 0.4
p00 p01 1 p01 1 p00 1 0.8 0.2
p10 p11 1 p11 1 p10 1 0.6 0.4
Exemple du jeu:
Tant qu'un joueur a de l'argent en main, il joue en misant $1.
Il gagne $1 avec une probabilité de p.
Il perd sa mise ($1) avec une probabilité de 1 p .
Matrice de transition
états 0 1 2 3
0 1 0 0 0
1
1 p 0 p 0
P
2 0 1 p 0 p
3 0 0 0 1
5. Équations de Chapman-Kolmogorov
Probabilités de transition entre les deux moments t et t n
(incluant n transitions)
pij P X t n j | X t i P X n j | X 0 i i, j 0, , M
n
M
pij pik m pkj n m
n
i, j 0, , M
k 0
m 1, 2, , n 1
n m 1, m 2,
Les équations de Chapman-Kolmogorov permettent de determiner les probabilités
de transition pij( n ) à partir des probabilités de transition entre deux moments
consécutifs pij :
M
pij pik m pkj n m
n
i, j 0, , M
k 0
m 1, 2, , n 1
n m 1, m 2,
n étapes
i n j
pij
m
pkj
nm
p
m étapes ik n m étapes
k
On doit considérer tous les états k comme intermédiaires.
Probabilités de transition entre les deux moments t et t n
(incluant n transitions)
pij P X t n j | X t i P X n j | X 0 i i, j 0, , M
n
M
pij pik pkj
2
i, j 0, , M P PP
2
k 0
P PP
n 1
M
pij pik pkj
n
i, j 0, , M PP n 1
n 1 n
k 0
M
P P
n 1
pij pik
n
i, j 0, , M
n 1
P P n 1 P
n
pkj
k 0
Probabilités de transition entre les deux moments t et t n
(incluant n transitions)
pij n P X t n j | X t i P X n j | X 0 i i, j 0, , M
Exemple de la météo:
0.8 0.2 2 0.8 0.2 0.8 0.2 0.76 0.24
P P PP P
2
0.6 0.4 0.72 0.28
0.6 0.4 0.6 0.4
3 0.8 0.2 0.76 0.24 0.752 0.248
P PP P
2 3
0.72 0.28 0.744 0.256
0.6 0.4
Exemple de la météo:
Supposons que P X 0 0 0.3 et P X 0 1 0.7
Quelle est la probabilité qu'il pleuve le jour 3, P X 3 1 ? 3 0.752 0.248
P
0. 7 44 0. 25 6
P X 3 1 p01
3
P X 0 0 p113 P X 0 1
0.248 0.3 0.256 0.7
0.0744 0.1792 0.2536
7. Classification des états d'une chaîne de Markov
Un état j est accessible à partir de l'état i si
pij 0 pour un certain n 0
n
Exemple de la météo:
Les états 0 et 1 sont accessibles à partir des états 0 et 1 puisque
0.8 0.2
P pij 0 i, j 0,1 .
0.6 0.4
Un état j est accessible à partir de l'état i si
pij 0 pour un certain n 0
n
p23 p 0
1 0 0 0
1 p 0 p 0
P
Les états 0, 1, 2 ne sont pas 0 1 p 0 p
accessibles à partir de l'état 3 0 0 0 1
n1 >0 tel que pik n1 0 et n2 >0 tel que pkj n2 0
M
Donc n1 n2
pij pil n1 plj n2 pik n1 pkj n2 >0
l 0
Exemple de la météo:
Les états 0 et 1 communiquent
0.8 0.2
P pij 0 i, j 0,1 .
0.6 0. 4
Les états i et j communiquent si
l'état i est accessible à partir de l'état j et l'état j est accessible à partir de l'état i
Exemple du jeux:
Les états 1 et 2 communiquent
états 0 1 2 3
0 1 0 0 0
1
1 p 0 p 0
P
2 0 1 p 0 p
3 0 0 0 1
Une classe est un sous-ensemble de tous les états communiquant entre eux.
... the states may be partitioned into one or more separate classes
such that those states that communicate with each other are in the
same class. H.L.
Une classe est un sous-ensemble de tous les états communiquant entre eux.
Une chaîne de Markov est irréductible si elle ne comporte qu'une seule classe.
Exemple de la météo:
Les états 0 et 1 communiquent
0.8 0.2 chaîne de Markov irréductible
P pij 0 i, j 0,1 .
0.6 0.4
Exemple du jeux:
Les états 1 et 2 communiquent
états 0 1 2 3
0 1 0 0 0
1
1 p 0 p 0 3 classes: 0 , 1, 2 , 3
P
2 0 1 p 0 p
3 0 0 0 1
Etat transient:
i est un état transient si après y avoir accédé (upon entering this state),
le processus peut ne plus y revenir:
i est transient j i accessible de i, mais i n'est pas accessible de j
Exemple du jeux:
les états de la classe 1,2 sont transients:
états 0 1 2 3
0 1 0 0 0 0 accessible de 1, mais
1
1 p 0 p 0 1 n'est pas acessible de 0;
P
2 0 1 p 0 p
3 0 0 0 1 3 accessible de 2, mais
2 n'est pas acessible de 3.
Etat récurrent:
i est un état récurrent si après y avoir accédé, le processus y reviendra:
i est récurrent i n'est pas transient
A state is said to be récurrent if, upon entering this state, the process
definitely will return to this state again. H.L.
Exemple du jeux:
états 0 1 2 3
les états 0 et 3 sont récurrents:
0 1 0 0 0
1
1 p 0 p 0
P après avoir atteint 0 ou 3
2 0 1 p 0 p
on y reste, donc on y revient.
3 0 0 0 1
Une chaîne de Markov est irréductible si elle ne comporte qu'une seul classe.
Etat récurrent:
i est un état récurrent si après y avoir accédé, le processus y reviendra:
i est récurrent i n'est pas transient
Exemple de la météo:
Les états 0 et 1 communiquent chaîne de Markov irréductible
0.8 0.2
P pij 0 i, j 0,1 . 0 et 1 sont récurrents
0.6 0.4
Etat absorbant:
i est un état absorbant si après y avoir accédé, le processus ne peut en repartir:
i est absorbant pii =1
Exemple du jeux:
états 0 1 2 3
0 1 0 0 0
1 les états 0 et 3 sont absorbants
1 p 0 p 0
P puisque p00 p33 =1
2 0 1 p 0 p
3 0 0 0 1
Période d'un état (Hillier & Lieberman).
i is of périod d if pii 0 for all values of n other than
n
d , 2d , 3d ,... H.L.
et d est la plus grande valeur entière ayant cette propriété.
états 0 1 2 3
Exemple du jeux: 1 0 0
0 0
1
Considérons l'état 1 (joueur possède $1 au départ) 1 p 0 p 0
P
2 0 1 p 0 p
1 0
3
0 0
0 1
états 0 1 2 3
Exemple du jeux: 1 0 0
0 0
1
Considérons l'état 1 (joueur possède $1 au départ) 1 p 0 p 0
P
2 0 1 p 0 p
1 0
3
0 0
0 1
On peut démontrer que la période est la même pour tous les états d'une classe.
i est apériodic si sa période d 1
i.e. deux moments consécutifs s et s 1 où pii 0 et pii
s 1
0
s
i est apériodic si sa période d (i ) 1 i est un état récurrent si après y avoir accédé, le processus y reviendra:
i est récurrent i n'est pas transient
i.e. si p 0 pour tout n 1
n
ii
5 0.75 0.25
P
0.75 0.25
6 0.8 0.2 0.75 0.25 0.75 0.25
P
0.6 0.4 0.75 0.25 0.75 0.25
5 0.75 0.25
P
0.75 0.25
6 0.8 0.2 0.75 0.25 0.75 0.25
P
0.6 0.4 0.75 0.25 0.75 0.25
Probabilité qu'il fasse beau i 1 = 0.75
ne dépend plus de l'état initial du système
Probabilité de pluie i 1 0.25
Donc en général quand il existe une valeur de n assez grande pour que les lignes de
la matrice de transition P n soient identiques, alors la probabilité que le système se
trouve dans l'état j ne dépend plus de l'état initial du système (à t 0)
Les probabilités à l'équilibre sont des propriétés à long terme des chaînes de Markov
On peut démontrer que pour toute chaîne de Markov irréductible (ne comportant
qu'une seule classe) qui est ergotic
lim pijn existe et ne dépend pas de l'état i
n
0.75 0.25
P 5 P 6
0.75 0.25
De plus
lim p01 (n)
lim p11( n ) 0.25
lim pijn j 0
n n
n
où les probabilités j
M
j i pij
i 0
M
j 0
j 1
De plus
lim pijn j 0
n
où les probabilités j
M
j i pij
i 0
M
j 0
j 1
M
Nous devons conserver cette dernière contrainte j 1 pour sauvegarder
j 0
où les probabilités j
M
j i pij
i 0
M
j 0
j 1
où les probabilités j
M
j i pij
i 0
M
j 0
j 1
0.8 0.2
Exemple de la météo: P
0.6 0.4
0 0 0.8 1 0.6 0 0.2 1 0.6
0 3 1
1 0 0.2 1 0.4 1 0.6 0 0.2
0 1 1
4 1 1 1 0.25
0 3 1
Exemple de la météo:
Supposons que P X 0 0 0 0.75 et P X 0 1 1 0.25
Quelle est la probabilité qu'il pleuve le jour 3, P X 3 1 ?
P X 3 1 p01
3
P X 0 0 p113 P X 0 1
0.248 0 0.256 1 3 0.752 0.248
P
0.248 0.75 0.256 0.25 0. 7 44 0. 25 6
0.186 0.064 0.25
Propriétés additionnelles