Académique Documents
Professionnel Documents
Culture Documents
Chapitre 1
Chapitre 1
1.1. Généralités
1.1.1. Définitions
Soit N un entier strictement positif. Une matrice P de taille N × N est une matrice
stochastique si ses éléments de matrice pij = (P)ij satisfont
∑𝑁
𝑗=1 𝑝𝑖𝑗 = 1 ∀i. (1.1.2)
chaîne de Markov sur X de matrice de transition P est une suite (X0, X1, X2, …) de
= 𝑝𝑖𝑛−1 𝑗 (1.1.3)
pour tout temps n ≥ 1 et tout choix (i0, i1, in−1, j) d’éléments de X. La loi de X0, que nous
noterons , est appelée la distribution initiale de la chaîne.
1.1.2. Notation
Si la loi initiale est fixée, nous noterons souvent Prob la loi de la chaîne de Markov
associée. Si est concentrée en un seul site i ( = δi), on notera la loi de la chaîne
Probi au lieu de Probδi. Enfin nous écrirons parfois X[n,m] au lieu de (Xn, Xn+1, . . . , Xm),
et Prob{X[n,m] = i[n,m] } au lieu de Prob{Xn = in, Xn+1 = in+1, . . . , Xm = im}. X[n,m] est appelé la
trajectoire de la chaîne entre les temps n et m.
Une souris se promène dans le labyrinthe de la figure 1.1. Initialement, elle se trouve
dans la case 1. A chaque minute, elle change de case en choisissant, de manière
PROCESSUS ALEATOIRES 1
équiprobable, l’une des cases adjacentes. La promenade est dite aléatoire. On
suppose cependant qu'elle s'arrête lorsque la case 4 (nourriture) ou la case 5
(tanière) est atteinte.
2 Fromage 4
Probabilité
(1/3)
Tanière 5 1 3
souris Probabilité
Probabilité (1/3)
(1/3)
Figure 1-Labyrinthe de la souris.
(1.1.4)
1.1.5. Proposition
Si {Xn}n∈ est une chaîne de Markov sur X, alors pour tous temps n < m ∈ , tous in ∈ X,
on a :
Prob{X[n+1,m] ∈ B / Xn = in, X[0,n−1] ∈ A} = Prob{X[n+1,m] ∈ B / Xn = in} (1.1.5)
PROCESSUS ALEATOIRES 2
Ce résultat montre que la propriété de Markov reste vraie pour des trajectoires :
l’évolution sur un intervalle de temps [n + 1, m] ne dépend que de l’état au temps
n, et pas de la trajectoire passée de la chaîne.
Dans ce cas on a :
Prob{X[n+1,m] ∈ B / Xn = in} = Prob{X[n+1,m] ∈ B / Xn = in}
= ∑𝑖[𝑛+1,𝑚]∈𝐵 𝑝𝑖𝑛 𝑖𝑛+1 … 𝑝𝑖𝑚−1 𝑖𝑚 . (1.1.6)
Qui n’est autre que l’élément (i,j) de la matrice 𝑃(𝑚−𝑛) . Il ne dépend que de la
différence m-n.
Ainsi on a la propriété dite des incréments stationnaires :
Prob{Xm = j / Xn = i} = Prob{Xm-n= j / X0 = i}
Enfin, pour tout n > 0,
(𝑚)
Prob {Xm = j} = ∑𝑖∈𝑋 Prob𝜈 {𝑋𝑚 = 𝑗 / 𝑋0 = 𝑖} =∑𝑖∈𝑋 𝜈𝑖 𝑝𝑖𝑗 (1.1.8)
PROCESSUS ALEATOIRES 3
1.2. Chaînes de Markov absorbantes
1.2.1. Définitions :
1.2.1.1. Etat atteignable :
On dit qu’un état j ∈ X est atteignable depuis un autre état i ∈ X, et on note i ↝ j,
(𝑛)
s’il existe un temps n ∈ ℕ tel que 𝑝𝑖𝑗 > 0, c’est-`a-dire que partant de i, on atteint
Une chaîne de Markov est dite absorbante s’il existe, pour tout état de X, un état
(1.2.2)
1.2.4. Proposition :
Soit P la matrice de transition d’une chaîne de Markov absorbante, écrite sous forme
canonique.
PROCESSUS ALEATOIRES 4
Alors
i. On a
lim 𝑄 𝑛 = 𝑂
𝑛→∞
(1.2.3)
ii. La matrice I-Q est inversible et son inverse est donné par
∞
−1
(𝐼 − 𝑄) = ∑ 𝑄𝑘
𝑘=0
(1.2.4)
chaîne de Markov.
1.2.5. Théorème :
Soit F la matrice fondamentale d’une chaîne de Markov absorbante.
(1.2.5)
fij Ei 1 X n j
n0
i f ij (1.2.6)
j 1
1 1
2 0 0 0 0
2
0 0 0
1
0
1 1 1
2 2 2 0 0
0 0
2
1 1
P 0 0 0 0 0 0 0
1 0 1
2 2 2 2
Q R
0
1 1
0 1 1 0 0
0 0 0 0
2 2 2 2 1
0 0 0 0 1 0 0
0 0
1
0 2
0 0 0 0 0 1 2
On calcule alors la matrice fondamentale F et la matrice donnant les probabilités
d’absorption B :
7 4 1 2 1 2
3 3 3 3 3 3
1 4 1 2 1 2
3 3 3 3
F I Q
1 3 3
, B F .R
4 4 4 2 1 2
3 3 3 3 3 3
2 2 2 4 2 1
3 3 3 3 3 3
Ainsi, partant de l’un des états PP, PF ou FP, A gagne avec probabilité 1/3, et B gagne
avec probabilité 2/3. Partant de l’état FF, c’est B qui gagne avec probabilité 1/3, et
A qui gagne avec probabilité 2/3. Comme personne ne gagne lors des deux
premiers jets, et que les quatre états PP, PF, FP et FF sont atteints avec la même
probabilité, il faut choisir la distribution initiale
= (1/4, 1/4, 1/4, 1/4, 0, 0).
Par conséquent, A gagne le jeu avec probabilité
4
5
Pr ob X " A gagne " i bi1
i 1 12
PROCESSUS ALEATOIRES 6
Pour avoir la durée moyenne du jeu, le théorème précédent montre que la somme
des éléments de la ligne i de F donne l’espérance du temps d’absorption partant de
14
i, donc par exemple 1 .
3
23
En moyennant sur la distribution initiale, on trouve . La durée moyenne du
6
jeu est donc de 2 + 23/6 = 35/6, soit un peu moins de 6 jets de pièce.
1.3. Chaînes de Markov irréductibles
1.3.1. Définition :
Une chaîne de Markov est dite irréductible ou ergodique si i ∼ j ∀i, j ∈ X.
La chaîne est dite régulière s’il existe une puissance Pn de P dont tous les
éléments sont strictement positifs.
1.3.2. Propriété :
Une chaîne régulière est irréductible mais la réciproque est fausse.
1.3.3. Exemple (Modèle d’Ehrenfest).
C’est un système motivé par la physique, qui a été introduit pour modéliser de
manière simple la répartition d’un gaz entre deux récipients.
N boules, numérotées de 1 à N, sont reparties sur deux urnes. De manière
répétée, on tire au hasard, de façon équiprobable, un numéro entre 1 et N, et
on change d’urne la boule correspondante.
On voudrait savoir comment ce système se comporte asymptotiquement en
temps :
i. Est-ce que la loi du nombre de boules dans chaque urne approche une
loi limite ?
ii. Quelle est cette loi ?
iii. Avec quelle fréquence toutes les boules se trouvent-elles toutes dans la
même urne ?
PROCESSUS ALEATOIRES 7
On peut à nouveau décrire le système par une chaîne de Markov, cette fois sur
l’espace des états X = {0, 1, . . . , N}, où le numéro de l’état correspond au
Cette chaîne décrivant le modèle d’Ehrenfest est irréductible. En effet, quel que
soit le nombre de boules dans l’urne de gauche, on peut atteindre tout autre
état en déplaçant au plus N boules d’une urne à l’autre. Cependant, la chaîné
n’est pas régulière.
En effet, comme à chaque pas de temps on déplace exactement une boule,
le nombre de boules dans l’urne de gauche sera alternativement pair et impair.
Par conséquent, chaque élément de matrice des puissance Pn sera nul pour un
n sur deux.
1.3.4. Définition :
Pour un sous-ensemble A ⊂ X, on appelle temps de premier passage de la
A inf n 0 : X n A
Dans le cas où A = {i} consiste en un seul point, nous écrirons aussi i au lieu de
i
.
1.3.5. Proposition :
Pour une chaîne de Markov irréductible sur un ensemble fini X, le temps de
Pr ob A : lim Pr ob A n 1 (1.3.1)
n
1.3.6. Théorème :
Soit P la matrice de transition d’une chaîne de Markov régulière. Alors il existe
des nombres π1, . . ., πN > 0, dont la somme vaut 1, tels que
1 2 .. .. N
1 2 .. .. N
lim P n : .. .. .. .. .. (1.3.2)
n
.. .. .. .. ..
.. N
1 2 ..
PROCESSUS ALEATOIRES 8
1.3.7. Propriétés :
i. P1 :
ii. P2 :
π décrit donc la distribution de probabilité asymptotique de la chaîne,
iii. P3 :
Pour tout temps n, on a
P
Pr ob X n j i P n n
j
j (1.3.5)
i X ij
1.3.8. Définition :
La distribution de probabilité 1 , 2 , .. .., N satisfaisant la
lim Pr ob X n j j j X (1.3.6)
n
1.3.10. Proposition :
Soit P la matrice de transition d’une chaîne de Markov irréductible.
Alors P admet 1 comme valeur propre simple. L’unique vecteur propre à
gauche π de P pour la valeur propre 1 tel que
i
i 1 sera à nouveau appelé
1.3.11. Exemple :
On vérifie facilement par calcul direct que la distribution stationnaire du modèle
d’Ehrenfest est binomiale de paramètre 1/2 :
i 2 N
N
i
PROCESSUS ALEATOIRES 9
1.3.12. Théorème :
Pour une chaîne de Markov irréductible, et pour toute distribution initiale , la
fréquence moyenne de passage en tout état j converge vers j:
1 n1
lim 1 X m j j j X (1.3.7)
m 0
n n
1.3.13. Théorème :
Pour une chaîne de Markov irréductible de distribution stationnaire , les temps
de récurrence moyens sont donnés par
1
i (1.3.8)
i
i
1.3.14. Exemple :
Dans le cas du modèle d’Ehrenfest avec N boules, le temps de récurrence
moyen vers l’´état à i boules est donné par
1 i ! N i !
i 2N
i
i N!
En particulier, le temps moyen entre configurations où toutes les boules sont
dans l’urne de gauche est de 2N.
PROCESSUS ALEATOIRES 10
i
i est une distribution stationnaire.
j
j X
Figure 3- Mouvements permis du cavalier sur l’échiquier Figure 4-Nombre de mouvements possibles à partir de chaque
case.
1
si le mouvement i j est permis ,
pij ni
0, sin on
ni n
Par conséquent, i i est la distribution stationnaire de la chaîne. Il suit
n j 336
jX
PROCESSUS ALEATOIRES 11
alors du Théorème 2.4.3 que le temps de récurrence moyen vers le coin inferieur
1 336
gauche est donné par 168 .
1,1 2
Bibliographie
[1] Nils Berglund, Processus aléatoires et applications. DEA. Université d’Orléans, 2010,
pp.99. ffel-00439562v2f
[2] Carl Graham, Chaînes de Markov : Cours, exercices et corrigés détaillés, Dunod,
Paris, 2008
[4] Sabin Lessard, Processus stochastiques : Cours et exercices corrigés, Editions Ellipses,
2014
[5] Nicolas Privault, Understanding Markov Chains : Examples and Applications, 2nd
edition, Springer Nature Singapore Pte Ltd. 2018
PROCESSUS ALEATOIRES 12