Académique Documents
Professionnel Documents
Culture Documents
François Perron
1
0.1 Chaı̂nes de Markov
0.2 Introduction
Les chaı̂nes de Markov donnent une façon de construire une suite de variables aléatoires sans être
forcé de recourir à l’indépendance. La théorie des chaı̂nes de Markov utilise à fond les propriétés des
probabilités conditionnelles et, en particulier, l’espérance conditionnelle. Voici quelques rappels.
La probabilité conditionnelle Soient E et F deux événements avec P (F ) > 0. La probabilité
conditionnelle de E sachant ( ou étant donné ) F est donnée par
P(E ∩ F )
P(E | F ) = .
P(F )
L’espérance pour une variable aléatoire à valeurs dans N Soient X et Y deux variables
aléatoires à valeurs dans N. Soient g, h des fonctions sur N à valeurs dans R. On pose
Dans l’étude des chaı̂nes de Markov on est appelé à considérer une variable aléatoire T qui
est associée au temps ( ou le nombre de pas ). Par exemple, on considère X0 , X1 , . . . une suite
de variables aléatoires et E un événement fixé. On pose T la plus petite valeur de n telle que
Xn ∈ E. En particulier, si T = 6 alors Xk ∈ / E pour k = 0, 1, . . . , 5 et X6 ∈ E. Dans le cas où
Xk ∈ / E pour tout k ∈ N on pose T = ∞. On va vouloir définir E[T ], pour une variable aléatoire
à valeurs dans N ∪ {∞}. Soit
On obtient ( P
∞
k=0 kpk si p∞ = 0
E[T ] =
∞ si p∞ > 0
2
Proof. Lorsque p∞ = 0 on a
∞
X
E[T ] = kpk
k=0
X∞
= kpk , ( on part la somme à k = 1 car lorsque k = 0 on a kpk = 0 )
k=1
∞ X
X k
= pk
k=1 `=1
X
= pk , ( somme double )
{k,`∈N : 1≤`≤k}
∞ X
X ∞
= pk
`=1 k=`
∞
X
= P(T ≥ `)
`=1
∞
X
= P(T > `)
`=0
Lorsque p∞ > 0 on a
P (T ≥ k) ≥ p∞ , k ≥ 1
∞
X X∞
P(T ≥ k) ≥ p∞
k=1 k=1
= ∞
La variable T est à valeurs dans N ∪ {∞}. Cette variable compte le nombre d’épreuves
pour un premier succès. Par convention on pose T = ∞ lorsque toutes les épruves sont
des échecs. On obtient,
3
Utilisons le lemme 0.2.1. On a
Une autre façon de trouver E[T ] consiste à passer par l’espérance conditionnelle.
Comme p∞ = 0 on peut supposer que T est à valeurs dans N pour le calcul de
l’espérance. On a
P(X1 = 0) = q>0
{T = 1, X1 = 0} = ∅
P(T = 1 | X1 = 0) = 0
De plus, pour j ≥ 2, on a
Maintenant,
P(T = 1 | X1 = 1) = 1
∞
X
E[T | X1 = 0] = P(T = 1 | X1 = 0) + jP(T = j | X1 = 0)
j=2
∞
X
= 0+ jP(T = j − 1)
j=2
∞
X
= (k + 1)P(T = k), (j = k + 1)
k=1
= E[T + 1]
E[T | X1 = 1] = 1,
E[T ] = E[T | X1 = 0]P (X1 = 0) + E[T | X1 = 1]P (X = 1)
= qE[T + 1] + p
= qE[T ] + 1
pE[T ] = 1
Définition 0.2.2. ( chaı̂ne de Markov ) Une chaı̂ne de Markov homogène discrète est une suite
de variables aléatoires {Xn }n≥0 dont la loi est déterminée à partir
4
1. d’un espace des états S de cardinalité finie ou dénombrable, ( les valeurs possibles pour la
chaı̂ne )
2. d’une loi de probabilité initiale {νi }i∈S , ( une fonction de masse sur S qui donne la loi de
X0 )
On dit que la matrice P = (pij )i,j∈S des probabilités de transition est une matrice stochastique.
Propriété de Markov Soit {Xn }n≥0 une chaı̂ne de Markov homogène discrète. On obtient,
pour tout i0 , . . . , in−1 ∈ S satisfaisant P(X0 = i0 , . . . , Xn−1 = in−1 ) > 0, n > 1. En fait,
P(X0 = i0 , X1 = i1 , . . . , Xn = in )
P(Xn = in | Xn−1 = in−1 , . . . , X0 = i0 ) =
P(X0 = i0 , X1 = i1 , . . . , Xn−1 = in−1 )
νi0 · pi0 ,i1 · · · pin−1 ,in
=
νi0 · pi0 ,i1 · · · pin−2 ,in−1
= pin−1 ,in
P(Xn = in , Xn−1 = in−1 )
P(Xn = in | Xn−1 = in−1 ) =
P(Xn−1 = in−1 )
P
i0 ,...,in−2 ∈S νi0 · · · pin−2,n−1 · pin−1 ,in
= P
i0 ,...,in−2 ∈S νi0 · · · pin−2,in−1
= pin−1 ,in
Réciproquement, une suite de variables aléatoires {Xn }n≥0 sur S est une chaı̂ne de Markov ho-
mogène discrète si l’équation (0.2.1) est satisfaite.
5
On obtient directement les résultats suivants ( Équations de Chapman-Kolmogorov )
(n)
X
pij = pi0 k1 · · · pkn−1 j ,
k1 ,...,kn−1 ∈S
(n)
P = P n, l’interprétation de la ligne précédente
(n +n ) (n ) (n )
X
pij 1 2 = pik 1 pkj 2
k∈S
(n)
ν = (νP n )
On obtient,
1 1 1 2 3
1
u= 1 P = 1 (1/6, 1/3, 1/2) = 1 2 3
6
1 1 1 2 3
Quand on travaille sur des chaı̂nes de Markov il est souvent utile de représenter la
matrice P sous la forme d’un graphe orienté. Les noeuds sont les états et les arêtes
donnent les probabilités de transition. Prenons des cas particuliers. Commençons par
les cas extrêmes. Si a = b = 0 alors on obtient le graphe suivant
1 0 1 1
6
Avec cette chaı̂ne on reste prisonnier de l’état initial duquel on est parti. Ainsi
P (Xn = 0) = ν0 , n ≥ 0,
P (Xn = 1) = ν1 , n ≥ 0,
1
0 1
1
Avec cette chaı̂ne on fait des cycles, on quitte à la première transition et on revient
sur place avec la deuxième transition. On dit que la chaı̂ne est périodique de période
2. On obtient
( (
ν0 si n est pair ν1 si n est pair
P (Xn = 0) = et P (Xn = 1) =
ν1 si n est impair ν0 si n est impair
1 1-b
0 1
b
Lorsqu’on visite l’état 0 on y reste prisonnier. Avec cette chaı̂ne la probabilité de visiter
l’état 1 un nombre fini de fois devient 1 car dès qu’on quitte l’état 1 on n’y revient
(n)
jamais et la probabilité de quitter l’état 1 dans le temps est de 1. Aussi, p11 = (1 − b)n
P∞ (n)
et n=1 p11 = (1 − b)/b < ∞. Plus loin dans le cours on dira que l’état 0 est un état
absorbant et l’état 1 est un état transitoire.
Le cas a < 0 et b = 0 se traite de la même façon. Considérons tous les autres cas,
c’est-à-dire, a, b > 0, a + b < 2. Posons π = (b/(a + b), a/(a + b)). On a le graphe
suivant
7
a
1-a 0 1 1-b
b
Pour connaı̂tre où on sera au temps n nous allons calculer P n . Pour ce faire on passe
par la diagonalisation. Notons tout de suite que le vecteur u avec u> = (1, 1) est un
vecteur propre de P correspondant à la valeur propre 1. Maintenant
!
1−λ−a a
det(P −λI) = det = (1−λ)2 −(1−λ)(a+b) = (1−λ)(1−(a+b)−λ)
b 1−λ−b
ce qui indique que les valeurs propres sont (1, 1 − (a + b)). On sait déjà que u est le
vecteur propre associé à la valeur propre 1. Cherchons le vecteur propre associé à la
valeur propre 1 − (a + b). On cherche v non nul tel que (P − (1 − (a + b))I)v = 0. Ceci
donne ! !
b a −a
v = 0 et on choisit v =
b a b
On pose
! ! !
1 −a 1 b a 1 0
V = (u, v) = d’où V −1 = et P = V V −1
1 b a+b −1 1 0 1 − (a + b)
De plus,
!
1 0
P n
= V V −1
0 (1 − (a + b))n
1 (1 − (a + b))n
= u(b, a) + v(−1, 1)
a+b a+b
!
(1 − (a + b))n a −a
= uπ +
a+b −b b
−−−−→ uπ car a + b < 2
n→∞
n
νP −−−−→ π
n→∞
Ainsi, peu importe le choix de ν, (P (Xn = 0), P (Xn = 1)) −−−−→ π. Si a + b = 1 alors
n→∞
la convergence est immédiate mais cela n’est pas surprenant car pour a + b = 1 on
obtient P = uπ, une matrice de transition pour des variables aléatoires indépendantes.
Lorsque a + b s’éloigne de 1 la convergence devient plus lente.
8
FP
3
p p
FF PP
q p q p
4 1
q q
PF
2
(2)
donc p42 = pq. En utilisant le graphe on voit seuleument deux chemins pour se rendre
de (F F ) à (P F ) en trois pas, soit
q p q
FF FF FP PF
p p q
FF FP PP PF
(3)
et p42 = pq 2 + p2 q = pq(q + p) = pq. Posons
1
1
u= et π = (p2 , pq, pq, q 2 ).
1
1
Un calcul simple montre que P 2 = uπ. Comme P est une matrice de transition
P u = u et P n = uπ pour tout n ≥ 2. Ce n’est pas comme l’exemple précédent. On a
la convergence dès le deuxième pas. Comment expliquer cela? En fait,
9
écrire P = V ΛV −1 avec,
p q 0 0
0 0 p q
P =
p q 0 0
0 0 p q
1 q q 0 1 0 0 0 p2 pq pq q2
1 −p −p 1 0 0 0 0 1 −1 −1 1
V ΛV −1 =
−1 −(1 + q)
1 0 q 0 0 0 1 p q q
1 0 −p 0 0 0 0 0 p q −p −q
Notez que
1 0 0 0
0 0 0 0
Λn = pour tout n ≥ 2.
0 0 0 0
0 0 0 0
10
Le passage de E[Tj | X1 = k, X0 = i] = E[Tj + 1 | X0 = k] vient du fait que le
comportement aléatoire de Tj sachant que X0 = i, X1 = k pour i 6= j va dépendre de
l’état qu’on visite au temps 1 peu importe de là où on était au temps 0 en autant de
ne pas avoir été sur l’état j au temps 0. Le comportement aléatoire de Tj − 1 sachant
qu’on est sur l’état k au temps 1 sans avoir été sur l’état j au temps 0 est le même que
le comportement aléatoire de Tj sachant qu’on part de l’état k au temps 0.
Pour chacune des valeurs possibles de j on vient de créer un système d’équations
linéaires en τij , i = 1, 2, 3, 4. On résoud le système pour trouver la valeur de τij ,
i = 1, 2, 3, 4.
Prenons j = 1. On sait déjà que τ11 = 0. Ceci nous laisse avec
Ainsi,
11
2. {P P, F P } est associé à l’état 1 car on doit faire au moins une transition pour se
rendre à PF,
3. {F F } est associé à l’état 2 car on doit faire au moins deux transitions pour se
rendre à PF.
PF q FF
q
0 2
p
q p
P P, F P
p
1
12
On sait déjà que τ00 = 0. Ceci nous laisse avec
d’où ! !
τ10 1/q
=
τ20 1/pq
et
τ0 = pq × 0 + p × 1/q + q 2 × 1/pq
p q
= +
q p
p q
µ0 = 2+ +
q p
1 1
= +
q p
1. N (i) =| {n > 0 : Xn = i} |, N (i) est la variable aléatoire qui compte le nombre de visites
de l’état i sur toute la trajectoire de la chaı̂ne à compter de la première transition. Cette
variable pourrait prendre la valeur infini avec probabilité non nulle.
2. fij = P(N (j) > 0 | X0 = i) la probabilité que, partant de l’état i au temps 0, la chaı̂ne passe
par l’état j quelque part dans le futur.
13
première visite en j après le temps 0. Cette visite se fait dans un temps n, n > 0. On obtient,
∞
X
P(N (j) ≥ 2 | X0 = i) = fij (n)P(N (j) ≥ 2 | X0 = i, X1 , . . . , Xn−1 6= j, Xn = j)
n=1
X∞
= fij (n)P(N (j) ≥ 1 | X0 = j)
n=1
X∞
= fij (n)fjj
n=1
= fij fjj
Proof. On a
On vient d’établir qu’un état i est soit récurrent, soit transitoire. Pour le reste on va utiliser la
fonction indicatrice. Pour un ensemble E on pose
(
1 si x ∈ E
1E (x) =
0 si x ∈ /E
14
On obtient,
∞ ∞
(n)
X X
pii = P (Xn = i | X0 = i)
n=1 n=1
X∞
= E[1{i} (Xn ) | X0 = i]
n=1
∞
X
= E[ 1{i} (Xn ) | X0 = i]
n=1
= E[N (i) | X0 = i]
∞
X
= P (N (i) ≥ k | X0 = i), par le lemme 0.2.1
k=1
X∞
= fiik
k=1
(
∞ si fii = 1
=
fii /(1 − fii ) < ∞ si fii < 1
Lemme 0.3.3. On a X
fij = pij + pik fkj , i, j ∈ S.
k∈S\{j}
Proof. Ici,
15
On obtient le graphe suivant,
1/4 2
1/2
1/4
3/5
1 1 2/5 3 4 2/3
1/3
ce qui donne
1 0 0 0
1/3 1/4 2/3 2/3
f =
0 0 1 1
0 0 1 1
Ici, si on essaie de trouver f13 , f23 , f33 , f43 en solutionnant le système d’équations
linéaires construit dans la remarque 0.3.4 alors on trouve plusieurs solutions. Les
solutions prennent la forme,
1. f11 = 1,
2. fij = 1 pour (i, j) ∈ {3, 4} × {3, 4} car on ne va pas toujours rester en 3 et quand
on va quitter 3 on ira en 4. De même on ne va pas toujours rester en 4 et quand
on va quitter 4 on ira en 3.
3. f1j = 0 pour j = 2, 3, 4.
4. fij = 0 pour (i, j) ∈ {1, 2} × {3, 4}
5. f22 = 1/4 car si on quitte 2 alors on y revient pas.
6. f23 = f24 car f34 = 1
16
Posons a = f21 et b = f23 . En utilisant le système des équations linéaires on trouve
Les états 1,3,4 sont récurrents. L’état 2 est transitoire. Si on visite la classe {3, 4}
alors on y sort plus. Une fois dans la classe {3, 4} la chaı̂ne se comporte comme si
elle se faisait dans l’espace {3, 4}, une chaı̂ne à deux états. Dans ce cas, à long terme,
la probabilité de se trouver en 3 ou en 4 sera donné par la loi stationnaire pour une
chaı̂ne à deux états avec matrice de transition
!
∗ 2/5 3/5
P =
1/3 2/3
Pour cette matrice π ∗ = (5/14, 9/14) est la loi stationnaire. Si on part de l’état 2 alors
éventuellement on va quitter pour l’état 1 ou l’état 3. Ainsi,
(n)
1. p11 = 1 pour tout n ≥ 1
(n)
2. pi3 −−−−→ 5/14 pour i = 3, 4.
n→∞
(n)
3. pi4 −−−−→ 9/14 pour i = 3, 4.
n→∞
(n)
4. p23 −−−−→ f23 × 5/14
n→∞
(n)
5. p24 −−−−→ f23 × 9/14
n→∞
(n)
6. p21 −−−−→ f21
n→∞
3. Une chaı̂ne de Markov est dite irréductible si tous les états communiquent entre eux.
4. La période d’un état i ( notée d(i) ) est donnée par le pgcd de M (i) avec M (i) = {n >
(n)
0 : pii > 0}. On dit que d(i) n’est pas défini lorsque M (i) = ∅. Lorsque d(i) = 1 on
dit que i est apériodique. Lorsque tous les états sont apériodiques on dit que la chaı̂ne est
apériodique.
Remarque 0.3.6. Les états qui communiquent entre eux forment une classe d’équivalence car
pour i, j, k ∈ S on a
(0)
1. i ↔ i, pii = 1
17
2. Si i ↔ j alors j ↔ i,
(r+s) (r) (s)
3. Si i ↔ j et j ↔ k alors i ↔ k, pik ≥ pij pjk .
1 3 5 6 1 1/2
1/2
1/3
1
1 1
4 8
1/3
9
Ici M (1) = {4, 8, 12, 16, 20, . . .} = {4k : k > 0}. Les communs diviseurs de M (1) sont
2 et 4, d(1) = 4. On a
1. d(i) = 4, i = 1, 2, 3, 4,
2. d(i) = 3, i = 5, 6, 9,
3. d(7) = d(8) = 1, les états apériodiques.
4. {1, 2, 3, 4} forme une classe d’états récurrents, cette classe est dite finale car
lorsqu’on y rentre on n’en sort pas,
5. {7, 8} forme une autre classe d’états récurrents, une classe finale
6. {5, 6, 9} forme une classe d’états transitoires, cette classe est dite transitoire car
la probabilité de visiter la classe infiniment souvent est nulle. Dès qu’on quitte
on ne peut plus revenir et on quitte avec probabilité 1.
18
Lemme 0.3.7. Soit i, j ∈ S avec i 6= j. On a les résultats suivants,
Ainsi, si d(j) divise n alors d(i) divise r + s + n mais d(i) divise déjà r + s donc d(i) divise n lorsque
d(j) divise n ce qui implique que d(i) ≤ d(j) car d(j) est le pgcd de M (j). De façon symétrique
d(j) ≤ d(i).
3. Si i est récurrent alors fii = 1. Si i → j alors on pose
(n)
r = min{n > 0 : pij > 0}.
Par ce choix de r il y a une probabilité nulle de partir sur l’état i et aboutir sur l’état j en r pas
tout en repassant par l’état i en chemin. Pour le voir supposons le contraire, il existe 1 ≤ k < r tel
qu’on peut réaliser les l’événement {Xk = i} ∩ {Xr = j} avec probabilité non nulle. On obtient,
(k) (r−k) (r−k)
pii pij = P(Xk = i, Xr = j | X0 = i) > 0 ⇒ pii >0
19
et
On obtient,
fki = fki fij ( probabilité de se rendre à j en passant par i sachant qu’on part de k )
≤ fkj ( probabilité de se rendre à j sachant qu’on part de k )
= fkj fji
≤ fki
p00 = 1
(pii−1 , pii+1 ) = (q, p) i = 1, . . . , N − 1
pN N = 1
20
p p p
1 2 3 4
q q q
q p
0 1 1 5
Les classes d’équivalences sont {0}, {1, . . . , N − 1}, {N }. Les classes {0}, {N } sont des
classes finales alors que la classe {1, . . . , N − 1} est une classe transitoire. Les états 0,N
sont dits des états absorbants car dès qu’on les visite on y reste pour le futur. Ils sont
aussi récurrents. Les autres états sont transitoires. En fait f11 ≤ p car, en partant de
l’état 1, on se rend du premier coup à l’état 0 avec probabilité q et on ne revient jamais
en 1 d’où (1 − f11 ) ≥ q. Ceci montre que l’état 1 est transitoire. Les états 2, . . . , N − 1
communiquent avec l’état 1, ils sont donc transitoires.
On s’intéresse maintenant à fi0 , la probabilité que le premier joueur finisse ruiné en
partant d’une fortune de i. On sait déjà que f00 = 1 et fN 0 = 0. Pour trouver les fi0
avec i 6∈ {0, N } on utilise la formule
X
fi0 = pi0 + pik fk0
k6=0
(
q + pfi+10 , i = 1,
=
qfi−10 + pfi+10 , i = 2, . . . , N − 1
= qfi−10 + pfi+10 , i = 1, . . . , N − 1, car f00 = 1
21
En posant ∆fi0 = fi+10 − fi0 , i = 0, . . . , N − 1 et r = q/p on obtient
q∆fi−10 = p∆fi0 , i = 1, . . . , N − 1,
∆fi0 = r∆fi−10
..
.
= ri ∆f00
i−1
X
fi0 = f00 + ∆fk0 , ( somme téléscopique )
k=0
i−1
X
= 1 + ∆f00 rk
k=0
i−1
X .
= 1 + (fN 0 − 1) × ∆f00 rk (fN 0 − 1)
k=0
i−1
X . N
X −1
= 1 + (−1) × ∆f00 rk ∆f00 rk
k=0 k=0
i−1
X −1
. NX
= 1− rk rk
k=0 k=0
(
1 − i/N si r=1 (p = 1/2)
= i = 1, . . . , N.
1 − (1 − ri )/(1 − rN ) si r 6= 1 (p 6= 1/2)
Comme les états 1,2,. . . sont tous transitoires, si le joueur ne se ruine pas alors sa
fortune n’aura pas de limite.
Ici tous les états communiquent entre eux et ils sont tous de période deux. On cherche
à savoir si les états sont récurrents ou transitoires. Pour les calculs on va utiliser
l’approximation de Stirling qui dit
.√
n! 2πn(n/e)n −−−−→ 1
n→∞
22
En partant de l’état i pour revenir à l’état i en n pas lorsque n est pair il faut faire
n/2 pas vers la droite et n/2 pas vers la gauche. Le calcul fait intervenir une variable
aléatoire Sn de loi binomiale(n, p). Ainsi, pour n > 0 on obtient
(n)
pii = P (Sn = n/2)
(
0 si n est impair
= n
n/2
n/2 (pq) si n est pair
∞ ∞
X (n)
X 2k
pii = (pq)k
n=1
k
k=1
∞
X 2k!
= (pq)k
(k!)2
k=1
Soit 0 < < 1, avec l’approximation de Sterling on peut trouver k0 tel que
2k! 1
1−< / √ 4k < 1 + pour tout k > k0 .
(k!)2 πk
Pour p = 1/2 on obtient
∞ k0 ∞
X 2k X 2k X 2k
(pq)k = (1/4)k + (1/4)k
k k k
k=1 k=1 k=k0 +1
k0 ∞
X 2k X 1
≥ (1/4)k + (1 − ) √
k πk
k=1 k=k0 +1
= ∞ ( série divergente, critère de l’intégrale )
et tous les états sont transitoires. Notez qu’on a exploité le fait que
Lois stationnaires
Définition 0.3.8. Soit P une matrice stochastique. On dit que π est une loi stationnaire pour P
si π est une loi de probabilité ( fonction de masse sur S ) et
X
πj = πi pij , pour tout j ∈ S.
i∈S
23
Remarque 0.3.9. La loi initiale est stationnaire si toutes les variables X0 , X1 , . . . sont de même
loi. Soit P la matrice stochastique, u le vecteur colonne avec tous des 1 et π le vecteur ligne. Pour
que π soit stationnaire il faut satisfaire les conditions suivantes,
1. πj ≥ 0 pour tout j ∈ S,
2. πu = 1,
Lorsque a + b = 0 il suffit de poser π = (α, 1 − α), α ∈ [0, 1], on a une infinié de lois
stationnaires. Lorsque a + b > 0 la loi stationnaire est unique et elle est donnée par
π = b/(a + b), a/(a + b) .
pii−1 = q, pii+1 = p, i ∈ Z.
On cherche à satisfaire,
∆πj = r∆πj−1
= rj ∆π0
On obtient,
P
1. ∆π0 = 0 ⇒ πj = π0 pour tout j ∈ Z et j∈Z πj 6= 1.
2. Si ∆π0 6= 0 et r ≥ 1 alors, pour j > 0 on a
j−1
X
πj = π0 + ∆πk , somme téléscopique
k=0
j−1
X
= π0 + ∆π0 rk , ∆πk = rk ∆π0
k=0
(
+∞ si ∆π0 > 0
lim πj =
j→+∞ −∞ si ∆π0 < 0
πj ∈
/ [0, 1] lorsque j devient trop grand
24
3. Si ∆π0 6= 0 et r < 1 alors, pour j < 0 on a
−1
X
πj = π0 − ∆πk , somme téléscopique
k=j
−1
X
= π0 − ∆π0 rk , ∆πk = rk ∆π0
k=j
(
−∞ si ∆π0 > 0
lim πj =
j→−∞ +∞ si ∆π0 < 0
πj ∈
/ [0, 1] lorsque j devient trop grand négativement
On arrive à la conclusion qu’il n’existe pas de loi stationnaire. Notez cependant que
le vecteur u avec tous des 1 est un vecteur propre à gauche correspondant à la valeur
propre 1 et toutes les composantes de u sont positives.
4/5
1 2
2/5 3/5
1
1/5 3/5
0 3
4/5
2/5
1
5 4
1/5
Soit u> = (1, . . . , 1), un vecteur de dimension N + 1. Pour trouver la loi sationnnaire
π il faut résoudre le système (P − I)> π > = 0u sous la contrainte πu = 1. On a
−1 1 0 ... 0 0 0
1
N −1 1 − N1 ... 0 0 0
2
−1
0 N ... 0 0 0
.. .. .. .. .. ..
(P − I) =
. . . ... . . .
2
0 0 0 ... −1 N 0
1 − N1 −1 1
0 0 0 ... N
0 0 0 ... 0 1 −1
25
et
1
−1 N 0 ... 0 0 0
2
1 −1 N ... 0 0 0
1 − N1
−1
0 ... 0 0 0
.. .. .. .. .. ..
> > >
(P − I) π = π = 0u
. . . ... . . .
0 0 0 ... −1 1 − N1 0
2
−1
0 0 0 ... N 1
1
0 0 0 ... 0 N −1
On fait les opérations Li → L1 + · · · + Li sur (P − I)> et on obtient
1
−1 N 0 ... 0 0 0
1 2
0 − 1− N ... 0 0 0
N
0 0 − 1 − N2 ... 0 0 0
>
. .. .. .. .. .. π = 0u
.. . . ... . . .
0 0 0 . . . − N2 1 − N1 0
− N1
0 0 0 ... 0 1
0 0 0 ... 0 0 0
qui donne
(N − i)πi = (i + 1)πi+1 , i = 0, . . . , N − 1
(N − i) N
πi+1 = πi = · · · = π0 , i = 0, . . . , N − 1
(i + 1) i+1
N
πi = π0 , i = 0, . . . , N
i
n
N 1 N X N
= , i = 0, . . . , N, car = 2N
i 2 i=0
i
Définition 0.3.10. ( matrice doublement stochastique ) Une matrice de transiton P est double-
ment stochastique si X
pij = 1 pour tout j ∈ S.
i∈S
pi (i−1) modN = q, i = 0, . . . , N − 1
pi (i+1) modN = p, i = 0, . . . , N − 1
26
p
1 2
q
p p
q q
0 3
q q
p p
q
5 4
p
Définition 0.3.12. ( chaı̂ne réversible ) Soit P une matrice de transition et π une loi de proba-
bilité. On dit que la chaı̂ne est réversible par rapport à π si
Remarque 0.3.13. Si une chaı̂ne est réversible par rapport à π alors π est une loi stationnaire
pour la chaı̂ne. En fait,
X X
πj = πj pji = πi pij , pour tout j ∈ S.
i∈S i∈S
27
De la même façon, si i ∈ {1, . . . , N } alors
i N 1 N
πi pi i−1 =
N i 2
N
i 1
= × (N − 1)!
i!(N − i)! 2
N
(N − {i − 1}) 1
= × (N − 1)!
(i − 1)!(N − {i − 1})! 2
N
(N − {(i − 1}) N 1
=
N i−1 2
= πi−1 pi−1 i
Lemme 0.3.14. ( convergence dominée ) soit {ank }n,k>0 des nombres réels. Si
alors
∞
X ∞
X
lim ank = lim ank .
n→∞ n→∞
k=1 k=1
Remarque 0.3.15. En pratique on vérifie la deuxième condition en trouvant une suite {bk }k>0
telle que
Les bk dominent les | ank | pour tout n d’où le nom de convergence dominée.
Lemme 0.3.16. Si une chaı̂ne est irréductible et elle possède une loi stationnaire alors tous les
états sont récurrents.
Proof. On suppose le contraire. La chaı̂ne est irréductible et il existe un état j ∈ S qui est
(s)
transitoire donc tous les états sont transitoires. Soit i, j ∈ S et s tel que pji > 0. On obtient,
∞ ∞
X (n) 1 X (n) (s)
pij = (s)
pij pji
n=1 pji n=1
∞
1 X (n+s)
≤ (s)
pii
pji n=1
∞
1 X (n)
= (s)
pii
pji n=s
< ∞, i est transitoire
28
Cependant, comme πP = π on peut itérer pour obtenir π = πP n pour tout n ≥ 1. Ainsi,
(n)
X
πj = πi pij , pour tout n > 0
i∈S
(n)
X
= lim πi pij ,
n→∞
i∈S
(n) (n)
X
= lim πi pij , convergence dominée | pij |≤ 1
n→∞
i∈S
∞
(n) (n)
X X
= 0, ( pij < ∞ ⇒ pij −−−−→ 0)
n→∞
i∈S n=1
= 0, pour tout j ∈ S
Lemme 0.3.17. ( théorie des nombres ) Soit M ⊂ N \ {0}, M 6= ∅. On dit que M est additif si
kn + `m ∈ M, pour tout m, n ∈ M, k, ` ∈ N, k + ` 6= 0
Proof. La première partie de la démonstration consiste à montrer qu’on peut trouver m ∈ M tel
que m + 1 ∈ M . Supposons le contraire. Dans ce cas
Comme pgcd M = 1 il existe n1 ∈ M tel que d ne divise pas n1 . De plus il existe n2 ∈ M tel que
n2 + d ∈ M ( l’infimum est atteint ). On peut écrire
n1 = kd + r, k ∈ N, r ∈ {1, . . . , d − 1}
m1 = k(n2 + d) ∈ M
m2 = kn2 + n1 ∈ M
= k(n2 + d) + r
m2 − m1 = r<d
n = km + r r ∈ {0, . . . , m − 1}, k ≥ m − 1
= (k − r)m + r(m + 1) ∈ M
(n)
Lemme 0.3.18. Si l’état i est apériodique et fii > 0 alors il existe N (i, i) tel que pii > 0 pour
tout n ≥ N (i, i).
(n)
Si la chaı̂ne est irréductible et apériodique alors il existe N (i, j) tel que pij > 0 pour tout
n ≥ N (i, j).
(n)
Proof. On pose M = {n > 0 : pii > 0}. On sait que M 6= ∅ car fii > 0. De plus M est additif
(n)
donc il existe N (i, i) tel que pii > 0 pour tout n ≥ N (i, i).
(r(i,j))
Si la chaı̂ne est irréductible alors il existe r(i, j) tel que pij > 0 et fjj > 0. Si en plus elle
(n)
est apériodique alors pij > 0 pour tout n ≥ r(i, j) + N (j, j).
29
Le couplage
L’idée derrière le couplage est la suivante. On fixe i, j, k ∈ S avec i 6= j. On pose
On obtient,
Théorème 0.3.19. ( l’influence du point de départ disparait à long terme ) Si une chaı̂ne est
irréductible, apériodique et une loi stationaire π existe alors
(n) (n)
pik − pjk −−−−→ 0 pour tout i, j, k ∈ S
n→∞
P (Xn = j) −−−−→ πj , pour toute loi initiale ν et tout j ∈ S.
n→∞
Proof. Soit i, j ∈ S. On commence par créer une nouvelle chaı̂ne sur S × S. La nouvelle chaı̂ne
décrit le comportement simultané de deux chaı̂nes indépendantes ayant les mêmes probabilités de
transition données par P , la première chaı̂ne X0 , X1 , . . . part de i, la deuxième chaı̂ne Y0 , Y1 , . . .
part de j. La nouvelle chaı̂ne (X0 , Y0 ), (X1 , Y1 ), . . . a Q comme probabilités de transition et est
donnée par
S’il existe une loi stationnaire π pour la chaı̂ne X) , X1 , . . . alors Π, donné par
Π(i,j) = πi πj , i, j ∈ S.
donc
(n) (n) (n)
q(i1 ,j1 )(i2 ,j2 ) = pi1 j1 pi2 j2 , indépendance
> 0 pour tout n ≥ max N (i1 , j1 ), N (i2 , j2 ) .
La nouvelle chaı̂ne est irréductible et une loi stationnaire existe donc elle est récurrente. Elle est
aussi apériodique. Soit k ∈ S. Posons
30
On a
Notez que la probabilité que la première chaı̂ne se rende à l’état ` au temps n en croisant la
deuxième chaı̂ne entretemps est la même que la probabilité que la deuxième chaı̂ne se rende à
l’état ` au temps n en croisant la première chaı̂ne entretemps. Le comportement aléatoire des
deux chaınes devient le même suite à un croisement, c’est le principe derrière le couplage. En fait,
pour tout ` ∈ S on a
(n−m)
P (Xn = ` | τ = m, (X0 , Y0 ) = (i, j)) = pk` , pour tout n ≥ m
(n−m)
P (Yn = ` | τ = m |, (X0 , Y0 ) = (i, j)) = pk` , pour tout n ≥ m
Maintenant, pout n ≥ 1,
(n)
pi` = P (Xn = ` | (X0 , Y0 ) = (i, j))
X∞
= P (Xn = ` | (X0 , Y0 ) = (i, j), τ = m)f(i,j)(k,k) (m)
m=0
n
(n−m)
X
= pk` f(i,j)(k,k) (m)
m=0
∞
X
+ P (Xn = ` | (X0 , Y0 ) = (i, j), τ = m)f(i,j)(k,k) (m)
m=n+1
Par symétrie,
n
(n) (n−m)
X
pj` = pk` f(i,j)(k,k) (m)
m=0
∞
X
+ P (Yn = ` | (X0 , Y0 ) = (i, j), τ = m)f(i,j)(k,k) (m)
m=n+1
On obtient,
∞
X
(n) (n)
| pi` − pj` | = | [P (Xn = ` | (X0 , Y0 ) = (i, j), τ = m) − P (Yn = ` | (X0 , Y0 ) = (i, j), τ = m)]
m=n+1
×f(i,j)(k,k) (m) |
∞
X
≤ | P (Xn = ` | (X0 , Y0 ) = (i, j), τ = m) − P (Yn = ` | (X0 , Y0 ) = (i, j), τ = m) |
m=n+1
31
De plus, si une loi stationnaire π existe pour la chaı̂ne X0 , X1 , . . . alors pour tout i, j ∈ S et
pour toute loi initiale ν, on a
(n) (n) (n)
X
| pij − πj | = | πk pij − pkj |
k∈S
(n) (n)
X
≤ πk | (pij − pkj | ( inégalité du triangle )
k∈S
−−−−→ 0, ( convergence dominée )
n→∞
X (n)
| P (Xn = j) − πj | = | νi pij − πj |
i∈S
(n)
X
= | νi pij − πj |
i∈S
(n)
X
≤ νi | pij − πj |
i∈S
−−−−→ 0, ( convergence dominée )
n→∞
2. N (j) = limn→∞ Vn (j): le nombre de fois que la chaı̂ne visite l’état j sur toute l’excursion
après le temps 0,
3. (
inf{n ≥ 1 : Vn (j) = 1} si N (j) ≥ 1,
T1 (j) =
∞ si N (j) < 1
: le temps minimal qu’on doit attentre pour visiter l’état j une première fois après le temps
0. On pose T1 (j) = ∞ si on ne visite jamais l’état j après le temps 0,
4. (
inf{n ≥ 1 : Vn (j) = k} − Tk−1 (j) si N (j) ≥ k,
Tk (j) = k>1
∞ si N (j) < k
: le temps additionnel minimal qu’on doit attentre pour ajouter une k e visite á l’état j par
rapport au temps minimal qu’on a du attendre pour visiter l’état j un (k − 1)e fois. On pose
Tk (j) = ∞ si on ne se rend jamais à k visites de l’état j après le temps 0,
5. S0 (j) = 0 et
( k
inf{n ≥ 1 : Vn (j) = k} si N (j) ≥ k, X
Sk (j) = = T` (j), k≥1
∞ si N (j) < k `=1
: le temps minimal qu’on doit attentre pour visiter l’état j une k e fois après le temps 0. On
pose Sk (j) = ∞ si on visite moins de k fois l’état j après le temps 0,
6.
mj = E[T1 (j) | X0 = j]
: le temps moyen pour revenir à j une première fois quand on part de j.
32
Lemme 0.3.20. On a
Proof. Soit n ≥ 1. On a
Si k > 0 alors
n 1 2 3 4 5 6 7 8
Xn 0 1 0 0 1 1 0 1
Vn (1) 0 1 1 1 2 3 3 4
SVn (1) 0 2 2 2 5 6 6 8
1. récurrent nul si mj = ∞,
n
1 X (k)
pij −−−−→ 0 pour tout i ∈ S.
n n→∞
k=1
33
On obtient,
1 ≥ fij
X∞
= fij (n)
n=1
n
(n) (n−k)
X
pij = fij (k)pjj
k=1
(n)
−−−−→ 0, car pjj −−−−→ 0
n→∞ n→∞
et, en passant à la limite la loi forte des grands nombres nous donne,
1 Vn (j)
= lim ( presque sûrement )
mj n→∞ n
n
1X
= lim 1{j} (Xk )
n→∞ n
k=1
n n
1X 1X
E[ lim 1{j} (Xk ) | X0 = j] = lim E[ 1{j} (Xk ) | X0 = j], ( convergence dominée )
n→∞ n n→∞ n
k=1 k=1
n
1 X (k)
= lim pjj
n→∞ n
k=1
3. Maintenant, la chaı̂ne est irréductible, j est récurrent et on part de i. Dans ce cas T1 (j), T2 (j), . . .
sont des variables aléatoires indépendantes, T2 (j), T3 (j), . . . sont indentiquement distribuées. Comme
fij = 1 on obtient P (T1 (j) < ∞ | X0 = i) = 1. Les résultats des lignes (0.3.1) et (0.3.2) tiennent
toujours. Le reste suit de la même façon sauf qu’on conditionne sur l’événement {X0 = i}. En
fait, lorsque Vn (j) > 1, on a
Corollaire 0.3.23. Si, pour une chaı̂ne irréductible, il existe un état récurrent nul alors
34
2. Il n’existe pas de loi stationnaire.
(r) (s)
Soit r, s > 0 tels que pij , pji > 0. On obtient,
n n
1 X (k) 11 X (r) (k) (s)
pjj = (r) (s)
pij pjj pji
n p p n
k=1 ij ji k=1
n
1 1 X (r+k+s)
≤ (r) (s)
pii
pij pji n
k=1
r+n+s
11 X (k)
= (r) (s) n
pii
p pij ji k=r+s+1
r+n+s
1r+n+s 1 X (k)
≤ (r) (s)
pii
p p n r+n+s
ij ji k=1
−−−−→ 0
n→∞
2. Si π est une loi stationnaire et tous les états sont récurrents nuls alors
n
1 X
(k)
X
πj = πi pij , pour tout n
n
i∈S k=1
n
1 X
(k)
X
= lim πi pij
n→∞ n
i∈S k=1
n
X 1 X (k)
= πi lim pij , ( convergence dominée )
n→∞ n
i∈S k=1
= 0, pour tout j ∈ S
Corollaire 0.3.24. Lorsque | S |< ∞ une chaı̂ne récurrente et irréductible est récurrente positive.
Proof. Considérons | S |< ∞, une chaı̂ne irréductible avec un état qui est récurrent nul. Nous
allons montrere que cela mène à une absurdité. Premièrement, peu importe la chaı̂ne, on a toujours
n
1 X X (k)
1= pij −−−−→ 1 pour tout i ∈ S.
n n→∞
k=1 j∈S
Maintenant, avec toutes les hypothèses de l’énoncé, par point 1 du Corollaire 0.3.23, tous les états
doivent être récurrents nuls. Ainsi, mj = ∞ pour tout j ∈ S. Soit i ∈ S fixé, on obtient
n n
1 X X (k) X1X (k)
pij = pij
n n
k=1 j∈S j∈S k=1
−−−−→ 0 par le point 3 du Theorème 0.3.22 et le fait que | S |< ∞.
n→∞
Notez que | S |< ∞ nous permet de passer la limite à l’intérieur de la somme pour j ∈ S. Le
même principe pourrait faire défaut si on avait | S |= ∞.
35
Théorème 0.3.25. Une chaı̂ne irréductible récurrente positive possède une seule loi stationnaire
(n)
donnée par πj = 1/mj , j ∈ S. Si en plus, la chaı̂ne est apériodique alors pij −−−−→ 1/mj pour
n→∞
tout i, j ∈ S.
Proof. On montre premièrement qui s’il existe une loi stationnaire alors elle est unique et satisfait
πj = 1/mj , j ∈ S. En fait, on reprend une partie de la démonstration du corrolaire précédent.
On a
n
1 X
(k)
X
πj = πi pij , pour tout n
n
i∈S k=1
n
1 X
(k)
X
= lim πi pij
n→∞ n
i∈S k=1
n
X 1
(k)
X
= πi lim
pij , ( convergence dominée )
n→∞ n
i∈S k=1
X
= πi 1/mj
i∈S
= 1/mj pour tout j ∈ S
De plus,
(t+1) (t)
X
pij = pik pkj , pour tout t ∈ N
k∈S
n n
1 X (t+1) X1X (t)
p = p pkj , pour tout n
n t=1 ij n t=1 ik
k∈S
n n
1 X (t+1) X1X (t)
lim pij = lim p pkj ,
n→∞ n
t=1
n→∞ n t=1 ik
k∈S
X n
(t)
X
= lim pik pkj
n→∞
k∈S t=1
1 X 1
= pkj
mj mk
k∈S
Ce qui montre que le vecteur v avec vj = 1/mj , pour tout j ∈ S, est un vecteur propre à gauche
associé à la valeur propre 1 pour la matrice des transitions P . On a vj > 0 pour tout j ∈ S car les
P
états sont récurrents positifs. Soit C = j∈S vj . Si on peut montrez que C < ∞ alors en posant
πj = vi /C on trouve que π est une loi stationnaire. Cependant, pour être une loi stationnaire il
faut avoir πj = 1/mj , pour tout j ∈ S. Ainsi, C = 1.
Montrons que C < ∞.
36
Soit A ⊂ S avec | A |< ∞. On a
n
X X 1 X (k)
vj = lim pij
n→∞ n
j∈A j∈A k=1
X1Xn
(k)
= lim pij , car | A |< ∞
n→∞ n
j∈A k=1
X1 n
(k)
X
≤ lim pij
n→∞ n
j∈S k=1
n
1 X X (k) X (k)
= lim pij , mais pij = 1
n→∞ n
k=1 j∈S j∈S
= 1
X
C = sup{ vj : A ⊂ S, | A |< ∞}
j∈A
≤ 1
Finalement, pour une chaı̂ne irréductible, apériodique avec une loi stationnaire π, le théorème
0.3.19 nous donne
(n)
pij −−−−→ πj = 1/mj , pour tout i, j ∈ S.
n→∞
Le théorème suivant est d’une grande importance, c’est le plus important pour les applications.
Il généralise d’une certaine façon la loi forte des grands nombres en affaiblissant les conditions pour
lesquelles une moyenne converge vers une espérance. Il est utilisé dans les méthodes de simulation
par chaı̂nes de markov ( MCMC en anglais pour Markov Chain Monte Carlo ). Notez que MCMC
c’est le numéro de ma plaque automobile!
Proof. ( On fait la démonstration uniquement pour le cas spécial | {i : f (i) 6= 0} |< ∞ ) Soit
37
S0 = {i : f (i) 6= 0}. On obtient,
n
1X X Vn (i)
lim f (Xk ) = lim f (i)
n→∞ n n→∞ n
k=1 i∈S
X Vn (i)
= lim f (i)
n→∞ n
i∈S0
X Vn (i)
= f (i) lim , ( somme finie, on peut interchanger somme et limite )
n→∞ n
i∈S0
X
= f (i)πi
i∈S0
X
= f (i)πi
i∈S
= E[f (Y )]
Voici d’autres résultats qui viennent compléter la section sur les chaı̂nes de Markov discrètes.
On aimerait établir le résultat suivant pour un j, un état récurrent nul,
(n)
pjj −−−−→ 1/mj = 0.
n→∞
Proof. On a
n
(n) (n−k)
X
pij = fij (k)pjj
k=1
−−−−→ fij a, convergence dominée
n→∞
De même,
38
Proposition 0.3.28. ( sans démonstration ) On a
(n)
pij −−−−→ fij /mj lorsque fij = 0 ou j est transitoire, récurrent nul ou apériodique
n→∞
n
1 X (n)
pij −−−−→ fij /mj dans tous les cas
n n→∞
k=1
Voyons ce qui se passe avec une chaı̂ne irréductible de période d. Fixons i ∈ S et posons
(n)
j ∈ Sk s’il existe n > 0 tel que pij > 0 et n mod d = k, k = 0, . . . , d − 1.
Lemme 0.3.29. Ici, S0 , . . . , Sd−1 forme une partition de S et tous les états de Sk se retrouvent
dans S(k+1) mod d à la transition suivante, k = 0, . . . , d − 1.
Proof. Comme la chaı̂ne est irréductible on obtient ∪d−1 k=0 Sk = S. Soit 0 < n1 < n2 tels que
(n ) (n ) (s)
pij 1 , pij 2 > 0. Il existe s > 0 tel que Pji > 0. Ainsi,
(n +s) (n ) (s)
pii 1 ≥ pij 1 pji > 0
(n1 + m) mod d = 0
(n +s) (n ) (s)
pii 2 ≥ pij 2 pji > 0
(n2 + m) mod d = 0
N1 mod d = n2 mod d
S1 S2
S0 S3
S5 S4
1 1/2
0 1 2
1/2 1
39
De plus, pout tout i, j ∈ Sk on obtient,
(nd)
pij −−−−→ d/mj
n→∞
(nd+`)
pij = 0, ` = 1, . . . , d − 1
Proof. Pout tout x ∈ R on pose X+ = max(0, x), la partie positive de x et X− = max(0, −x) la
partie négative de x. Notez que x = x+ − x− et | x |= x+ + x− .
On obtient,
n
1X X X Vn (i)
| lim f (Xk ) − f (i)πi | = | lim f (i){ − πi } |
n→∞ n n→∞ n
k=1 i∈S i∈S
X Vn (i)
≤ B lim |{ − πi } |
n→∞ n
i∈S
X Vn (i) Vn (i)
lim { − πi }− = 0 convergence dominée { − πi }− ≤ πi ,
n→∞ n n
i∈S
Vn (i)
−−−−→ πi presque sûrement
et
n n→∞
X Vn (i) X Vn (i) X Vn (i) X
{ − πi } + = { − πi }− car = πi = 1
n n n
i∈S i∈S i∈S i∈S
40