Académique Documents
Professionnel Documents
Culture Documents
Auguste AMAN
M1 - Chaînes de Markov / 78
Plan
1 Définition et exemples
2 Propriétés de Markov
Temps d’arrêt
Propriétés de Markov
4 Théorème ergodique
5 Absorption
M1 - Chaînes de Markov 78
Plan
1 Définition et exemples
2 Propriétés de Markov
Temps d’arrêt
Propriétés de Markov
4 Théorème ergodique
5 Absorption
M1 - Chaînes de Markov 3 / 78
Processus à temps discret
Processus et v.a.: On a
Pour tout n ≥ 0, Xn : (Ω, F) → (E , P(E )) variable aléatoire.
X : Ω → E N variable aléatoire.
L) M1 - Chaînes de Markov 4 / 78
Chaîne de Markov
Définition
Soit X = {Xn ; n ≥ 0} processus.
1 X est une chaîne de Markov si
P (Xn+1 = j | X0 = i0 , . . . , Xn = in ) = P (Xn+1 = j | Xn = in )
pour tout n ≥ 0, i0 , . . . , in , j ∈ E .
2 La chaîne de Markov est homogène si on a de plus
P (Xn+1 = j | Xn = i) = P (X1 = j | X0 = i)
) M1 - Chaînes de Markov 5 / 78
Filtration
Filtration naturelle: on pose pour n ≥ 0
Fn = σ(X0 , . . . , Xn ).
P (Xn+1 = j | Fn ) = P (Xn+1 = j | Xn )
L (Xn+1 | Fn ) = p(Xn , ·)
) M1 - Chaînes de Markov 6 / 78
Marche aléatoire
Définition: Soient
{Zi ; i ≥ 1} v.a. indépendantes de Rademacher
,→ P(Zi = −1) = P(Zi = 1) = 1/2
On pose X0 = 0, et pour n ≥ 1,
n
X
Xn = Zi .
i=1
M1 - Chaînes de Markov 7 / 78
Chaîne homogène
Proposition
Soit (Xn )n≥0 chaîne de Markov
Alors (Xn )n≥0 homogène ssi il existe p : E × E → [0, 1] telle que
P (Xn+1 = j | X0 = i0 , . . . , Xn = in ) = p(in , j )
P (Xn+1 = j | Fn ) = p(Xn , j)
L) M1 - Chaînes de Markov 8 / 78
Notations
M1 - Chaînes de Markov 9 / 78
Propriété des matrices de transition
Proposition
Soit X chaîne de Markov de matrice de transition p.
Alors p vérifie
1 Pour tout i, j ∈ E , on a p(i, j) ∈ [0, 1]
Pour tout i ∈ E , on a j∈E p(i, j) = 1.
P
2
Démonstration:
(1) p(i, j) = P(X1 = j| X0 = i) ∈ [0, 1].
P P
(2) j∈E p(i, j) = j∈E P(X1 = j| X0 = i) = 1.
M1 - Chaînes de Markov 10 / 78
Exemple: marche aléatoire
M1 - Chaînes de Markov 11 / 78
Exemple: temps à Nancy
0 0 0 0.8 0 0.2
) M1 - Chaînes de Markov 12 / 78
Loi de la chaîne et p
Proposition
Soit X chaîne de Markov homogène, de loi initiale ν et transition p.
1 Pour n ∈ N et i0 , . . . , in ∈ E ,
M1 - Chaînes de Markov 13 / 78
Démonstration
M1 - Chaînes de Markov 14 / 78
Loi de la chaîne et produits de matrice
Proposition
Soit X CHMH, de loi initiale ν et transition p. Alors
νn (i) = [ν p n ] (i).
Démonstration:
νn (i) = P(Xn = i)
X
= ν(i0 ) p(i0 , i1 ) · · · p(in−1 , i)
i0 ,...,in−1 ∈E
n
= [ν p ] (i).
M1 - Chaînes de Markov 15 / 78
Exemple: temps à Nancy
Prédiction à J+2:
0.4 0.6 0 0 0 0
0.24 0.76 0 0 0 0
0.12 0.3 0.16 0.19 0.18 0.05
p2 =
0 0 0 0.44 0.21 0.35
0 0 0 0.55 0.35 0.1
M1 - Chaînes de Markov 16 / 78
Exemple: temps à Nancy (2)
Prédiction à J+28:
0.29 0.71 0 0 0 0
0.29 0.71 0 0 0 0
0.14 0.36 7.2 × 10−12 0.23 0.16 0.10
p 28 =
0
0 0 0.47 0.33 0.20
0 0 0 0.47 0.33 0.20
) M1 - Chaînes de Markov 17 / 78
Critère de markovianité
Proposition
Soient
Z : Ω → E variable aléatoire.
F ensemble dénombrable.
{Yn ; n ≥ 1} suite i.i.d, avec Y ⊥⊥ Z et Yn ∈ F .
f : E × F → E.
On pose
X0 = Z , et Xn+1 = f (Xn , Yn+1 ).
Alors X est une chaîne de Markov homogène telle que
P (Xn+1 = j| X0 = i0 , . . . , Xn = in )
= P (f (Xn , Yn+1 ) = j| X0 = i0 , . . . , Xn = in )
= P (f (in , Yn+1 ) = j| X0 = i0 , . . . , Xn = in )
= P (f (in , Y1 ) = j)
= p(in , j)
M1 - Chaînes de Markov 19 / 78
Exemple: marche aléatoire
Rappel: On a vu que X est défini par
{Zi ; i ≥ 1} v.a. indépendantes de Rademacher
,→ P(Zi = −1) = P(Zi = 1) = 1/2
On pose X0 = 0, et pour n ≥ 1, Xn = ni=1 Zi .
P
Application du critère:
et X CHMH avec ν0 = δ0 et
1 1
p(i, j) = P (Z1 = j − i) = δi+1 (j) + δi−1 (j).
2 2
M1 - Chaînes de Markov 20 / 78
Familles markoviennes de probabilités
M1 - Chaînes de Markov 21 / 78
Relation entre familles markoviennes
Proposition
Soit X chaîne de Markov de transition p.
(i) Soit µ ∈ M1 (E ) telle que µ(i) 6= 0. On a
M1 - Chaînes de Markov 22 / 78
Démonstration
Pµ (X0 = i0 , . . . , Xn = in |X0 = i)
Pµ (X0 = i0 , . . . , Xn = in , X0 = i)
=
Pµ (X0 = i)
µ(i) p(i, i1 ) · · · p(in−1 , in )
= 1(i0 =i)
µ(i)
= p(i, i1 ) · · · p(in−1 , in ) 1(i0 =i)
= Pi (X0 = i0 , . . . , Xn = in )
M1 - Chaînes de Markov 23 / 78
Démonstration (2)
Pµ (X0 = i0 , . . . , Xn = in )
X
= Pµ (X0 = i0 , . . . , Xn = in |X0 = i) µ(i)
i∈E
X
= Pi (X0 = i0 , . . . , Xn = in ) µ(i)
i∈E
M1 - Chaînes de Markov 24 / 78
Plan
1 Définition et exemples
2 Propriétés de Markov
Temps d’arrêt
Propriétés de Markov
4 Théorème ergodique
5 Absorption
M1 - Chaînes de Markov 25 / 78
Plan
1 Définition et exemples
2 Propriétés de Markov
Temps d’arrêt
Propriétés de Markov
4 Théorème ergodique
5 Absorption
M1 - Chaînes de Markov 26 / 78
Temps d’arrêt
Définition
Filtration: suite de σ-algèbres telles que Fn ⊂ Fn+1 .
Définition
Soient
T : Ω → N̄ un temps aléatoire.
Fn = σ(X0 , . . . , Xn )
On dit que T est un temps d’arrêt si
Pour tout n ∈ N, l’ensemble {ω; T (ω) = n} est Fn -mesurable.
M1 - Chaînes de Markov 27 / 78
Temps d’arrêt: interprétation
) M1 - Chaînes de Markov 28 / 78
Propriétés simples des temps d’arrêt
Proposition
Soient S et T deux temps d’arrêt. Alors
1 S ∧T
2 S ∨T
sont des temps d’arrêt.
Proposition
Si T est un temps déterministe (T = n presque sûrement)
,→ alors T est un temps d’arrêt.
M1 - Chaînes de Markov 29 / 78
Temps de retour et de visite
Temps de premier retour: Soit j ∈ E . On pose
Rj = inf {n ≥ 1; Xn = j} ,
TC = inf {n ≥ 0; Xn ∈ C } ,
Démonstration:
(i) Pour n ≥ 1, on a
{Rj = n} = {X1 6= j, . . . , Xn−1 6= j, Xn = j}
(ii) Pour n ≥ 1, on a
(n−1 )
n o
Rjk
X
=n = 1{j} (Xl ) = k − 1, Xn = j
l=1
M1 - Chaînes de Markov 31 / 78
Contre-exemple
Si = sup {n ≥ 0; Xn = i} .
Alors
M1 - Chaînes de Markov 32 / 78
Plan
1 Définition et exemples
2 Propriétés de Markov
Temps d’arrêt
Propriétés de Markov
4 Théorème ergodique
5 Absorption
M1 - Chaînes de Markov 33 / 78
Processus Before et After
Aτn = Xτ +n .
M1 - Chaînes de Markov 34 / 78
Ensembles cylindriques
Définition
Soit A ⊂ E N . On dit que A est cylindrique
s’il existe k ≥ 0 et 0 ≤ n0 < n1 < · · · < nk tels que
n o
A = x ∈ E N ; xn0 = i0 , . . . , xnk = ik , pour i0 , . . . , ik ∈ E ,
ou plus généralement
n o
A = x ∈ E N ; xn 0 ∈ E 0 , . . . , xn k ∈ E k , pour E0 , . . . , Ek ⊂ E .
M1 - Chaînes de Markov 35 / 78
Propriété de Markov
Proposition
Soit
X chaîne de Markov homogène (loi initiale ν0 , transition p).
τ ∈ N.
Alors
(ii) Aτ ⊥
⊥ B τ conditionnellement à Xτ , i.e.
Pour tous A, B cylindriques et i ∈ E on a
P (Aτ ∈ A, B τ ∈ B| Xτ = i)
= P (Aτ ∈ A| Xτ = i) P (B τ ∈ B| Xτ = i)
M1 - Chaînes de Markov 36 / 78
Démonstration
Point (i):
P Aτn+1 = j| Aτ0 = i0 , . . . , Aτn = in
= P (Xτ +n+1 = j| Xτ = i0 , . . . , Xτ +n = in )
= P (Xτ +n+1 = j| Xτ +n = in ) (1)
= P Aτn+1 = j| Aτn = in = p(in , j)
Démonstration de (1): On a
P (Xτ +n+1 = j| Xτ = i0 , . . . , Xτ +n = in )
P (Xτ = i0 , . . . , Xτ +n = in , Xτ +n+1 = j) N
= :=
P (Xτ = i0 , . . . , Xτ +n = in ) D
M1 - Chaînes de Markov 37 / 78
Démonstration (2)
Calcul de N:
X
N= P(X0 = `0 , . . . , Xτ −1 = `τ −1 ,
`0 ,...,`τ −1 ∈E
Xτ = i0 , . . . , Xτ +n = in , Xτ +n+1 = j)
X
= P (X0 = `0 , . . . , Xτ −1 = `τ −1 , Xτ = i0 , . . . , Xτ +n = in )
`0 ,...,`τ −1 ∈E
Conclusion:
N
P (Xτ +n+1 = j| Xτ = i0 , . . . , Xτ +n = in ) =
D
= P (Xτ +n+1 = j| Xτ +n = in ) .
M1 - Chaînes de Markov 38 / 78
Démonstration plus élégante de (i)
Rappel: Soit (Xn )n≥0 chaîne de Markov
Alors (Xn )n≥0 homogène ssi il existe p : E × E → [0, 1] telle que
P (Xn+1 = j | Fn ) = p(Xn , j)
pour tout n ≥ 0 et j ∈ E .
Application:
τ
P Aτn+1 = j| FnA = P (Xτ +n+1 = j| Xτ , . . . , Xτ +n )
= E {P (Xτ +n+1 = j| Fτ +n ) | Xτ , . . . , Xτ +n }
= E [p(Xτ +n , j)| Xτ , . . . , Xτ +n ]
= p(Xτ +n , j) = p(Aτn , j),
M1 - Chaînes de Markov 40 / 78
Démonstration
Préliminaires:
On a
P A0 = i0 , . . . , ATn = ∞
T T T
P
1
k=0 P T = k, A0 = i0 , . . . , An = i n
2 {T = k} = {(X0 , . . . , Xk ) ∈ Dk }.
M1 - Chaînes de Markov 41 / 78
Démonstration (2)
Calcul:
P AT0 = i0 , . . . , ATn = in
∞
P (X0 , . . . , Xk ) ∈ Dk , AT0 = i0 , . . . , ATn = in
X
=
k=0
X∞
= P ((X0 , . . . , Xk ) ∈ Dk , Xk = i0 , . . . , Xk+n = in )
k=0
X∞
= P ((X0 , . . . , Xk ) ∈ Dk , Xk = i0 )
k=0
× P (Xk+1 = i0 , . . . , Xk+n = in | (X0 , . . . , Xk ) ∈ Dk , Xk = i0 )
∞
X
= P ((X0 , . . . , Xk ) ∈ Dk , Xk = i0 ) p(i0 , i1 ) · · · p(in−1 , in )
k=0
= P(XT = i0 ) p(i0 , i1 ) · · · p(in−1 , in )
M1 - Chaînes de Markov 42 / 78
Cas particuliers d’application
Proposition
Soit X chaîne de Markov homogène (loi initiale ν0 , transition p).
1 Si T est un temps d’arrêt fini p.s.
2 Si T = T{i} , Ri ou Rik , on a XT = i et
I AT est une chaîne de Markov (loi initiale δi , transition p).
I AT ⊥⊥ B T .
M1 - Chaînes de Markov 43 / 78
Contre-exemple
Contexte: On considère
Xn = ni=1 Yi avec Yi i.i.d et Yi ∼ B(1/2)
P
M1 - Chaînes de Markov 44 / 78
Loi de la chaîne Before
Théorème
Soient
X chaîne de Markov homogène (loi initiale ν0 , transition p).
C ⊂ E et TC = inf{n ≥ 0; Xn ∈ C }
Alors
1 B TC chaîne de Markov homogène (loi initiale ν0 , transition q)
2 On a
q(i, j) = p(i, j) 1C c (i) + δi (j)1C (i).
Matriciellement: !
P P
Q=
0 Id
M1 - Chaînes de Markov 45 / 78
Plan
1 Définition et exemples
2 Propriétés de Markov
Temps d’arrêt
Propriétés de Markov
4 Théorème ergodique
5 Absorption
M1 - Chaînes de Markov 46 / 78
Accessibilité
Accessibilité:
On dit que j accessible depuis i si
Notation: i → j.
M1 - Chaînes de Markov 47 / 78
Communication
Communication:
Si i → j et j → i, on dira que i et j communiquent.
Notation: i ↔ j.
Remarques:
1 Les définitions i → j et i ↔ j ne dépendent pas de ν.
2 Pour tout i ∈ E , on a i ↔ i car p 0 (i, i) = 1.
3 Si i → j et j → k, alors i → k.
M1 - Chaînes de Markov 48 / 78
Graphe associé à une chaîne de Markov
Définition
Soit X chaîne de Markov homogène (loi initiale ν0 , transition p).
On note G(X ) le graphe défini par
G(X ) est un graphe orienté.
Les sommets de G(X ) sont les points de E .
Les arêtes de G(X ) sont définies par l’ensemble
M1 - Chaînes de Markov 49 / 78
Exemple
M1 - Chaînes de Markov 50 / 78
Graphe et accessibilité
Proposition
Soit X chaîne de Markov homogène (loi initiale ν0 , transition p).
Alors
Démonstration: Si i 6= j on a
(i → j) ⇔ Il existe n ≥ 1 tel que p n (i, j) > 0
⇔ Il existe n ≥ 1 tel que i1 ,...,in−1 ∈E p(i, i1 ) · · · p(in−1 , j) > 0
P
M1 - Chaînes de Markov 51 / 78
Classes
Proposition
Soit X chaîne de Markov homogène (loi initiale ν0 , transition p).
Alors
1 La relation ↔ est une relation d’équivalence.
2 Notons C1 , . . . , Cl les classes d’équivalence dans E pour ↔.
Alors → est une relation d’ordre partiel entre classes
i.e. C1 → C2 et C2 → C3 =⇒ C1 → C3 .
3 C1 → C2 ssi il existe i ∈ C1 et j ∈ C2 tels que i → j.
M1 - Chaînes de Markov 52 / 78
Exemple
Classes associés:
C1 = {1, 3}, C2 = {2} et C3 = {4, 5}.
On a C2 → C1
M1 - Chaînes de Markov 53 / 78
Classe minimale
Définition
Une classe d’équivalence C est minimale si:
Pour tout i ∈ C et j 6∈ C , on a i 6→ j.
Exemple:
Sur l’exemple précédent, on a C1 , C3 minimales, et C2 non minimale.
Critères de minimalité:
(i) S’il existe une unique classe C , elle est minimale.
(ii) Il existe une unique classe minimale C
⇔ Il existe une classe C telle que pour tout i ∈ E , on a i → C .
Définition
Soient
X chaîne de Markov homogène (loi initiale ν0 , transition p).
Un élément i ∈ E
Alors
1 On dit que i est récurrent si Pi (Ri < ∞) = 1
2 On dit que i est transitoire si Pi (Ri < ∞) < 1
Interprétation:
Si i est récurrent, en partant de i on est sûr d’y revenir.
M1 - Chaînes de Markov 55 / 78
Nombre de passages
Proposition
Soient
X chaîne de Markov homogène (loi initiale ν0 , transition p).
Un élément i ∈ E et
∞
X
N(i) = δi (Xk ),
k=0
Théorème
Soient
X chaîne de Markov homogène (loi initiale ν0 , transition p).
C une classe pour la relation ↔.
Alors
1 Si C n’est pas minimale, elle est transitoire.
2 Si C est minimale et |E | < ∞, alors
I C est récurrente
I C est récurrente positive: pour tout i ∈ C , Ei [Ri ] < ∞.
M1 - Chaînes de Markov 58 / 78
Exemple
Classes associés:
C1 = {1, 3}, C2 = {2} et C3 = {4, 5}.
,→ C1 , C3 minimales, et C2 non minimale.
M1 - Chaînes de Markov 59 / 78
Plan
1 Définition et exemples
2 Propriétés de Markov
Temps d’arrêt
Propriétés de Markov
4 Théorème ergodique
5 Absorption
M1 - Chaînes de Markov 60 / 78
Hypothèses du théorème ergodique
On suppose:
X chaîne de Markov (loi initiale ν, transition p) telle que
(a) Il existe une classe minimale unique C .
(b) On a TC < ∞, Pν presque sûrement.
(c) Pour tout i ∈ C , on a Ei [Ri ] < ∞.
Remarque: Si |E | < ∞
,→ (b) et (c) sont toujours vérifiées.
M1 - Chaînes de Markov 61 / 78
Théorème limite
Théorème
Sous les hypothèses (a)-(b)-(c), on a
1 Il existe une solution unique de l’équation matricielle dans R1,|E |
,→ π = π p et hπ, 1i = 1, ou encore
X X
π(j) = π(i) p(i, j), π(j) = 1. (2)
i∈E j∈E
1
3 π(i) = 0 si i 6∈ C et pour i ∈ C on a π(i) = Ei [Ri ]
.
M1 - Chaînes de Markov 62 / 78
Explications
Point 3: Si on prend f (j) = δi (j), alors le point 2 donne
Nn (i)
Proportion du temps passé en i = −→ π(i).
n
Intuitivement, proportion du temps passé en i
,→ Inversement proportionnelle au temps de retour Ri en i.
1
,→ π(i) = Ei [R i]
.
1 Pn
f (Xk ) −→
P
Point 2: On s’attend à n k=1 i∈E f (i)π(i), car
n
1X X Nn (i)
f (Xk ) = f (i) .
n k=1 i∈E n
M1 - Chaînes de Markov 63 / 78
Explications (2)
Vocabulaire:
Si π est solution de (2),
π se nomme mesure de probabilités invariante pour p.
Si L(X0 ) = π, alors L(Xn ) = π pour tout n ≥ 1.
1 Pn
n k=1 νk (i) −→ π(i) par convergence dominée.
Donc νn −→ π au sens de Cesaro. Donc
n→∞
[νn+1 = νn p] −→ [π = πp] .
M1 - Chaînes de Markov
Exemple
Définition de la chaîne: Prenons E = {1, 2, 3, 4} (donc |E | < ∞) et
1/4 1/4 1/4 1/4
0 0 1 0
p=
0 1/2 0 1/2
0 0 1 0
Classes associés:
C1 = {1}, C2 = {2, 3, 4}
,→ C1 non minimale et C2 minimale.
Conclusion: C2 récurrente positive, C1 transitoire.
Mesure invariante:
en résolvant le système π = π p et hπ, 1i = 1, on trouve
π = (0, 1/4, 1/2, 1/4) .
De plus, le théorème ergodique s’applique.
M1 - Chaînes de Markov 65 / 78
Exemple (2)
Remarque:
• En général, il est plus facile de résoudre le système
π = π p et hπ, 1i = 1 que de calculer Ei [Ri ].
• Ici, ce calcul est cependant possible.
Théorème
Soit X chaîne de Markov (loi initiale ν, transition p) telle que
(a) |E | < ∞.
(b) Il existe une classe minimale unique C .
(c) Une des deux hypothèses est vérifiée:
1 p(i, i) > 0 pour tout i ∈ C .
2 Il existe n ≥ 1 tel que p n (i, j) > 0 pour tout i, j ∈ E .
Alors
(d)
Xn −→ π, i.e. lim νn (i) = π(i),
n→∞
pour tout i ∈ E .
M1 - Chaînes de Markov 67 / 78
Plan
1 Définition et exemples
2 Propriétés de Markov
Temps d’arrêt
Propriétés de Markov
4 Théorème ergodique
5 Absorption
M1 - Chaînes de Markov 68 / 78
Définition, Hypothèse, Notation
Définition
Soit X chaîne de Markov (loi initiale ν, transition p).
On dit que i ∈ E est absorbant si p(i, i) = 1
On dit que X est absorbante si ses classes minimales sont des
singletons.
M1 - Chaînes de Markov 69 / 78
Exemple
1 0 0 0
1/2 0 1/2 0
p=
0 1/2 0 1/2
0 0 0 1
Classes associés:
C1 = {1}, C2 = {2, 3}, C3 = {4}
,→ C1 , C3 minimales et C2 non minimale.
,→ X est absorbante.
M1 - Chaînes de Markov 70 / 78
Loi à l’instant n
Proposition
Soit X chaîne absorbante avec |E | < ∞.
On décompose p sur E = T ∪ A en
!
Q R
p=
0 Id
Alors pour n ≥ 1 on a
n−1
!
n
Q Rn
pn = Qj R
X
, avec Rn =
0 Id j=0
M1 - Chaînes de Markov 71 / 78
Limite de p
Théorème
Soit X chaîne absorbante avec |E | < ∞. Alors
1 On a limn→∞ Q n = 0 .
2 limn→∞ Rn = A avec A stochastique.
3 Id − Q inversible et on pose M = (Id − Q)−1 .
4 On a A = M R.
Résumé:
!
∞ 0 A
p = , avec A = (Id − Q)−1 R := M R
0 Id
M1 - Chaînes de Markov 72 / 78
Démonstration
Point 1: Soit k · k la norme sur les matrices de RT ×T définie par
En particulier, limn→∞ Q n = 0.
M1 - Chaînes de Markov 73 / 78
Temps d’absorption
Théorème
Soient
X chaîne absorbante avec |E | < ∞.
A, M et R définies au théorème précédent.
TA = inf{n ≥ 0; Xn ∈ A} = temps d’absorption.
N(j) = limn→∞ Nn (j) = nombre de passages en j (pour j ∈ T ).
Alors
1 TA < ∞ presque sûrement.
2 A(i, j) = Pi (XTA = j) pour i ∈ T et j ∈ A.
3 M(i, j) = Ei [N(j)] pour i, j ∈ T .
P
4 Ei [TA ] = j∈T M(i, j).
M1 - Chaînes de Markov 74 / 78
Démonstration
Points 1 et 2: Pour i ∈ T et j ∈ A, on a
En passant à la limite n → ∞,
et
A(i, j) = Pi (TA < ∞, XTA = j) = Pi (XTA = j)
M1 - Chaînes de Markov 75 / 78
Démonstration (2)
Point 3: On a, pour i, j ∈ T
∞ ∞
Q n (i, j) = p n (i, j)
X X
M(i, j) =
n=0 n=0
∞
"∞ #
X X
= Ei [δj (Xn )] = Ei δj (Xn ) = Ei [N(j)]
n=0 n=0
Point 4: On a, pour i ∈ T ,
"∞
∞ X
#
X X X
Ei [TA ] = Ei 1T (Xn ) = Ei δj (Xn ) = M(i, j).
n=0 n=0 j∈T j∈T
M1 - Chaînes de Markov 76 / 78
Exemple
Définition de la chaîne: Prenons E = {1, 2, 3, 4} (donc |E | < ∞) et
1 0 0 0
1/2 0 1/2 0
p=
0 1/2 0 1/2
0 0 0 1
Décomposition en T ∪ A:
On a T = {2, 3}, A = {1, 4} et selon cette décomposition,
0 1/2 1/2 0
1/2 0 0 1/2
p̃ =
0 0 1 0
0 0 0 1
M1 - Chaînes de Markov 77 / 78
Exemple (2)
Matrices Q, R: On trouve
! ! !
0 1/2 1 −1/2 1/2 0
Q= , Id − Q = , R=
1/2 0 −1/2 1 0 1/2
Matrices M, A: On a donc
! !
−1 4 1 1/2 M 2 1 1/2
M = [Id − Q] = , A= = .
3 1/2 1 2 3 1/2 1
M1 - Chaînes de Markov 78 / 78