Académique Documents
Professionnel Documents
Culture Documents
Pr C.Daoui
Département de Mathématiques
1
PX m1 em1 X m em , X m1 em1 ,, X 0 e0 PX m1 em1 X m em ∀ m>0 ∀ ei ∈ E
En mots, l’état courant résume, à lui seul, tout l’historique du système susceptible d’influencer
son évolution future.
Une chaine de Markov à temps discret est homogène (dans le temps) si, pour tout paire d’états
(i, j ) et tout instant n, P [Xn = j |Xn−1 = i] = P [Xn+k = j |Xn+k−1 = i], ∀ k≥ 0.
Restriction : Dans ce chapitre, l’étude portera sur une chaine de Markov à temps discret,
définit sur un espace d’états E fini, et homogène dans le temps. Notons que les résultats que nous
allons présenter s’appliquent le plus souvent tels quels aux chaines de Markov à temps discret,
homogènes mais définies sur un espace d’états dénombrable.
2.1 Probabilité de transition et matrice de transition
Pour une chaine de Markov homogène {Xn, n= 0, 1, ...}, on a
P [Xn = j |Xn−1 = i] = P [X1 = j |X0 = i] ∀n ≥ 1.
On peut donc définir la probabilité de transition (en une étape) de i à j comme
Pij = P [X1 = j |X0 = i] ∀ ( i, j ) ∈ E 2
En mots, la probabilité Pij est égale à la probabilité conditionnelle que le système se retrouve
dans l’état j à l’étape suivante sachant qu’il se trouve actuellement dans l’état i.
Si la chaine possède |E| états, les probabilités précédentes peuvent être rangées dans une matrice de
transition P=(pij) de taille |E|×|E| dont les lignes et les colonnes sont indexées par les
éléments de E.
Matrice Stochastique: Une matrice carrée P = (pi j)i, jE est Stochastique ou Markovienne si
1) pij ≥ 0 ∀ i, j ∈ E.
2) la somme des éléments de chacune de ses lignes est égal à 1 ( pij = 1 ∀ i ∈ E).
jE
On remarque que cette matrice est stochastique car la somme des coefficients de chaque
2
ligne fait 1. Le coefficient encadré s’écrit PX1 3 X 0 2 1/ 2 et représente la probabilité
Markov. Alors, n m Pi j
nm
Pi nk Pkmj , i, j E , d’où Pi nj P n i j .
kE
3
a b c d
a 0 1 0 1
b 1 0 0 0
c 0 1 1 0
d 0 0 0 1
⇒ Une figure (ce qui explique l’adoption du mot graphe) dans laquelle chacun des sommets
est représenté par un point, et un arc (x , y) U est représenté par une flèche de x vers y.
Définition : Un chemin c de longueur q est une séquence de q arcs : c = {u1, u2, ...., uq} avec
u1 = ( i0 , i1 ); u2 = ( i1 , i2 ); ... ; uq = ( iq-1 , iq ).
Le sommet i0 est l’extrémité initiale du chemin c, le sommet iq est son extrémité terminale.
Un circuit est un chemin dont les extrémités coïncident.
Définition : On appelle fermeture transitive d’un graphe ( E , U ), l’application multivoque
ˆ i { i } i i2 .... iN 1 où ik représente l’ensemble des sommets
défini par
que l’on peut atteindre à partir du sommet i par des chemins de longueur k, et N est le
cardinal de E.
ˆ i1 représente
On dit que ̂i est l’ensemble des descendants de i, de la même façon
l’ensemble des ancêtres de i.
L'algorithme suivant calcule la fermeture transitive d'un graphe, il est en général attribué à
Roy et Warshall:
4
procedure PHI (var m: GrapheMat; x: IntSom; n: integer);
var
u, v: IntSom;
begin
for u := 1 to n do
if (m[u, x] = 1) then
for v := 1 to n do
if (m[x, v] = 1) then
m[u, v] := 1;
end;
procedure FermetureTransitive (var m: GrapheMat; n: integer);
var
x: IntSom;
begin
for x := 1 to n do
PHI(m, x, n);
end;
Remarque L'algorithme ci-dessus effectue un nombre d'opérations que l'on peut majorer par
, chaque exécution de la procédure PHI pouvant nécessiter opérations; cet algorithme
est donc meilleur que le calcul des puissances successives de la matrice d'adjacence.
Algorithme
a) Initialisation :
Pour i = 1 à E faire val( i ):= 0; cl ( i ): = Fait.
b) Etape fondamentale
Pour k = 1 à E faire
Pour i = 1 à E faire
Si M[ k , i ] = 1 alors
Si val( i ) = 0 alors Explorer ( i , min( i )); l : = min( i ) fin de si
Sinon l : = val( i );
Si l < min( k ) alors min( k ): = l fin de si fait.
Si min( k ) = val( k ) alors (``tous les sommets empilés à l’entrée de la procédure sauf ceux
déjà listés appartiennent à la même C.F.CX que k ’’) ;
Tant que pil( p ) k faire
6
Exemple d’application
Soit le graphe G = (E , U) défini par sa matrice d’incidence M , E = {1, 2, 3, 4}.
1 1 0 0
0 1 1 0
M
1 0 1 0
0 0 1 0
a) cl( 1 ) = cl( 2 ) = cl( 3 ) = cl( 4 ) =
val( 1 ) = val( 2 ) = val( 3 ) = val( 4 ) = 0
b) k = 1
val( 1 ) = 0 4 alors id = 0 ; p = 1 ;
Explorer ( 1 , min( 1 ))
val( 1 ) = 1 ; id = 1 ; min( 1 ) =1 ; pil ( 1 ) = 1 ; p = 2
i = 1 M[1 , 1] =1 alors val( 1 ) 0 ; min( 1 ) =1
i = 2 M[1 , 2] =1 alors val( 2 ) = 0 alors
Explorer ( 2 , min( 2 ))
val( 2 ) = 2 ; id = 2 ; min( 2 ) = 2 ; pil ( 2 ) = 2 ; p = 3
i = 2 M[2 , 2] = 1 alors val( 2 ) 0 ; val( 2 ) = min( 2 ).
i = 3 M[2 , 3] = 1 alors val( 3 ) = 0 alors
Explorer ( 3 , min( 3 ))
val( 3 ) = 3 ; id = 3 ; min( 3 ) = 3 ; pil( 3 ) = 3 ; p = 4
i = 1 M[3 , 1] = 1 alors val( 1 ) 0 ; val( 1 ) < min( 3 ) alors min( 3 ) := 1
i = 3 M[3 , 3] = 1 alors val( 3 ) 0 ; val( 3 ) > min( 3 ).
min( 3 ) val( 3 ) ( fin Explorer ( 3 , min( 3 )) ) ; l = 1
min( 2 ) = val( 2 ) alors pil( 4 ) 2 alors val( 3 ) 4 alors cl( 2 ) ={ 3 } ; val( 3 ) = 5;
val( 2 ) 4 alors cl( 2 ) = { 2 , 3 } ; val( 2 ) = 5
val( 1 ) 4 alors cl( 2 ) = { 1 , 2 , 3 } ; val( 1 ) = 5 (fin Explorer ( 2 , min( 2 )) )
min( 1 ) = val( 1 )..... cl( 1 ) = cl( 2 ).
k=2 val( 2 ) = 5 stop.
k=3 val( 3 ) = 5 stop.
k=4 val( 4 ) 4 alors id = 0 , p = 1
Explorer ( 4 , min( 4 ))
val( 4 ) = 1 , id = 1 , min( 4 ) = 1 , pil( 4 ) = 4 , p = 2
i = 3 M[4 , 3] = 1 alors val( 3 ) = 5 0
min( 4 ) = val ( 4 ) = 1 alors pil( 2 ) 4 alors val( 4 ) 4 alors cl( 4 ) = { 4 }; val( 4 ) = 5. ∎
7
La figure1 représente un graphe G à 10 sommets. On a mis en évidence les 6 composantes
fortement connexes, la figure 2 représente le graphe réduit Gr.
Figure 1: G = ( E , U ).
2 4
3
8
Proposition 3.1: Une classe communicante relativement à la chaîne de Markov est une
composante fortement connexe pour le graphe associé à la chaîne de Markov.
Preuve: Soit la relation d’équivalence définie par :
i, j E; i R’ j i communique avec j, ou i = j.
il existe un chemin de i à j et un chemin de j à i, ou i = j.
i R j (où R est la relation d’équivalence définie ci-dessus)
Alors R et R’ sont équivalentes.
Définition: Un sous ensemble S de E est dit fermé relativement à une chaine de Markov de
matrice de transition P si Pi j = 0 i S, jS.
Définition: Une classe récurrente pour la chaîne de Markov est une classe communicante
fermée. Si tel n’est pas le cas, la classe est transitoire.
Les états d’une classe récurrente sont dits persistants ou récurrents et ceux d’une classe
transitoire sont transitoires.
Proposition 3.2: Une classe récurrente C pour la chaîne de Markov est une composante
fortement connexe fermée au sens du graphe associé à la chaîne (i.e., ( C ) = ).
Preuve: D’après proposition 3.1, une classe récurrente est une composante fortement
connexe pour le graphe associé à la chaîne. De plus i C, Pi j = 0 j C, ce qui veut dire
qu’il n’existe pas d’arcs sortant de C. i.e., (C) = .
Un état i est dit absorbant si et seulement si Pii = 1 (on a alors Pij = 0, ∀ j ≠ i).
Une chaine de Markov est irréductible si et seulement si son graphe représentatif est
fortement connexe (i.e., toutes ses paires d’états communiquent).
Une chaîne de Markov est dite unichaine s’il admet une seule classe récurrente.
Remarque : Définissons fij(k)= P(Xk=j, Xl≠ j, 1≤ l ≤k-1 X0=i ) : la probabilité pour que le
système partant de i soit pour la première fois dans l’état j au bout de k transitions. Alors
fij := f
k 1
(k)
ij est la probabilité pour que le système partant de i atteigne l’état j en un nombre
fini de transitions.
Un état i est récurrent ⟺ fii = 1; c’est à dire partant de i le système y retourne à coup sûr au
cours de son évolution.
Les états récurrents sont classés selon le temps moyen de retour μi = kf
k 1
(k)
ii .
On dit qu’un état est récurrent non nul (nul) si μi < +∞ (μi = +∞).
9
n
Lemme 3.1 : Soit i ∈ E, on a Pii(n) = P
k 1
(n - k) ( k )
ii iif .
Preuve: Posons Tii la variable aléatoire définie par Tii = min {k≥1 / Xk = i, X0 = i}: le temps
de premier passage de i partant de i. On observe facilement que fii(n) = P(Tii= n X0=i ).
n
Pii(n) = P( Xn = i X0=i ) = P(Xn i, Tii k / X 0 i) =
k 1
P(X
k 1
n i, Tii k / X 0 i)
n
Pii(n) = P(X
k 1
n i / X k i) P(Tii= k X0=i).
n
D’où l’expression Pii(n) = Pk 1
(n - k) ( k )
ii f
ii .
Proposition 3.3 : Un état i est récurrent si et seulement si P
n 1
(n)
ii et il est transitoire si
P
n 1
(n)
ii = P
n 1 k 1
(n - k) ( k )
ii f
ii = f P
k 1
(k )
ii
n k
(n - k)
ii = f
k 1
(k )
ii P = ( fii( k ) )(1 Pii(n) ) .
n 0
(n)
ii
k 1 n 1
Si i est récurrent k 1
f ii( k ) := fii = 1 alors la dernière égalité n’est possible que si P
n 1
(n)
ii
Pi (n)i =
n 1
Pii(n -k) fii(k ) =
n 1 k 1
f ii( k ) Pii(n -k) ≤ f ii(k ) Pii(l) .
k 1 n k k 1 l0
N P (n)
ii
1
D’où fii := f ii( k ) ≥ f (k )
ii ≥ n 1
N
=1- N
( Pii(0)= 1).
k 1 k 1
P
l0
(l )
ii P
l0
(l )
ii
Proposition 3.4: Si i, j sont deux états communicants et i est récurrent alors j est récurrent.
Preuve : Comme i ↔ j ⟺ ∃ m, n > 0 : Pij(n) > 0 et Pji(m) > 0.
On a Pjj(m+n+s) ≥ Pji(m) Pii(s) Pij(n) . Alors P
s 1
(s)
jj ≥ Pjj(m n s) ≥ Pji(m) Pij(n)
s 1
P
s 1
(s)
ii .
D’où le résultat.
10
Remarque: Une conséquence de cette proposition est le fait que tous les états d’une même
classe sont soit tous récurrents soit tous transitoires.
Proposition 3.5 : Si j est un état transitoire alors pour tout état i, Pi kj .
k 1
n
Preuve : Pi (n)j =
n 1
Pjj(n -k) fij(k ) =
n 1 k 1
f ij( k ) Pjj(n) ≤
k 1 n 0
P
n 0
(n)
jj < ∞.
Supposons que tous les états sont transitoires alors ∀ i ∈ E lim Pij(n) = 0.
Alors 1 = lim p
jE
(n)
ij = lim
jE
n
pij( n ) = 0. Ce qui est absurde.
La période d de l’état i d’une chaine de Markov est égale au plus grand diviseur commun de
tous les n pour lesquels Pii(n) > 0. On le note encore d(i).
L’état i est périodique lorsque d > 1 et apériodique lorsque d = 1.
Notons que si n différent d’un multiple de d(i) alors Pii(n) = 0.
En mots l’état i ne peut se produire qu’au bout d’un temps ou nombre de transitions multiple
de d(i).
Proposition 4.1: Si i, j sont deux états communicants alors d(i) = d(j).
Théorème 4.1 :
f ij
Si j est un état récurrent apériodique alors pour tout i ∈ E, lim Pij(n) = .
i
Si j est un état récurrent de période d alors pour tout i ∈ E,
d
lim Pij(nd +a) = f i (kd a)
, pour a = 0, 1, …., d-1.
j
j
k 1
Preuve : C.Derman. Finite state Markovian Decision processes. Academic Press, (1970).
Définition : Une distribution de probabilité stationnaire w est une solution du système :
a) xi ≥ 0, ∀ i ∈ E;
b) x
jE
j = 1;
11
c) xi = x j Pji , ∀ i ∈ E.
jE
Preuve : la propriété vraie pour n=1. Supposons la vraie pour n et montrons la pour n +1.
On a Pj(in 1) Pjk Pk(in ) alors :
kE
x P
jE
j
( n 1)
ji = x p
jE
j
kE
jk pki( n ) = P x P
kE
(n)
ki
jE
j jk = x P
kE
k
(n)
ki = x i.
Avant d’énoncer le théorème suivant qui montre l’existence et l’unicité d’une distribution de
probabilité stationnaire, on présente la proposition suivante:
Proposition 4-2
Toute classe récurrente est positive.
Preuve: E.Parzen. Stochastic Processes. Holden Day, San Francisco (1962).
Théorème 4-1 : Une chaîne de Markov finie admet une distribution de probabilité
stationnaire unique si et seulement si elle admet une seule classe récurrente.
Preuve : E.Parzen. Stochastic Processes. Holden Day, San Francisco (1962).
n 0
Preuve :
12
Théorème 4-3
1 n 1 k f
(i) P* : = lim
n n
k 0
P existe et Pi *j = ij .
j
(i i) P* P = P P* = P* P* = P*.
(i i i) Pi*. Pj*. et Pi*j 0 pour tout ( i , j ) : i, j Ek, k=1, 2,..., m.
Preuve: C.Derman. Finite state Markovian Decision processes. Academic Press, (1970).
On détermine pour tout i T les probabilités aik d’absorption par les classes récurrentes Ek,
k=1, 2,..., m, sachant que l’état initial de la chaîne est i. Calculons aik en considérant la
première transition :
a i k Pi j Pr absorption par E k / X 1 j .
jE
0 si j E l
l k
Or Pr absorption par E k / X 1 j 1 si j E k
a jk si j T
13
Nous obtenons donc :
ai k p
j Ek
i j pi j a j k .
j T
Considérons les vecteurs colonnes a k a i k i T , h k pi j , on peut écrire l'équation
j Ek i T
vectorielle :
a k h k Q a k I Q a k h k .
Nous pouvons affirmer que, pour une chaîne de Markov finie, les probabilités d’absorption
existent et sont définies de façon unique par l'équation ci dessus.
m m
a k I Q h
1 k
Remarque : Il est clair que . Si nous notons par U le vecteur colonne
k 1 k 1
h k pi l = (I - Q) U, il en résulte que a k
U.
k 1 k 1 l Ek i T k 1
En mots, ceci indique que le processus, partant d’un état transitoire, finira par rejoindre l’une
des classes récurrentes.
4.3 Algorithme pour calculer la matrice stationnaire.
Avant d’énoncer cet algorithme, il est essentiel d’utiliser le théorème suivant qui va-nous
permettre de calculer facilement les composantes de la matrice stationnaire.
Théorème 4.4 : Pour une classe récurrente Ek, nous avons Pi*j a i k Pj* j , i T , j Ek , où
est une distribution de probabilité stationnaire unique de la chaîne de Markov restreinte à Ek.
Puisqu’on a Pi*j Pj* j , i, j Ek , donc Pj* j j Ek
est une solution unique du système linéaire:
j l p j l y kj 0, l Ek
j Ek
y kj 1
j Ek
j l p j l y kj 0, l Ek
j Ek
y kj 1
jEk
j T
i j pi j bkj p
j Ek
ij , iT
15