Académique Documents
Professionnel Documents
Culture Documents
Chaînes de Markov
|1
Processus stochastique
Un processus stochastique est une famille ∈ de variables aléatoires . Comme on vient de voir,
l’indice peut représenter par exemple le temps ou une coordonnée le long d’un chemin.
Si = ℕ, on parle de processus en temps discret et écrit ( )
Si = ℝ , on parle de processus en temps continu et écrit { , ≥ 0}.
Si = , on dira souvent que le processus est à l’instant dans l’état . Donc, On appellera espace des
états l’ensemble des valeurs prises par toutes les variables aléatoires d’un processus stochastique
• Si on connait, pour chaque paires d’états , et pour chaque instant , la probabilité ( ) que le
processus soit dans à l’instant + 1 étant donné qu’il se trouve dans à l’instant :
= = = ))
c’est la probabilité conditionnelle que le processus fasse une transition de vers au cours d’un
intervalle temporel ( , + 1]; on l’appellera par la suite probabilité de transition à une étape.
La classe des processus étudiés ici est donc caractérisée par la propriété de l’état présent du processus, c-à-d, son
instant n résume toute l’information utile pour connaitre son évolution future.
En d’autres termes, la prévision cette dernière ne peut être améliorée par une connaissance de ses états aux instants n-
1,n-2,….
Les processus de Markov sont des processus sans mémoire.
On se bornera dans ce cours à traiter des chaine de Markov homogènes dans le temps; les probabilités des transitions
sont indépendantes du temps :
= ∀
Exemple 1
On suppose que le temps qu'il fera demain,
- ou bien S pour ensoleillé
- ou bien N pour nuageux,
étant donné le temps qu'il fait aujourd'hui ne dépende pas du temps qu'il faisait les jours précédents. On
désigne par l'événement que le jour > 0 est ensoleillé et par celui qu'il est nuageux. Les
probabilités conditionnelles suivantes sont données:
P( | ) = 0,2 ;
P( | ) = 0,4.
Alors:
P =1−P = 0,8
P =1−P = 0,6
On définit la variable aléatoire par = si se réalise, et = si se réalise. La suite ( )est
une chaîne de Markov à temps discret sur les états 0 et 1 dont la matrice de transition P est donnée par
0,2 0,8
= =
0,4 0,6
Question: On est Mercredi et c'est ensoleillé. Quelle est la probabilité que dimanche suivant soit un jour ensoleillé?
Exemple 2
On reprend l'exemple précédent, mais on suppose maintenant que c'est le temps qu'il fera demain étant
donné le temps qu'il fait aujourd'hui et le temps qu'il faisait hier qui ne dépende pas du temps des jours
précédents avec les probabilités conditionnelles suivantes:
On peut cependant obtenir une chaîne de Markov en considérant le temps qu'il fait sur les deux derniers
jours d'un jour au suivant. La suite ( ) , définie par =( , ) pour n > 1, est une chaîne de
Markov à temps discret sur les états (0,0), (0,1), (1,0) et (1,1)
( ) ( )
Pour l’exemple 1, = 4, et donc il faut calculer avec , =0 1 et = 0 1
A Noter que :
( )
1. 0 ≤ ≤1
2.
( )
=1
( ) ( )
Pour l’exemple 1, = 4, et donc il faut calculer avec , =0 1 et = 0 1
A Noter que :
( )
1. 0 ≤ ≤1
2.
( )
=1
Comme exemple:
( )
est la probabilité d’aller de à en
( )
= = , = = sommant tous les états intermédiaires
Or
( = , = , = )
= , = = =
( = )
= = = = ( )
=
( )
( ) ( )
= , = = =
Donc
( ) ( ) ( ) =
= ,∀ , La matrice est obtenue en
( )
multipliant la matrice par elle-même.
Équation de Chapman-Kolmogorov
( ) ( ) () 1 =
= =
0 ≠
Pour tous , et pour tout 0 ≤ ≤
Équation de Chapman-Kolmogorov
( ) () 1 =
= et =
0 ≠
Pour tous , et pour tout 0 ≤ ≤
C-à-d:
( ) ( ) () ( )
= =
Matrice de transition à
( )
La matrice des probabilités de transition après pas est la puissance de la matrice des probabilités de
transition ;
( )
=
On reprend l’exemple 1
la matrice de transition P est donnée par
0,2 0,8
= =
0,4 0,6
Question: On est Mercredi et c'est ensoleillé. Quelle est la probabilité que dimanche suivant soit un jour ensoleillé?
On est mercredi et c’ est un jour ensoleillé, on veut connaitre la probabilité que le dimanche suivant soit un
jour ensoleillé;
=0 = 0) =
Donc
0,2 0,8 0,3344 0,6656
= = =
0,4 0,6 0,3328 0,6672
Par suite
= 0,3344
Remarquer que ≈ ; on dirais que l'état de départ n’a plus d’effet après seulement 4 pas.
Inversement:
Quelle est la probabilité de se trouver dans un état donné de la chaîne de Markov à un temps arbitraire ?
On a
=( ⋯ )
Et l’équation de Chapman-Kolmogorov ( = 1)
( ) ( )
Donc =
D’où la formule