Académique Documents
Professionnel Documents
Culture Documents
Chapitre 4
Chapitre 4
Les processus markoviens de sauts sont un analogue en temps continu des chaînes de
Markov. Rappelons que la propriété essentielle permettant de définir ces chaînes est la
propriété de Markov :
pij
pour tout temps n. Un processus markovien de sauts est défini par la condition
Pr ob X s t j / X s i, X sn2 in2 ,..., X s0 i0 Pr ob X s t j / X s i
Pt i, j (4.1.1)
pour tout choix de temps 0 ≤ s0 < s1 < · · · < sn−2 < s < s + t ∈ +
Pour chaque t > 0, l’ensemble des Pt i, j doit former une matrice stochastique, appelée
Les noyaux de transition Pt pour différents t ne sont pas arbitraires, mais obéissent à une
Ps t i, j Ps i, k Pt k , j (4.1.2)
k X
L’équation de Chapman–Kolmogorov montre que si l’on connaît les noyaux Pt pour tous
les temps t dans un intervalle ]0, t0], aussi petit soit-il, alors on connaît les noyaux pour tous
les temps t ∈ +. Ceci suggère de considérer la limite
PROCESSUS ALEATOIRES 23
Ph i, j
q(i, j ) lim i j X (4.1.3)
h 0 h
4.1.2. Exemple
X t YNt
est un processus markovien de sauts, qu’on appelle une chaîne de Markov en temps
continu. Ce processus effectue des transitions à des temps aléatoires, donnés par le
processus de Poisson, au lieu de temps régulièrement espacés comme dans le cas de la
Comme le nombre de sauts Nt jusqu’au temps t suit une loi de Poisson, les probabilités de
transition sont données par
Pt i, j Pr ob Nt n Pr obi X n j e t
t p n
ij
n 0 n 0 n!
n
où les pij sont les éléments de la matrice Pn, décrivant les probabilités de transition en n
PROCESSUS ALEATOIRES 24
transitions entre n et n + 1 sont permises. Les probabilités de transition sont alors données
par
Ps n, n 1 Pr ob Nt s n 1/ Nt n Pr ob Nt ,t s 1 se s
he h
q n, n 1 lim
h 0 h
i q i, j
j i
q i, j
r i, j
i
donne la probabilité que le processus choisisse l’état j, sachant qu’il quitte l’état i.
Soit Yn n0 une chaîne de Markov de matrice de transition R r i, j . A partir de cette
chaîne, on peut construire (et simuler) le processus de saut de taux q i, j de la manière
suivante :
loi exponentielle Exp(1), indépendantes des probabilités régissant la chaine Yn n0 .
Si le processus part de l’état X0 = Y0, il doit quitter cet état avec un taux ( 0), c’est-
à-dire après un temps aléatoire t1 de loi Exp( ( 0)). Il suffit pour cela de choisir
t1 = τ0/λ(Y0).
PROCESSUS ALEATOIRES 25
Au temps t1, le processus saute dans l’état Y1, dans lequel il doit rester pendant un
temps aléatoire t2 de loi Exp( ( 1)).
En continuant de cette manière, on est donc amenés à définir des temps de séjour
n 1
tn
Yn1
Et de poser
X t Yn pour Tn t Tn1
où les instants des sauts sont donnés par
n
Tn ti
i 1
q i, j si i j
L i, j (4.2.1)
(i ) si i j
D’après les définitions des (i), on a donc
L(i, j) 0
jX
i X
Les équations de Kolmogorov sont des systèmes d’équations linéaires couplées pour
les éléments de matrice Pt(i, j). Comme P0 = I est la matrice identité, la solution peut
s’écrire sous la forme de la matrice exponentielle
( Lt )n
Pt e Lt (4.2.4)
n 0 n!
PROCESSUS ALEATOIRES 26
4.2.3. Exemple : Chaîne de Markov en temps continu.
En appliquant la définition du générateur, et en utilisant le fait que
si j i
L(i, j ) si j i 1
0
sin on
t
n
si j = i + 1, 0 sinon. Comme IR = RI, on a e e Lt tI tR
e e t
n 0 n!
Rn
t t j i
e si j i
Pt (i, j ) j i !
0 sin on
PROCESSUS ALEATOIRES 27
Soit X={1,2} avec des taux de transition, q(1,2)= et q(2,1)=μ. Le générateur a alors
la forme
L
On a alors L2 L ainsi Ln
n 1
L pour tout n≥1.
tn
Pt e Lt I L
n 1
n 1 n !
I
1
e t 1 L
t
1 e e t
e t e t
Dans le cas où 0 on obtient :
lim Pt
t
Ce qui signifie qu’asymptotiquement le système sera dans l’état (1) avec la
probabilité et dans l’état (2) avec la probabilité quel que soit l’état
initial.
4.3. Distributions stationnaires
de transition Pt si
Pt t>0 (4.3.1)
i P i, j j
iX
t j X , t 0 (4.3.2)
4.3.2. Théorème :
i L i, j 0
iX
j X (4.3.3)
PROCESSUS ALEATOIRES 28
4.3.3. Exemple : Chaîne de Markov en temps continu.
,
Cela correspond bien à la valeur limite de Pt
4.3.6. Définition :
On dira qu’un processus markovien de sauts est irréductible s’il est possible de
trouver, pour toute paire d’états (i, j), un chemin (i0 = i, i1, . . . , in = j) tel que
q(ik, ik+1) > 0 pour tout k = 0, . . . , n – 1
4.3.7. Théorème :
Si le processus de sauts est irréductible et admet une distribution stationnaire π,
alors
lim Pt i, j j i, j X (4.3.4)
t
1 t
r X s ds i r i : r
t t 0
lim (4.3.5)
i
PROCESSUS ALEATOIRES 29
4.3.8. Définition :
on dira que le processus de sauts de taux de transition {q(i, j)} est réversible s’il existe
une distribution π telle que
i q i, j j q j , i i, j X (4.3.6)
4.3.9. Théorème :
Si la condition d’équilibre détaillée ci-dessus est satisfaite, alors π est une distribution
stationnaire
4.3.10. Exemple : Processus de naissance et de mort
Soit X = {0, . . . , N}, et supposons que les seuls taux de transition non nuls sont
q(n, n + 1) = λn pour 0 ≤ n < N ,
q(n, n − 1) = µn pour 0 < n ≤ N
Ici Xt représente par exemple le nombre d’individus d’une population, qui naissent
avec taux λn et meurent avec taux µn, pouvant dépendre du nombre n d’individus.
Supposons tous les taux strictement positifs. Dans ce cas, on peut satisfaire la
condition d’équilibre détaillé en posant
n 1
n n 1
n
Par récurrences on obtient
n 1n 2 ...0
n 0
n n 1...1
Bibliographie
[1] Nils Berglund, Processus aléatoires et applications. DEA. Université d’Orléans, 2010,
pp.99. ffel-00439562v2f
[2] Carl Graham, Chaînes de Markov : Cours, exercices et corrigés détaillés, Dunod,
Paris, 2008
PROCESSUS ALEATOIRES 30
[4] Sabin Lessard, Processus stochastiques : Cours et exercices corrigés, Editions Ellipses,
2014
[5] Nicolas Privault, Understanding Markov Chains : Examples and Applications, 2nd
edition, Springer Nature Singapore Pte Ltd. 2018
PROCESSUS ALEATOIRES 31