Académique Documents
Professionnel Documents
Culture Documents
• Définition et structure
I Probabilités et matrices de transition
I Classification
I La file M/M/1
P [Xt+u = j | Xt = i] = P [Xu = j | X0 = i] ∀ i, j ∈ S, ∀ t, u ≥ 0.
P (t + u) = P (t)P (u) ∀ t, u ≥ 0.
• Temps de séjour
I dont la loi est sans mémoire car, le processus étant markovien, son
évolution au-delà de t est indépendante de son passé une fois l’état
Xt connu.
La suite des états visités par une chaı̂ne de Markov à temps continu
forme une chaı̂ne de Markov à temps discret. Cette dernière est appelée
chaı̂ne de Markov sous-jacente ou induite et sa matrice de transition
sera notée Q = (qij ).
1 − e−αx
x≥0
P [X ≤ x] = F (x) =
0 x < 0.
La densité de X est
αe−αx
x≥0
f (x) =
0 x < 0.
Cas particuliers.
• Une variable exponentielle X de paramètre α = 0 est une variable ne
prenant qu’une seule valeur : l’infini. Elle vérifie
P [X > t] = 1 ∀ t ≥ 0.
Une chaı̂ne de Markov à temps continu est régulière si, avec probabilité
1, le nombre de transitions qu’elle effectue dans un intervalle de temps
fini est fini.
Pour t petit, on a
P [Xt = j | X0 = i] = pij (t) = aij t + o(t) i 6= j
et aij = αiqij est appelé intensité de transition de i à j. On a aussi
P [Xt 6= i | X0 = i] = 1 − pii(t) = −aiit + o(t)
et aii = −αi est appelé intensité de passage hors de i.
J.-F. Hêche, ROSO-IMA-SB-EPFL 346
Matrice génératrice et graphe représentatif
La matrice A = (aij ) est appelée la matrice génératrice de la chaı̂ne.
Toute matrice génératrice vérifie
aij ≥ 0 i 6= j
et X
aij = 0 ∀ i ∈ S.
j∈S
P 0(t) = AP (t).
Partant de
on obtient également
P (t + h) − P (t)
lim = P (t)A.
h→0 h
J.-F. Hêche, ROSO-IMA-SB-EPFL 349
et les secondes équations de Kolmogorov connues sous le nom
d’équations du passé sont
P 0(t) = P (t)A.
πi(0) = P [X0 = i] ∀ i ∈ S.
et
π(t) = π(0)P (t).
µ1 µ2 µ3 µ4
0 1 2 3
λ0 λ1 λ2 λ3
−λ0 λ0
µ1 −λ1 − µ1 λ1
A= µ2 −λ2 − µ2 λ2
µ3 −λ3 − µ3 λ3
∞ Y
k
!
X λi−1
π0 1 + = 1. (4)
i=1
µi
k=1
λi = λ ∀i≥0 et µi = 0 ∀ i > 0.
De graphe représentatif
0 1 2 3
λ λ λ λ
un tel processus n’admet evidemment pas de distribution stationnaire
(chaque état forme une classe à lui seul) mais est suffisamment simple
pour qu’on puisse résoudre les équations de Kolmogorov.
(λt)i −λt
πi(t) = P [Xt = i | X0 = 0] = e i = 0, 1, . . . ; t ≥ 0.
i!
Autrement dit, πi(t) est une variable aléatoire de Poisson de paramètre
λt. Le processus de Poisson {Xt, t ≥ 0} est un processus de comptage
d’événements se produisant dans le temps, deux événements consécutifs
étant séparant par une durée aléatoire exponentielle de paramètre λ.
J.-F. Hêche, ROSO-IMA-SB-EPFL 366
Cas particulier : la file d’attente M/M/1
La file M/M/1 est un processus très simple où les taux de naissance et
de mort sont constants :
λi = λ > 0 i = 0, 1, . . . et µi = µ > 0 i = 1, 2, . . .
µ µ µ µ
0 1 2 3
λ λ λ λ
k k k
Y λi−1 Y λ Y
πk = π0 = π0 = π0 ρ = π 0 ρk .
i=1
µi i=1
µ i=1
∞
X
ρk < ∞
k=1
ρ < 1.
I si ρ < 1, tous les états sont récurrents non nuls et πi∗ > 0 pour tout i.
πk∗ = (1 − ρ)ρk k = 0, 1, . . .
P [X > 0] = 1 − P [X = 0] = 1 − π0∗ = ρ