Vous êtes sur la page 1sur 12

Cours Files d’attente et Simulation 2CS et 4 SIQ

2 novembre 2013
Table des matières

1 PROCESSUS ALEATOIRES 2
1.1 CHAINES DE MARKOV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Matrice associée à une chaine de Markov . . . . . . . . . . . . . . . . . . . . . 3
1.1.2 Propriétés d’une chaine de Markov . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.3 Classification des états d’une chaine de Markov . . . . . . . . . . . . . . . . . . 4
1.1.4 Probabilités des états du processus . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.5 Comportement asymptotique d’une chaine de Markov . . . . . . . . . . . . . . 5
1.1.6 Chaine de Markov à temps continu processus de Markov . . . . . . . . . . . . . 6
1.2 PROCESSUS DE POISSON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2 Processus de Poisson et loi exponentielle . . . . . . . . . . . . . . . . . . . . . . 8
1.2.3 Somme de deux processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 PROCESSUS DE NAISSANCE ET DE MORT . . . . . . . . . . . . . . . . . . . . . . 10
1.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.2 Exemple processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.3 Calcul des probabilités des états . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1
Chapitre 1

PROCESSUS ALEATOIRES

I CHAINES DE MARKOV
II PROCESSUS DE POISSON
III PROCESSUS DE NAISSANCE ET DE MORT

Définition d’un processus aléatoire On appelle processus aléatoire (ou stochastique) une famille
de variables aléatoires{Xt, t ∈ T }où t est un paramètre parcourant l’ensemble T ; en pratique T = R,
R+ ou N.
Une réalisation d’un processus aléatoire est la valeur de Xt pour t ∈ T ; l’ensemble des valeurs de
Xt forment l’ensemble des états S qui peut être discret ou continu.

Remarque On distingue quatre types de processus stochastiques selon que T et S sont discrets ou
continus, ce sont les processus à temps discret ou continu à valeurs discrètes ou continues.
Trajectoire d’un processus

Exemple l’épreuve ”Lancer 1 pièce de monnaie”


les observations se font aux instants 0,1,2,..,(i.e. T=N)
figure 1 états du processus en fonction de t
EXEMPLE 1 Niveau d’eau dans un barrage à l’instant t
(Xt ) est un processus aléatoire, S = R+ et T = R+
EXEMPLE 2 Nombre de clients dans un système d’attente à l’instant t
S = R+ et T = R+
EXEMPLE 3 Durée d’attente du nieme client dans la file
S = R+ et T = N
EXEMPLE 4 On joue à pile ou face un très grand nombre de parties, on s’intéresse au
processus (Xn , n ∈ N) Xn est la variable aléatoire associée au résultat de la partie n
S discret, T continu

2
1.1. CHAINES DE MARKOV CHAPITRE 1. PROCESSUS ALEATOIRES

1.1 CHAINES DE MARKOV


Définition une chaine de Markov est un processus aléatoire discret à temps discret vérifiant la
relation suivante :
P [Xn = j/X0 = i0 , X1 = i1 , ..., Xn−1 = in−1 ] = P [Xn = j/Xn−1 = in−1 ]
pour tout j ∈ S et pour tout n
Cette relation signifie que le système se trouve dans l’état j à l’instant n et que l’état futur ne
dépend que de l’état présent et de l’instant n ; un tel système est dit dépourvu de mémoire.
Exemple. Marche aléatoire
Remarque
La probabilité P [Xn = j/Xn−1 = in−1 ] est appelée probabilité de transition ; lorsque celle ci est
indépendante de n la chaine est dite homogène dans le temps, on dit aussi que les probabilités de
transition sont stationnaires dans le temps.

1.1.1 Matrice associée à une chaine de Markov


Considérons une chaine de Markov homogène dont le nombre d’états est égal à r. En regroupant
les différentes probabilités de transition dans une matrice, on obtient une la matrice des probabilités
de transition qui a la forme suivante
 
p11 p12 p13 .. p1r

 p21 p21 p23 .. p2r 

P = p31 p32 p33 .. p3r
 

 
 .. .. .. .. .. 
pr1 pr1 pr1 .. prr
Pr
avec Pij = P [Xn = j/Xn−1 = i], ∀ i, j 0 ≤ P ij ≤ 1 et ∀i = 1, ..r j=1 P ijj =1

Définition On appelle matrice stochastique, une matrice carrée P = (Pij ) dont les éléments vérifient
r
∀ i, j 0 ≤ Pij ≤ 1 ∀i = 1, ..r
P
Pij = 1.
j=1
r
La matrice est dite bi-stochastique si de plus ∀j = 1, ..r
P
Pij = 1
i=1

Graphe associé à une chaine de Markov A une chaine de Markov on peut associer un graphe
dont les sommets représentent les états et les d’arcs sont les transitions possibles( i.e. Pij > 0)

1.1.2 Propriétés d’une chaine de Markov


Probabilités de transition en m étapes
(m)
une probabilités de transition en m étapes est donnée par Pij = P (Xn+m = j/Xn = i) comme la
(m) (m)
chaine de Markov est homogène Pij
= P (Xm = j/X0 = i), la matrice dont les éléments sont les Pij
est dite matrice de probabilités de transition en m étapes
Remarque
(
(0) 1 si i=j
1. Pij =
0 sinon
2. Les matrices de probabilités de transition en m étapes sont stochastiques
Théorème
Soit (Xn )n une chaine de Markov homogène dont la matrice des probabilités de transition est P
alors
P (m) = P m
Preuve
raisonnons par récurrence sur m

3
1.1. CHAINES DE MARKOV CHAPITRE 1. PROCESSUS ALEATOIRES

on a P (1) = P
supposons que P (m−1) = P m−1 ; on a
[
(Xn+m = j/Xn = i) = (Xn+m = j, Xn+1 = k/Xn = i)
k∈S

or

P (Xn+m = j, Xn+1 = k/Xn = i) = P (Xn+m = j/Xn+1 = k, Xn = i)P (Xn+1 = k/Xn = i)

et comme (Xn )n est une chaine de Markov, nous avons

P (Xn+m = j/Xn+1 = k, Xn = i) = P (Xn+m = j/Xn+1 = k)

d’où
X
P (Xn+m = j/Xn = i) = P (Xn+m = j/Xn+1 = k)P (Xn+1 = k/Xn = i)
k∈S
X (m−1)
= Pkj Pik
k∈S

i.e P (m) = P.P (m−1)


or P (m−1) = P m−1 d’où le résultat.

1.1.3 Classification des états d’une chaine de Markov


Relation de communication
– On dit que deux états i et j communiquent si l’on peut passer de i à j ainsi que de j à i avec des
probabilités non nulles i.e. ∃ m ≥ 0 et n ≥ 0 tel Pijm > 0et Pjin > 0
– La relation de communication est une relation d’équivalence ; les classes d’équivalences Ci forment
une partition de l’ensemble des états S tel que dans chaque classe les éléments communiquent et
les éléments entre les classes ne communiquent pas.
– Une chaine de Markov est dite irréductible si tous ses états communiquent.

Nature des classes


– Une classe est dite transitoire s’il est possible d’en sortir, mais dans ce cas le processus ne pourra
plus jamais y retourner.
– une classe est dite récurrente s’il est impossible de la quitter.
– Une classe est dite finale si le sommet correspondant à cette classe ne possède pas de successeur,
de passage dans les autres cas.

Probabilité de premier retour


Soit fij (n) la probabilité de premier retour après n étapes

fij (n) = P (Xn = j, Xn−1 6= j, Xn−2 6= j, X1 6= j/X0 = i)

Les fij (n) sont les probabilités des événements disjoints d’où la probabilité de retour à l’état j en
P
partant de l’état i est fij = fij (n)

Définition On dit que l’état j est transitoire si fjj < 1, persistant ( ou récurrent) si fjj = 1 dans ce
P
cas nous calculons Mj = nfjj (n) le temps moyen de premier retour.
Dans le cas où Mj = ∞ l’état j est dit récurrent nul sinon (i.e Mj < ∞ ), l’état j est dit récurrent
positif n o
La période d’un état j est définie par d = pgcd n ≥ 1 / Pjjn > 0 si n < 1 on pose d = ∞ .

si d = 1 alors l’état j est dit apériodique.

4
1.1. CHAINES DE MARKOV CHAPITRE 1. PROCESSUS ALEATOIRES

Théorème 1 deux états qui communiquent ont même période

Théorème 2 Les états d’une chaine de Markov appartenant à la même classe d’équivalence (d’après
la relation de communication) sont de même nature : ils sont tous soit transitoires, persistants nuls ou
persistants positifs

Théorème 3 Les états d’une chaine de Markov appartenant à une classe de passage sont transitoires,
les états d’une classe finale finie sont persistants positifs

1.1.4 Probabilités des états du processus


Loi des v.a. Xn , n ∈ N
Soit S l’ensemble des états de la chaines de Markov, les probabilités des états sont les probabilités
P (Xn = k) où k est un éléments de S et n dans T . Ces probabilités dépendent de la variable aléatoire
Xn choisie.

Proposition Soit µ(n) le vecteur stochastique des probabilités dont la k ieme composante est P (Xn =
k). Dans le cas d’une chaine de Markov homogène µ(n + 1) = µ(n)P . pour n = 0, 1, 2... (pour le vérifier
appliquer le théorème des probabilités totales)

Corollaire Il résulte de la proposition précédente que µ(n) = µ(0)P n .

1.1.5 Comportement asymptotique d’une chaine de Markov


Définition : Une chaine de Markov (Xn )n de matrice de probabilités de transition P est dite
régulière si le vecteur des probabilités µ(n) = µ(0)P n tend vers une limite π qui est une distribution
de probabilité.
c’est à dire π = (π1 , π2 , ...) est telle que πi ≥ 0 ∀i ∈ N et que πi = 1, de plus π vérifie la relation
P

π = πP et ne dépend pas de π(0) on l’appelle également probabilité stationnaire.

Théorèmes d’existence de la probabilité limite

Théorème Dans une chaine de Markov irréductible apériodique ou bien :


A) Tous les états sont transitoires ou persistants nuls et dans ce cas Pijm −→ 0 quand m tend vers
l’infini pour tous i, j dans S
B) Tous les états sont persistants positifs. Il existe une distribution stationnaire qui est une distribution
limite (indépendante de π(0)). De plus toutes les lignes de P n tendent vers π
" #
0 1
Soit P = π = (1/2, 1/2) est une probabilité stationnaire Est ce que cette chaine
1 0
converge ? Pourquoi ?

Chaine de Markov dont le nombre d’états est fini


Théorème 1 une condition nécessaire et suffisante pour qu’une chaine de Markov finie soit régulière
est qu’elle n’ait qu’une classe finale et que celle ci soit non périodique.

Théorème 2 Si la matrice de transition P est telle qu’une au moins de ses puissances n’a que des
termes strictement positifs, alors π(n) −→ π quelque soit la distribution initiale π(0) et P n −→ P ∗
quand n tend vers l’infini.
π est un vecteur de probabilité et P ∗ est une matrice dont toutes les lignes sont identiques au
vecteur limite π. En plus πP ∗ = π.

5
1.1. CHAINES DE MARKOV CHAPITRE 1. PROCESSUS ALEATOIRES

Théorème 3 Si la valeur propre 1 de P est simple (i.e. de multiplicité 1) et si toute autre valeur
propre de P est de module strictement inférieur à 1, alors les conclusions du théorème 2 sont valables.

1.1.6 Chaine de Markov à temps continu processus de Markov


Définition : (X(t))t≥0 est un processus de Markov si pour tout n dans N et pour toute suite
t1, t2 , .., tn+1 telle que t1 < t2 < .. < tn+1 nous avons
P (X(tn+1 ) = j/X(t1 ) = i1 , X(t2 ) = i2 , ..., X(tn ) = in ) = P (X(tn+1 ) = j/X(tn ) = in ).

6
1.2. PROCESSUS DE POISSON CHAPITRE 1. PROCESSUS ALEATOIRES

1.2 PROCESSUS DE POISSON


Processus de comptage Soit N (t) la variable aléatoire discrète définie par
N (t) : ” nombre d’événements se produisant dans l’intervalle [0, t]”. Le processus (N (t))t≥0 est
appelé processus de comptage.
Remarque
l’accroissement N (t + u) − N (t) indique le nombre aléatoire d’événements se produisant dans
l’intervalle ]t, t + u[

Définition On dit qu’un processus de comptage est un processus de Poisson homogène s’il satisfait
les 3 conditions suivantes :
1. Le processus N (t) est homogène dans le temps i.e. P (N (t+s)−N (s) = k) = P (N (t) = k) = Pk (t)
la probabilité est indépendante de la position de l’intervalle par rapport à l’axe temporel
2. Le processus (N (t))t est à accroissement indépendant, ce qui signifie que pour tout système
d’intervalles disjoints, les nombres d’événements s’y produisant sont des variables aléatoires
indépendantes en particulier, P (N (t + s) − N (s) = j, N (s) = k) = P (N (t + s) − N (s) =
j).P (N (s) = k) = Pj (t).Pk (s) pour tous s et t positifs.
3. La probabilité que deux événements ou plus se produisent dans un petit intervalle ∆t est
négligeable par rapport à la probabilité qu’il n’ y ait qu’un seul événement ; i.e.


 o(∆t) si k ≥ 2
Pk (∆t) = λ∆t + o(∆t) si k = 1
 1 − λ∆t + o(∆t) si k = 0

1.2.1 Propriétés
Théorème 1 Si un processus de comptage{N (t), t ≥ 0} satisfait aux conditions 1), 2) et 3) alors
(λt)k −λt
P (N (t) = k) = Pk (t) = e t ≥ 0 et k = 1, 2, ..
k!
par conséquent E(N (t)) = var(N (t)) = λt.
Preuve
D’après le théorème des probabilités totales et en tenant compte des conditions 2) et 3) on a pour
n=1,2,...
n
X
Pn (t + ∆t) = Pn (t)P0 (∆t) + Pn−1 (t)P1 (∆t) + Pn−i (t)Pi (∆t)
i=2
= Pn (t)[1 − λ∆t] + Pn−1 (t).λ∆t + o(∆t).

d’où
Pn (t + ∆t) − Pn (t) o(∆t)
= λ[−Pn (t) + Pn−1 (t)] +
∆t ∆t
quand ∆t −→ 0 on a
Pn0 (t) = λ[−Pn (t) + Pn−1 (t)] (1.1)
De plus
P00 (t) = −λP0 (t) (1.2)
Ce système d’équations différentielles est connu sous le nom d’équation de Kolmogorov
L’équation 1.2 =⇒ P0 (t) = e−λt .
pour la résolution de l’équation 1.1 on introduit les fonctions
Qm (t) = Pm (t).eλt .
En substituant dans 1.1 on a
Q0m (t) = λQm−1 (t) (1.3)

7
1.2. PROCESSUS DE POISSON CHAPITRE 1. PROCESSUS ALEATOIRES

les conditions initiales étant P (N (0) = 0) = P0 (0) = 1 donc Q0 (t) = 1 et Qm (0) = 0


on résout 1.3 par récurrence
Q01 (t) = λQ0 (t) = λ =⇒ Q1 (t) = λt.
λ2 t2
Q02 (t) = λ2 t =⇒ Q2 (t) =
2
(λt)m (λt)m −λt
De proche en proche on arrive à Qm (t) = i.e. Pm (t) = e .
m! m!

Proposition le processus de Poisson (N (t))t≥0 est un processus de Markov


Preuve
il s’agit de montrer que quelque soit t1 < t2 < .. < tn+1 nous avons
P (N (tn+1 ) = j/N (t1 ) = i1 , N (t2 ) = i2 , ..., N (tn ) = in ) = P (N (tn+1 ) = j/N (tn ) = in ).
En effet
P (N (t1 ) = i1 , N (t2 ) = i2 , .., N (tn ) = in , N (tn+1 ) = j)
P (N (tn+1 ) = j/N (t1 ) = i1 , .., N (tn ) = in ) =
P (N (t1 ) = i1 , N (t2 ) = i1 , .., N (tn ) = in )
P (N (t1 ) = i1 , N (t2 ) − N (t1 ) = i2 − i1 , .., N (tn+1 ) − N (tn ) = j − in
=
P (N (t1 ) = i1 , N (t2 ) − N (t1 ) = i2 − i1 , .., N (tn ) − N (tn−1 ) = in − in−

les intervalles sont deux à deux disjoints donc les événements sont indépendants car (N (t))t≥0 est
un processus de Poisson, cette probabilité est donc égale à
P (N (tn+1 ) − N (tn ) = j − in ) i.e que le processus est de Markov

1.2.2 Processus de Poisson et loi exponentielle


Propriétés de la loi exponentielle
Considérons la v.a. T de loi exponentielle de paramètre λ

1. la loi exponentielle est sans mémoire i.e.

P [T > t + u, T > u]
P [T > t + u/T > u] =
P [T > u]
P [T > t + u]
=
P [T > u]
= P [T > t]

Si T représente la durée de bon fonctionnement d’un appareil, alors cette durée sur [u, t + u]
dépend de la longueur t de cet intervalle et non de sa position
2. P [T < t + ∆t/T > t] est la probabilité de panne entre [t, t + ∆t]

P [T < t + ∆t, T > t]


P [T < t + ∆t/T > t] =
P [T > t]
P [T < t + ∆t] − P [T < t]
=
P [T > t]
1 − eλ(t+∆t) + eλt − 1
=
e−λt
−λ∆t
=1−e = λ∆t + o(∆t)

Intervalle séparant deux événements consécutifs


Soit {N (t), t ≥ 0} un processus de Poisson de paramètre λ et Tn la durée séparant le (n − 1)eme et
le n-ème événement.
Théorème 1 Les temps d’attente Tn d’un processus de Poisson de paramètre λ sont des v.a.i.i.d.de
loi E(λ)

8
1.2. PROCESSUS DE POISSON CHAPITRE 1. PROCESSUS ALEATOIRES

Preuve

P (T1 > t) = P (N (t) = 0)


= e−λt

P (T2 > t) = P (T2 > t/T1 = s)λe−λs ds or P (T2 > t/T1 = s)=P (N (t + s) − N (s) = 0) = P (N (t) =
R

0) = e−λt
d’où P (T2 > t) = e−λt λe−λs ds par récurrence sur n on obtient le résultat.
R

Généralisation du théorème 1 Le temps V qui sépare un instant quelconque du prochain événe-


ment est une variable aléatoire exponentielle de paramètre λ
Théorème 2 La durée séparant (n + 1) événements consécutifs, obéit à la loi Gamma de paramètres
λ et n.
Théorème 3 Un processus de comptage {N (t), t ≥ 0} est un processus de Poisson de paramètre λ si
les intervalles entre deux événements consécutifs sont des v.a.i. obéissant à la même loi exponentielle
de paramètre λ

1.2.3 Somme de deux processus de Poisson


Soient (N1 (t))t≥0 et (N2 (t))t≥0 deux processus de Poisson indépendants de paramètres respectifs
λ1 et λ2 . Le processus somme (N (t))t≥0 tel que (N (t) = N1 (t) + N2 (t) pour tout t > 0 est un processus
de Poisson de paramètre λ = λ1 + λ2 .

Suppression d’événements (ou décomposition d’un processus de Poisson). Si chaque événement


a une probabilité p d’être supprimé, les suppressions d’événements distincts étant mutuellement
indépendantes, les événements non supprimés forment un processus de Poisson de paramètreλ(1 − p).
Preuve
soit (N (t))t≥0 le processus de Poisson de paramètre λ (NR (t))t≥0 le processus des événements
restants et p la probabilité de supprimer un événement on a


X
P (NR (t) = k) = P (N (t) = j, NR (t) = k)
j=k
X∞
= P (NR (t) = k/N (t) = j)P (N (t) = j)
j=k

Or NR (t)/N (t) = j) v B(j, p) on a donc


X (λt)j −λt
P (NR (t) = k) = Cjk (1 − p)k pj−k e
j=k
j!

(1 − p)k −λt X pj−k
= e (λt)j
k! j=k
(j − k)!

(λt(1 − p))k −λt X ((p)λt)m
= e
k! m=0
m!
(λt(1 − p))k −λt λpt
= e e
k!
(λt(1 − p))k λ(1−p)t
= e .
k!

9
1.3. PROCESSUS DE NAISSANCE ET DE MORT CHAPITRE 1. PROCESSUS ALEATOIRES

1.3 PROCESSUS DE NAISSANCE ET DE MORT


1.3.1 Définition
Soit {X(t), t ≥ 0} un processus de Markov à états discrets et homogène dans le temps i.e.
Pij (t) = P (X(t + s) = j/X(s) = i) (ne dépend pas de s)
{X(t), t ≥ 0} est un processus de naissance et de mort s’il satisfait aux postulats suivants
1. Pi,i+1 (∆t) = λi ∆t + o(∆t) i ≥ 0
2. Pi,i−1 (∆t) = µi ∆t + o(∆t) i ≥ 1
3. Pi,i (∆t) = 1 − µi ∆t − λi ∆t + o(∆t) i ≥ 0
i.e. A partir d’un état donné n les transitions ne sont possibles que vers l’un ou l’autre des états
voisins (n + 1), (n − 1) ou n.

Remarques λi ≥ 0 et µi ≥ 0 pour tout i = 0, 1, 2...


λi et µi sont appelés taux de transition (taux de naissance et taux de mort respectivement).
Pij (∆t) = o(∆t) si |i − j| ≥ 2.

1.3.2 Exemple processus de Poisson


soit (N(t)) un processus de Poisson de paramètreλ

Pij (∆t) = P [N (t + ∆t) = j/N (t) = i]


= P [N (∆t) = j − i]
(
o(∆t) si |i − j| ≥ 2
=
(λ.∆t)e−λ∆t sij = i
(λ.∆t)e−λ∆t = (λ.∆t)(1 − (λ.∆t) + o(∆t))
= (λ.∆t) + o(∆t))

Un processus de Poisson est un processus de naissance pur

1.3.3 Calcul des probabilités des états


P (X(t + ∆t) = n)) = P (X(t + ∆t) = n/X(t) = n − 1)P (X(t) = n − 1))+
P (X(t + ∆t) = n/X(t) = n + 1)P (X(t) = n + 1)) + P (X(t + ∆t) = n/X(t) = n)P (X(t) = n)) i.e.
Pn (t+∆t) = (λn−1 ∆t + o (∆t)) Pn−1 (t)+(µn+1 ∆t+o(∆t))Pn+1 (t)+(1−µn ∆t−λn ∆t+o(∆t))Pn (t)
Pn (t + ∆t) − Pn (t) o(∆t)
= λn−1 ∆tPn−1 (t) + µn+1 ∆tPn+1 (t) + (−µn ∆t − λn ∆t)Pn (t) +
∆t ∆t
quand ∆t tend vers 0 nous avons

Pn0 (t) = (λn−1 )Pn−1 (t) + (µn+1 )Pn+1 (t) − (µn + λn )Pn (t) (1.4)

P00 (t) = (µ1 )P1 (t) − λ0 P0 (t) (1.5)


Ces équations, dites de Kolmogorov, représentent le régime transitoire du processus et sont très
complexes à résoudre ; nous nous intéresserons au régime permanent.

10
1.3. PROCESSUS DE NAISSANCE ET DE MORT CHAPITRE 1. PROCESSUS ALEATOIRES

Calcul des probabilités des états en régime permanent


En régime permanent Pn0 (t) = 0 et Pn = limn→∞ Pn (t)
Les équations deviennent

µ 1 P1 − λ 0 P0 = 0 (1.6)
λn−1 Pn−1 + µn+1 Pn+1 − (µn + λn ) = 0 (1.7)

λ0
L’équation 1.6 ⇒ µ1 P1 = λ0 P0 ⇒ P1 = P0
µ1
L’équation 1.7
pour n=1, λ0 P0 + µ2 P2 = (µ1 + λ1 )P1
d’où
(µ1 + λ1 ) λ0
P2 = P1 − P0
µ2 µ2
(µ1 + λ1 ) λ0 λ0
= P0 − P0
µ2 µ1 µ2
λ1 λ0
= P0
µ 2 µ1
De proche en proche, on trouve
λn−1 λn−2... λ1 λ0
Pn = P0 . tel que µ1 , µ2 , ..., µn 6= 0
µn µn−1... µ2 µ1
puisque

X ∞
X
Pn = 1 ⇒ P0 + Pn = 1
n=0 n=1

X λn−1 λn−2... λ1 λ0
= P0 + P0
n=1
µn µn−1... µ2 µ1
∞ Yn
X λi−1
= P0 + P0
n=1 i=1
µi

P∞ Qn λi−1
Dans le cas où la série n=1 i=1 converge
µi
1
P0 = ∞ n λi−1 (1.8)
P Q
1+
n=1 i=1 µi

Théorème
Étant donné un processus de naissance et de mort dont le graphe associé est irréductible (ou
ne possède qu’une classe finale et un nombre fini d’états en dehors de cette classe) ; une condition
nécessaire et suffisante pour que le système tende vers un état stationnaire indépendant des conditions
initiales est que la série
∞ Y
n
X λi−1
(1.9)
n=1 i=1
µi
converge.

11

Vous aimerez peut-être aussi