Vous êtes sur la page 1sur 44

Processus Stochastiques pour Licence

Ecole Nationale Supérieure Polytechnique de Yaoundé


Dr. NJANPONG NANA Gilbert
njanpong@yahoo.fr
Septembre 2022

I. Objectifs

Les processus stochastiques (ou aléatoires) permettent de modéliser des systèmes


dont le comportement n’est que partiellement prévisible. La théorie est fondée sur le
calcul des probabilités et les statistiques. Cet enseignement intervient à la fois par les
activités traditionnelles de modélisation mathématique pour les prédictions et l’aide
à la décision dans un environnement aléatoire.

II. Programme

Chapitre I Espaces de probabilités et vecteurs aléatoires


1. Espaces probabilisables et espaces probabilisés
– Notion de σ-algèbre (ou tribu), définition d’un espace probabilisable
– Axiomatique de Kolmogorov, définition d’un espace probabilisé
– Espace probabilisé conditionné par un événement (notion de probabilité
conditionnelle), indépendance d’événements.
2. Propriétés fondamentales sur les vecteurs aléatoires
– Définitions : vecteur aléatoire, fonction de répartition, densité de proba-
bilité
– Matrice des variances et covariances d’un vecteur aléatoire
– Exemple d’application : loi normale multidimensionnelle N n (µ, Σ))
3. Lois de probabilités usuelles : Normale, Exponentielle, Uniforme, Poisson,
Binomiale, géométrique, Beta, Gamma, d’Erlang.

Chapitre II Processus stochastiques


1. Généralités sur les processus stochastiques
– Introduction
– Notations et Définitions
– Classification des processus stochastiques
2. Chaı̂nes de Markov dans un espace d’états au plus denombrable
– Définitions et Propriétés de Markov
– Chaı̂nes de Markov Homogenes
– Matrice stochastique ( matrice de transition, noyau de transition)
– Représentation graphique d’une chaı̂ne de Markov
– Théorème de Chapman-Kolmogorov
– Etats possibles d’une chaı̂ne de Markov (irréductible, , périodique,... )

1
– Comportement asymptotique d’une chaı̂ne de Markov (Ergodicité, sta-
tionnarité,...
– Exemples d’application
3. Processus de Poisson
– Exemple introductif : Arrivées d’appels dans une centrale téléphonique
– Définitions
– Caractérisation du processus de Poisson : quatre conditions
– La matrice de transition
– Les équations régissant l’évolution du système

Chapitre III Introduction aux modèles de files d’attentes


1. Position du problème
– Introduction
– Développement de la théorie
– Notations et définitions
2. Modèles de files d’attentes
– Constitution d’une file d’attente
– Système de files d’attentes avec un serveur unique
– Système de files d’attentes avec plusieurs serveurs : en parallèle, en série.
3. Comportement d’une file d’attente
– Processus d’arrivées : Inter-arrivée, Taux d’arrivée, Arrivée par groupe,
Clients impatients
– Processus de service
– Discipline de service
– Capacité de la file
– Notion de classes de clients
4. Étude analytique d’un système de file d’attente M/M/1
– Structure générale d’un système M/M/1
– Détermination du régime permanent/ Conditions de stabilité
– Mesures de performance d’un système d’attente M/M/1 : La lois de Lit-
tle, Nombre moyen de clients dans le système, Nombre moyen de clients
dans la file, Temps moyen de séjour dans le système, Temps moyen d’at-
tente, Probabilité de dépasser un nombre k de clients dans le système.

III. Quelques reférences bibliographiques


1. Jean Bertoin, Probabilités : cours de licence en Mathématiques Appliquées ;
version 2000 − 2001 ; Université Paris 6.
2. J. Lacroix, Chaı̂nes de Markov et Processus de Poisson, notes de cours,
Université Pierre et Marie Curie, 2002
3. P. Bougerol, Processus de Sauts et Files d’Attente, notes de cours, Univer-
sité Pierre et Marie Curie, 2002

2
Chapitre 1

ESPACES DE PROBABILITES
ET VECTEURS ALEATOIRES

1.1 Espaces Probabilisables et espaces proba-


bilisés
1.1.1 Notion de σ-algèbre (ou tribu) de parties d’un en-
semble
Soit Ω un ensemble non vide et P(Ω) l’ensemble de ses parties.
Définition 1. Une tribu sur Ω (ou tribu de parties de Ω) est un sous ensemble
T (Ω) de P(Ω) vérifiant :
a) Ω ∈ T (Ω);
b) Si ∀A, ∈ T (Ω), alors Ac ∈ T (Ω);
c) T (Ω) est stable pour la réunion dénombrable (si (An , n ∈ N) est une suite
d’éléments de T (Ω), alors ∪ An ∈ T (Ω)).
n∈N
Remarque 1. – ∅ ∈ T (Ω);
– Par passage au complémentaire et sous les hypothèses de c), on a
∩ An ∈ T (Ω).
n∈N
Définition 2. Soit T un sous ensemble de P(Ω). Soient T1 et T2 , deux tribus
sur Ω et contenant T.
1) T1 ∩ T2 est une tribu sur Ω, contenant T.
2) La tribu sur Ω engendré par T est la plus petite tribu sur Ω et contenant T.
Exemple 1. – P(Ω) est une tribu sur Ω.
– Si Ω = Rn , la plus petite tribu contenant la topologie usuelle de Rn (i.e.
engendré par l’ensemble des ouverts de Rn ) est appelée tribu borelienne.
– Si Ω = R , on choisit en général T (Ω) = BR la tribu des boreliens de R.
– Si Ω est fini ou dénombrable, on choisit en général T (Ω) = P(Ω). Mais cela
est impossible si Ω n’est pas dénombrable.
Définition 3. Soit Ω un ensemble non vide.

3
Le couple (Ω , T (Ω)) est un espace probabilisable si T (Ω) est une tribu sur Ω.
Dans ce cas, tout élément A de T (Ω) est un évènement.

1.1.2 Espaces Probabilisés


On utilisera désormais le langage probabiliste au lieu du langage ensembliste, à
savoir qu’on appelera Ω l’univers, les parties de Ω des évènements, un élément
ω ∈ Ω un évènement élémentaire, et T (Ω) une tribu (famille d’évènements
observables sur Ω).
Définition 4. (Axiomatique de Kolmogorov )
Soit (Ω, T (Ω)) un espace probabilisable.
1) On appelle probabilité (ou mesure de probabilité) sur (Ω, T (Ω)), toute appli-
cation
P : T (Ω) → [0, 1] qui vérifie les deux axiomes suivants :
A1 : P (Ω) = 1.
A2 : ∀(An )n≥1 suite d’éléments de T (Ω) telle que Ai ∩ Aj = ∅ ∀i 6= j, on a
+∞
! +∞
[ X
P An = P (An )
n=1 n=1

2) Si P est une probabilité sur (Ω, T (Ω)), alors le triplet (Ω, T (Ω), P ) est
appelé espace probabilisé.
Remarque 2. :
– L’axiome A2 ci-dessus est la propriété de σ-additivité de P .
– Si Ω est fini ou dénombrable, on peut alors définir sur (Ω, P(Ω)) une proba-
P à l’aide d’une application p : Ω → R vérifiant : p(ω) ≥
bilité P 0 ∀ω ∈ Ω et
p(ω) = 1. Il suffit de considérer pour A ∈ P(Ω), P (A) = p(ω).
ω∈Ω ω∈A
– Si Ω n’est pas dénombrable, on démontre qu’il n’existe pas une application
P : P(Ω) → [0, 1] vérifiant les deux axiomes A1 et A2 .

1.1.3 Probabilités conditionnelles et indépendance


d’évènements
Soit (Ω, T (Ω)) un espace probabilisable et A un élément de T (Ω).
On pose TA (Ω) = {B ∩ A, B ∈ T (Ω)} = {C/∃B ∈ T (Ω), C = B ∩ A}.
Définition 5. Si TA (Ω) est une tribu sur A, le couple (A, TA (Ω)) est appelé
“espace probabilisable (Ω, T (Ω)) conditionné par A”.
Proposition 1. Soit (Ω, T (Ω), P ) un espace probabilisé et A ∈ T (Ω) tel que
P (A) 6= 0.
0 0
– L’application P : TA (Ω) → R définie par P (A ∩ B) = P (B/A) = P P(A∩B) (A)
0
est une probabilité sur (A, TA (Ω)). Donc (A, TA (Ω), P ) et (Ω, T (Ω), P (./A))
sont des espaces probabilisés.
– ∀B ∈ T (Ω), on a P (A ∩ B) = P (A)P (B/A).

4
Définition 6. Soit (Ω, T (Ω), P ) un espace probabilisé.
1) Deux évènements A et B sont dits P-stochastiquement indépendants (ou tout
simplement indépendants) si P (A ∩ B) = P (A)P (B).
2) Les évènements A1 , A2 , ..., An sont dits mutuellement indépendants si pour
toute sous famille Ai1 , Ai2 , ..., Aik avec 1 ≤ i1 < i2 < ... < ik ≤ n, on a :
l=k
! l=k
\ Y
P Ail = P (Ail )
l=1 l=1

Remarque 3. :
– L’indépendance dépend de la probabilisation de l’espace.
– Si A et B sont indépendants, alors A et B, A et B, A et B sont aussi
indépéndants.
– Si les évènements A1 , A2 , ..., An sont mutuellement indépendants, alors ils
sont indépendants 2 à 2. Mais la réciproque est fausse.

1.2 Propriétés fondamentales sur les vecteurs


aléatoires
1.2.1 Généralités
Soient (Ω1 , T (Ω1 )) et (Ω2 , T (Ω2 )) deux espaces probabilisables.
Définition 7. 1) Une application X : Ω1 → Ω2 est dite mesurable si : ∀A ∈
T (Ω2 ),
X −1 (A) ∈ T (Ω1 ). On dit alors que X est une variable aléatoire à valeurs dans
Ω2 .
2) Si X(Ω1 ) est un intervalle de R et T (Ω2 ) ⊂ BR , on dit que X est une variable
aléatoire réelle ou continue.
3) Si X(Ω1 ) est finie ou dénombrable alors X est une variable aléatoire discrète.
4) Si Ω2 = Rn et T (Ω2 ) = BRn , on dit que X est un vecteur aléatoire ou variable
aléatoire vectorielle.
Proposition 2. X = (X1 , X2 , ..., Xn ) est une variable aléatoire vectorielle de
Rn si et seulement si Xi est une variable aléatoire réelle ∀i = 1, ..., n.
Définition 8. Soit (Ω1 , T (Ω1 ), P ) un espace probabilisé ; (Ω2 , T (Ω2 )) et (Ω3 ,
T (Ω3 )) deux espaces probabilisables.
1) Si X : Ω1 → Ω2 est une variable aléatoire, l’application PX : T (Ω2 ) → [0, 1],
0 0 0 0
définie par : ∀A ∈ T (Ω2 ), PX (A ) = P (X −1 (A )) = P ({ω ∈ Ω1 /X(ω) ∈ A })
est une probabilité sur T (Ω2 ). On l’appelle probabilité image de P par X ou loi
de probabilité de X.
2) Si X1 , X2 , ..., Xn sont n variables aléatoires réelles, la probabilité conjointe de
(X1 , X2 , ..., Xn ) est la loi de probabilité du vecteur aléatoire X = (X1 , X2 , ..., Xn )
à valeurs dans Rn .
3) Deux variables aléatoires X et Y (à valeurs respectives dans Ω2 et Ω3 ) sont
dites indépendantes si : ∀A ∈ T (Ω2 ) et ∀B ∈ T (Ω3 ), P (X ∈ A, Y ∈ B) =
P (X ∈ A)P (Y ∈ B).

5
1.2.2 Densité de probabilité et Fonction de répartition
Soit (Ω, T (Ω), P ) un espace probabilisé, et (Rn , BRn ) l’espace borelien.
On considère X = (X1 , X2 , ..., Xn ) une variable aléatoire définie de Ω vers Rn .
Définition 9. 1) La fonction de répartition de X (ou fonction de repartition
de la probabilité PX ) est la fonction F : Rn → [0, 1] définie par :

F (t1 , t2 , ..., tn ) = P (X1 < t1 , X2 < t2 , ..., Xn < tn )


Rt
2) Si n = 1, la fonction F devient : F (t) = P (X < t) = −∞ dPX (x) =
PX (] − ∞, t[).
C’est la fonction de répartition de la variable aléatoire réelle X.
Propriétés 1. Si F est une fonction de repartition, alors :
- F est croissante.
- F est continue à gauche par rapport à chaque variable.
- F tend vers 0 lorsque l’un des ti tend vers −∞.
- F tend vers 1 lorsque tous les ti tendent vers +∞.
- F determine de manière unique PX . En effet, on montre qu’il existe une
bijection entre l’ensemble des fonctions de répartitions sur Rn et l’ensemble des
probabilités définies sur (Rn , BRn ).
Remarque 4. – La fonction de répartition FXi de la v.a Xi est donnée par :

FXi (ti ) = F (+∞, ..., +∞, ti , +∞, ..., +∞)

– Si F est n fois différentiable, PX admet pour densité la fonction fX : Rn →


[0, 1] définie par :

∂ n F (t1 , t2 , ..., tn )
fX (t1 , t2 , ..., tn ) =
∂t1 ∂t2 ...∂tn
par rapport à la mesure de Borel sur Rn .
– En particulier pour n = 1, fX est la densité de probabilité de X par rapport
à la mesure de Lebesgue sur R.

1.2.3 Matrice des variances et covariances d’un vecteur


aléatoire
Soit X = (X1 , X1 , ..., Xn ) un vecteur aléatoire. Considérons (ei )ni=1 une base de
n n
Rn et (e∗i )ni=1 sa base duale. Posons x∗ = αi e∗i et X = Xi ei .
P P
i=1 i=1
Définition 10. On appelle variance de X l’application V ar(X) définie de (Rn )∗
vers R qui à x∗ associe V ar(X)(x∗ ) telle que :

n
X n
X n
X

V ar(X)(x ) = E[( αi Xi − αi E(Xi )) ] = E[( αi (Xi − E(Xi )))2 ]
2

i=1 i=1 i=1

6
Après calcul, on obtient finalement,
Xn Xn

V ar(X)(x ) = αi αj E[(Xi − E(Xi )(Xj − E(Xj ))]
i=1 j=1

Remarque 5. – (i) La variance de X est donc une forme quadratique positive


sur (Rn )∗ (espace dual) dont la matrice dans la base duale (e∗i )ni=1 est la ma-
trice C d’éléments
Cij = E[(Xi − E(Xi )(Xj − E(Xj ))] avec 1 ≤ i, j ≤ n.
– (ii) Cii = V (Xi ) ; Cij = Cov(Xi , Xj ) = Cov(Xj , Xi ) = Cji
– (iii) C est une matrice symétrique et positive.
– (iv) C est appelée matrice des variances et covariances des variables aléatoires
réelles X1 , X2 , ..., Xn .

1.2.4 Exemple d’application : Loi normale multidimen-


sionnelle N n (µ, Σ)
Définition 11. Soient µ ∈ Rn , Σ une matrice symétrique définie positive. on
considère le vecteur aléatoire X = (X1 , X1 , ..., Xn ) qui suit la loi normale à n
dimensions de paramètres µ et Σ. Naturellement, chaque Xi suit la loi normale
de paramètres E(Xi ) et σ 2 (Xi ).
On note alors X ,→ N n (µ, Σ)
Proposition 3. On suppose que X = (X1 , X1 , ..., Xn ) suit la loi N n (µ, Σ).
Alors on a :
– (i) µ = E(X) = (E(X1 ), E(X2 ), ..., E(Xn ))
– (ii) Σ est la variance de X, c’est à dire la matrice des variances et cova-
riances des v.a.r X1 , X2 , ..., Xn
– (iii) La densité de probabilité de X est donnée par :
p
det(Σ−1 ) 1
f (x1 , x2 , ..., xn ) = n exp[− Q(x1 , x2 , ..., xn )]
(2π) 2 2
où Q(x1 , x2 , ..., xn ) =t (x − µ)Σ−1 (x − µ) et x = (x1 , x2 , ..., xn ) ∈ Rn .
Remarque 6. Etant donné X qui suit la loi N n (µ, Σ), on souhaite déterminer
µ et Σ connaissant l’expression quadratique de la densité de X.
– (i) µ est déterminé en résolvant le système d’équation :
∂Q(x1 , x2 , ..., xn )
= 0, ∀i = 1, 2, ..., n
∂xi
1 ∂ 2 Q(x1 ,x2 ,...,xn )
– (ii) La matrice Σ−1 = (Cij0 )1≤i,j≤n ; où Cij0 = 2 ∂xi ∂xj
Théorème 1. On suppose que le vecteur aléatoire X suit la loi N n (µ, Σ) et que
Σ est une matrice diagonale. Alors, les v.a.r X1 , X2 , ..., Xn sont Gaussiennes
(lois normales) et indépendantes et la densité de X est :
n n
Y 1 1 xi − µ i 2 Y
f (x1 , x2 , ..., xn ) = √ exp[− ( ) ]= f (xi )
i=1
σi 2π 2 σi i=1

où f (xi ) désigne la fonction densité de probabilité de la v.a.r Xi .

7
1.3 Quelques lois de probabilités usuelles
1.3.1 Loi normale
C’est la loi la plus importante en statistique car elle permet d’approcher plu-
sieurs autres lois. Sa forme la plus utilisée est la forme centrée réduite qui
s’obtient par un changement de variables. En effet, si X suit la loi N (µ, σ),
on pose alors U = X−µ σ
. On montre alors facilement que U suit la loi normale
centré reduite N (0, 1).

1.3.2 Loi exponentielle


Si X suitla loi exponentielle, sa densité de probabilité est définie par :
qe−qx si x ≥ 0
fq (x) = ; avec q un réel strictement positif.
0 sinon
1 1
Ainsi, E(X) = ; et V (X) = 2
q q

1.3.3 Loi uniforme


Si X suit la loi uniforme sur l’intervalle [a, b], on pose θ = b − a. Sa densité de
probabilité est alors
 définie par :
1
 1
b−a
si x ∈ [a, b] θ
si x ∈ [0, 1]
fX (x) = fθ (x) = = ; avec a et b deux
0 sinon 0 sinon
réels.
a+b (b − a)2 θ2
Ainsi, E(X) = ; et V (X) = = .
2 12 12

1.3.4 Loi de Poisson


k −λ
C’est une loi discrète de X et définie par : pλ (k) = λ k!
e
; où k ∈ {0, 1, 2, ...} et
λ est un réel strictement positif. On note symboliquement X ,→ Pλ .
Propriétés 2. – (i) E(X) = λ et V (X) = λ.
√ λ ≥ 10, la loi de X ( i.e Pλ ) peut etre approchée
– (ii) On montre que lorsque
par la loi normale N (λ, λ).

1.3.5 Loi Binomiale


C’est une loi discrète de X et définie par : p(X = k) = Cnk pk (1 − p)n−k ; où
k ∈ {0, 1, 2, ..., n} et p ∈ [0, 1]. On note symboliquement X ,→ B(n, p).
Propriétés 3. – (i) E(X) = np et V (X) = np(1 − p).
– (ii) On montre que lorsque n est grand ou encore np ≥p10, la loi de X ( i.e
B(n, p) ) peut etre approchée par la loi normale N (np, np(1 − p)).

8
1.3.6 Loi Beta
(
xa−1 (1−x)b−1
B(a,b)
si x ∈ [0, 1]
a > 0, b > 0 avec fa,b (x) = ; où
0 sinon
R1
B(a, b) = 0 ta−1 (1 − t)b−1 dt
a+1 (a + 1)(b + 1)
Ainsi, E(X) = et V (X) =
a+b+2 (a + b + 3)(a + b + 2)2

1.3.7 Loi Gamma


(
q p e−qx xp−1
si x > 0
Γ(p)
p > 0, q > 0 avec fp,q (x) = ; où
0 sinon
R +∞
Γ(p) = 0 tp−1 e−t dt. Si p = 1, on retrouve le modèle exponentiel élémentaire.
p p
Ainsi, E(X) = et V (X) = 2
q q
Pp
NB : X = Xi , et Xi ,→ E(q).
i=1

1.3.8 Loi Géométrique


C’est une loi discrète de X et définie par : p(X = k) = p(1 − p)k−1 ; où k ∈
{1, 2, 3, ...} et p ∈]0, 1[. p étant la probabilité de succès. On note symboliquement
X ,→ G(p).
1 1−p
Ainsi, E(X) = et V (X) =
p p2

1.3.9 Loi d’Erlang


λn tn−1 e−λt
C’est une loi X et définie par : fλ (t) = ; où t est un réel positif et λ
(n − 1)!
est un réel strictement positif. On note symboliquement X ,→ E(n, λ).
n n
Ainsi, E(X) = et V (X) = 2
λ λ

9
1.4 Travaux Dirigés
0 0
Exercice 1. Soient (Ω, U) et (Ω , U ) deux espaces probabilisables, et
0 0
X : (Ω, U) → (Ω , U ) une application.
0
1. Montrer que X −1 (U ) est une tribu des parties de Ω.
0
2. Soit C une famille des parties de Ω . Montrer que T (X −1 (C)) ⊂ X −1 (T (C)),
où T (C) et T (X −1 (C)) désignent respectivement les tribus engendrées par
C et X −1 (C).

Exercice 2. Soit T (Ω) une tribu sur Ω.


1. Montrer que ∅ ∈ T (Ω)
2. Soit (An , n ∈ N) une suite d’éléments de T (Ω). Montrer que ∩ An ∈
n∈N
T (Ω).
3. Montrer que l’intersection de deux tribus est encore une tribu.
4. Soit A ∈ T (Ω). On pose TA (Ω) = {B ∩ A, B ∈ T (Ω)}. Montrer que TA (Ω)
est une tribu sur A.

Exercice 3. :
1. On considère un ensemble E = {1, 2, 3, 4}. La classe C = {∅, E, {1}, {2}, {3, 4}, {1, 2}}
est-elle une tribu sur E ? Justifier votre réponse.
2. Soit E un espace et F une tribu de parties de E. On suppose que E = R et
on pose A = {A ⊂ E, A est fini ou dénombrable ou Ac est fini ou dénombrable }
(A est l’ensemble des parties qui sont finies ou dénombrables ou dont le
complémentaire est fini ou dénombrable.).
Montrer que A est une tribu et que A 6= P (R), où P (R) est l’ensemble des
parties de R.

Exercice 4. Soient E et F deux espaces, f une application de E dans F et


T (F ) une tribu sur F .
1. Montrer que Υf = {f −1 (A), A ∈ T (F )} est une tribu sur E.
2. La fonction f : (E; Υf ) → (F ; T (F )) est-elle une variable aléatoire ?
3. On pose E = {1; 2; 3; 4; 5} et C = {{1; 2}; {2; 3}; ∅}.
Déterminer la tribu engendrée par la classe C de parties de E.

Exercice 5. Soit (Ω, T (Ω), P ) un espace probabilisé.


1. Montrer que si A et B sont indépendants, alors A et B, A et B, A et B
sont aussi indépéndants.
2. Montrer que deux évènements A, B ∈ T (Ω) sont indépendants si et seule-
ment si
P (A ∩ B)P (A ∩ B) = P (A ∩ B)P (A ∩ B)

10
Exercice 6. La consommation journalière d’une agglomération au cours du
mois de septembre est une variable aléatoire X dont la densité a la forme :
f (t) = c(t − a)(b − t)1[a,b] (t), où t ∈ R ; a, b et c sont des constantes strictement
positives (a < b), avec la fonction indicatrice 1[a,b] (t) = 1 si t ∈ [a, b] et 0 sinon.
1. Vérifier que l’on a pour tout n ∈ N :
Z b
(b − a)n+2
(t − a)n (b − t)dt = .
a (n + 1)(n + 2)

2. Exprimer la constante c en fonction de a et b.


3. Calculer E(X − a) et E[(X − a)2 ]. En déduire E(X) et V (X).
4. Donner la fonction de répartition F (x) de la variable aléatoire X (on dis-
tinguera les cas x < a, a ≤ x ≤ b et x > b).
5. En notant Xi la consommation du i-ème jour et en supposant que les Xi
sont indépendantes et de même loi que X, exprimer à l’aide de F et de n
la fonction de répartition de la variable aléatoire Mn = max Xi .
1≤i≤n

Exercice 7. Soit X1 , X1 , ..., Xn , n variables aléatoires indépendantes qui suivent


chacune la loi uniforme sur [α, β] avec 0 < α < β.
1. Soit i ∈ {1, 2, ..., n}. Calculer l’espérance E(Xi ) et la variance V ar(Xi ).
2. Déterminer Fi la fonction de répartition de Xi , i ∈ {1, 2, ..., n}.
3. On pose Y = min(X1 , X1 , ..., Xn ). Déterminer la fonction de répartition G
de Y et en déduire sa densité de probabilité g.

Exercice 8. Calcul des moments de la loi gaussienne standard.


Soit X une variable aléatoire de loi normale N (0, 1).
1. Que valent les E(X 2n+1 ) pour n ∈ N ?
2. On pose cn = E(X 2n ). Montrer en intégrant par pratie que ∀n ∈ N,
1
cn = 2n+1 cn+1
3. En déduire une formule explicite pour E(X 2n ).

Exercice 9. Soit X = (X1 , X2 ) un vecteur aléatoire à valeurs dans R2 de


densité :
3 2
∀(x1 , x2 ) ∈ R2 , f (x1 , x2 ) = k × exp(− 16 x1 + 41 x1 x2 − 41 x22 )
P
1. Déterminer µ = E(X) et X la matrice des variances et covariances de
X. En déduire k.
2. Calculer le coéfficient de corrélation linéaire des variables aléatores réelles
X1 et X2 .

Exercice 10. Soit X une variable aléatoire.


P
1. Montrer que X suit la loi normale N (µ, ) de dimension n si et seulement
si ∀a ∈ Rn , a 6= 0, ta X suit une loi normale unidimentionnelle.

11
2. Soit X = (X1 , X2 ) un vecteur aléatoire à valeurs dans R2 de densité :
1
∀(x1 , x2 ) ∈ R2 , f (x1 , x2 ) = k×exp(−
P 18
(5x21 +5x22 −8x1 x2 −14x1 +4x2 +17))
– i) Déterminer µ = E(X) et X la matrice des variances et covariances
de X.
– ii) En déduire k ; ainsi que le coéfficient de corrélation linéaire entre X1
et X2 .

Exercice 11. Soit (X1 , X2 , ..., Xn ) un vecteur aléatoire de dimension


P n et désignant
la transposée de X. On pose µX le vecteur moyenne de X et X la matrice des
variances et covariances de X. On pose Y = AX où A est une matrice m × n.
P P
1. Exprimer µY et Y en fonction de µX et X .
2. On suppose que n = 2 et que X suit la loi normale de densité :
8 26 28 41
∀(x1 , x2 ) ∈ R2 , f (x1 , x2 ) = k × exp(−x 2 2
P 1 − x 2 + 5 x1 x2 − 5 x1 + 5 x2 − 5
)
– i) Déterminer k, µX = E(X) et X .  
U
– ii) On pose U = 3X1 + 2X2 , V = X1 + 4X2 et W = .
P V
Déterminer µW = E(W ) et W .

Exercice 12. Soit X = (X1 , X2 , X3 ) un vecteur aléatoire de R3 de densité :


∀(x1 , x2 , x3 ) ∈ R3 ,
f (x1 , x2 , x3 ) = k × exp(− 41 (3x21 + x22 + 5x23 − 2x1 x2 − 6x1 x3 + 2x2 x3 + 2x1 − 2x2 −
10x3 + 9))
P
1. Déterminer k, µ = E(X) et X la matrice des variances et covariances
de X.
2. En déduire les coéfficients de corrélation linéaire de (X1 , X2 ),(X1 , X3 ) et
(X2 , X3 ) .

Exercice 13. .
Soit X une variable aléatoire réelle de loi exponentielle de paramètre q > 0
(fX (t) = qe−qt si t ≥ 0, fX (t) = 0 sinon).
1. Calculer le moment d’ordre 2 de X.
2. On note Y = [X] sa partie entière. Montrer que Y suit la loi géométrique
de paramètre e−q .

Exercice 14. Soit X une variable aléatoire réelle. Si X suit la loi uniforme
sur [a, b],
1. Calculer son espérance mathématique.
(b−a)2
2. Montrer que sa variance vaut V (X) = 12
.

12
Exercice 15. Soit X = (X1 , X1 , ..., Xn ) un vecteur aléatoire normal à valeurs
dans Rn , donc qui suit la loi normale N n (µ, X ) où X = (cij )1≤i,j≤n est sa
P P
matrice des variances et covariances.
On suppose que n = 2, et que la loi normale centrée réduite à deux dimensions
X a ρ comme coéfficient de corrélation linéaire des deux variables.

Montrer que E(X1 ) = 0, E(X2 ) = 0 et E(X1 X2 ) = ρ.

13
Chapitre 2

PROCESSUS
STOCHASTIQUES

2.1 Généralités sur les processus stochastiques


2.1.1 Introduction
Les processus permettent de modéliser des systèmes dont le comportement n’est
que partiellement prévisible. La théorie est fondée sur le calcul des probabilités
et les statistiques. Les domaines d’application sont très divers surtout dans la
modélisation et la gestion du trafic dans les réseaux de transport (carrefours à
feux) et plus généralement la gestion des systèmes techniques complexes soumis
à des perturbations aléatoires.
L’étude mathématique d’un système d’attente, se fait le plus souvent par
l’introduction d’un processus stochastique approprie. Généralement, on qualifie
de processus stochastique tout phénomène d’évolution temporelle dont l’ana-
lyse peut être soumise au calcul des probabilités. Du point de vue de l’observa-
tion, un processus stochastique est constitué par l’ensemble de ses réalisations.
Une réalisation est obtenue par l’expérience qui consiste à enregistrer une suite
d’événements au cours du temps. Le caractère aléatoire de l’évolution se montre
par le fait que la répétition de l’expérience conduit à une autre séquence tem-
porelle.

2.1.2 Notations et Définitions


Définition 1. 1) Un processus stochastique est un ensemble des phénomènes
produit par le hasard dans le temps, et dont l’évolution peut être décrite à l’aide
de variable aléatoire.
2) Mathématiquement, un processus stochastique (Xt )n∈T est une collection de
variables aléatoires indexées par un paramètre t et définies sur un même es-
pace de probabilités (Ω, T (Ω), P ) et à valeurs dans un espace probabilisable
(E, T (E)).

14
La variable Xt représente l’état du processus au temps t et l’ensemble de toutes
les valeurs possibles E ( partie de R) est appelée espace des états du processus.
Définition 2. 1) Une suite de v.a.r (Xn )n∈N sur (Ω, T (Ω), P ) converge en
loi vers une v.a.r X si lim FXn (x) = FX (x), où FXn désigne la fonction de
n→+∞
répartition de Xn .
2) Une suite de v.a.r (Xn )n∈N sur (Ω, T (Ω), P ) converge en probabilité vers une
v.a.r X si ∀ε > 0, lim P (|Xn − X| ≥ ε) = 0.
n→+∞

On montre que la convergence en probabilité implique la convergence en loi.

2.1.3 Classification des processus stochastiques


La classification d’un processus stochastique dépend de trois quantités :
– l’espace d’état E
– l’indice t appartenant à l’espace temporel T qui est soit une partie de N, soit
une partie de R
– la dépendance statistique entre les variables aléatoires pour différentes valeurs
de l’indice .
Lorsque la variable Xt peut prendre un nombre fini ou dénombrable de valeurs,
le processus est dit à espace d’état discret. Dans le cas contraire, il est dit à
espace d’état continue.
NB : On travaillera en temps discret (les indices sont des entiers) et on suppo-
sera de plus que l’espace d’état E dans lequel le processus prend ses valeurs est
au plus dénombrable.
Relativement à la notion de probabilité conditionnelle P (B|A), nous nous intéresserons
au cas où A = {X0 = x0 , ..., Xn = xn } et B = {Xn+1 = xn+1 }.

2.1.4 Exemples
Les processus stochastiques sont appliqués dans plusieurs domaines courants de
la vie socio-économique et politique :
1. Météorologie : Xn = désigne la température en un lieu donné au jour n,
ou encore la hauteur des précipitations au courant de l’année n.
2. Bourse de valeurs : Xn = désigne le cours d’une action le jour n, ou le
chiffre d’affaire d’une société l’année n.
3. Assurance : Xn = désigne le montant total des indemnités versées par
une compagnie d’assurance pour des sinistres survenus le mois n.
4. Epidémiologie : Xn = désigne le nombre d’individus infectés par une
maladie contagieuse au bout de n jours.
5. Jeux : Xn = désigne l’ordre des cartes d’un jeu qui a été battu n fois.

15
2.2 Chaines de Markov dans un espace d’états
au plus dénombrable
La catégorie des processus stochastiques est très large car elle permet de modéliser
l’ensemble des phénomènes aléatoires. Cependant, on ne peut pas obtenir mathéma
tiquement beaucoup de résultats sur un processus stochastique trop général. Il
faut alors ignorer des hypothèses supplémentaires pour faciliter leur résolution.
En 1906, Andrei Andreyevich Markov a commencé l’étude d’un nouveau type
de processus stochastique où le résultat d’une expérience donnée peut affecter
le résultat de l’expérience suivante.
Dans ce cours, on propose de se restreindre à la modélisation des phénomènes
aléatoires par des chaı̂nes de Markov. Il est donc nécessaire de vérifier deux
hypothèses mathématiques que sont la propriété de Markov et l’homogéneité.

2.2.1 Définitions et propriétés de Markov


Définition 3. Intuitivement, un processus stochastique (Xn )n∈N vérifie la pro-
priété de Markov lorsque son évolution après une date n, ne dépend du passé
X0 , X1 , X2 , ..., Xn qu’à travers sa position au temps n (et non pas du trajet qu’il
a suivi pour atteindre cet état).
Définition 4. Formellement, on dit que (Xn )n∈N est une chaı̂ne de Markov
( donc vérifie la P propriété de Markov) s’il existe des nombres réels positifs
(Pij )i,j∈E avec j∈E Pij = 1 pour tout i ∈ E, tels que pour tout entier n,
tous i, j, x0 , ..., xn ∈ E :

P (Xn+1 = j|X0 = x0 , X1 = x1 , ..., Xn−1 = xn−1 , Xn = i) = P (Xn+1 = j|Xn = i) = Pij

(Pij )j∈E désigne alors la probabilité de transition pour l’état i. Si l’espace d’état
E est au plus dénombrable, (Pij )i,j∈E est alors appelée matrice de transition de
la chaı̂ne.
Proposition 1. Si x0 , x1 , ..., xn ∈ E, alors on a
P (X1 = x1 , ..., Xn = xn |X0 = x0 ) = Px0 ,x1 Px1 ,x2 ...Pxn−1 ,xn
En particulier pour un espace d’état E = {1, 2, ..., n} au plus dénombrable,
P (Xn = j|X0 = i) = Pijn

2.2.2 Chaı̂nes de Markov homogènes et matrice stochas-


tique
Définition 5. La matrice stochastique (ou de transition ) d’une chaı̂ne de Mar-
kov est une matrice carrée telle que :
(i) Son ordre est égal au cardinal de l’espace des états E
(ii) Chaque élément de la matrice est une probabilité
(iii) Chaque ligne représente une loi de probabilité ( la somme des éléments de
chaque ligne vaut 1).

16
Définition 6. La matrice stochastique d’une chaı̂ne de Markov est la matrice
d’une forme quadratique P définie de E × E vers [0, 1] et encore appelée noyau
de transition.par : P(x, y) = p(Xn+1 = y/Xn = x).
P
On montre alors que y∈E P(x, y) = 1 pour tout x, y ∈ E.
Théorème 1. Une chaı̂ne de Markov (Xn )n∈N est caractérisée par :
(i) L’espace d’états E = {x1 , ..., xm } ;
(ii) A chaque instant n, la matrice de transition Pn modélisant le passage à l’état
xn+1 sachant l’état xn est donnée par : Pn = (P (Xn+1 = j/Xn = i))i,j∈E =
(Pij )i,j∈E
(iii) La distribution initiale π0 ( c’est une loi de probabilités sur E à l’instant
n = 0).
Définition 7. 1) Intuitivement, une chaı̂ne de Markov homogène est une chaı̂ne
telle que la probabilité qu’elle a pour passer dans un certain état au nème
état soit indépendante du temps. En d’autres termes, la loi de probabilité ca-
ractérisant la prochaine étape ne dépend pas du temps (de l’étape précédente),
et en tout temps la loi de probabilité à tout moment de la chaı̂ne est toujours la
même pour caractériser la transition à l’étape en cours.
2) Formellement, une chaı̂ne de Markov (Xn )n∈N à dimension finie est dite
homogène lorsque : ∀n ∈ N, Pn = P (i.e la matrice de transition Pn reste
invariante quelque soit l’instant de transition n).
Théorème 2. Une chaı̂ne de Markov homogène (Xn )n∈N est caractérisée par :
(i) L’espace d’états E = {x1 , ..., xm } ;
(ii) La matrice de transition P ;
(iii) La distribution initiale π0
La forme
 analytique de la matrice de transition P est alors : 
P (Xn+1 = x1 |Xn = x1 ) P (Xn+1 = x2 |Xn = x1 ) . . . P (Xn+1 = xm |Xn = x1 )
 P (Xn+1 = x1 |Xn = x2 ) P (Xn+1 = x2 |Xn = x2 ) . . . P (Xn+1 = xm |Xn = x2 ) 
 
 . . . . . 
P= 

 . . . . . 

 . . . . . 
P (Xn+1 = x1 |Xn = xm ) P (Xn+1 = x2 |Xn = xm ) . . . P (Xn+1 = xm |Xn = xm )
 
P (x1 |x1 ) P (x2 |x1 ) . . . P (xm |x1 )
 P (x1 |x2 ) P (x2 |x2 ) . . . P (xm |x2 ) 
 
 . . . . . 
= 

 . . . . . 

 . . . . . 
P (x1 |xm ) P (x2 |xm ) . . . P (xm |xm )
où encore
 
P (x1 , x1 ) P (x1 , x2 ) . . . P (x1 , xm )
 P (x2 , x1 ) P (x2 , x2 ) . . . P (x2 , xm ) 
 
 . . . . . 
P= 

 . . . . . 

 . . . . . 
P (xm , x1 ) P (xm , x2 ) . . . P (xm , xm )

17
NB : La première écriture est appelée ériture conditionnelle tandis que la
deuxième est l’écriture conventionnelle.

2.2.3 Représentation graphique d’une chaı̂ne de Markov


L’évolution d’une chaı̂ne de Markov peut être représentée graphiquement sous
la forme d’un graphe orienté G ayant pour sommet les points i et pour arêtes les
couples orientés (i, j). Le graphe est donc défini à partir d’un ensemble d’états
et d’une matrice de transition. Les noeuds du graphe représentent les états
possibles dans une chaı̂ne de Markov, et les flèches représentent les transitions
d’un état à un autre.

2.2.4 Théorème de Chapman-Kolmogorov


Exemple 1. (Chaı̂ne à deux états) : Etat d’une ligne de téléphone

Considérons l’état d’une ligne de téléphone Xn = 0 si la ligne est libre à l’instant


n, et Xn = 1 si la ligne est occupée. Supposons que sur chaque intervalle de
temps, il y a une probabilité p qu’un appel arrive (un appel au plus). Si la
ligne est déjà occupée, l’appel est perdu. Supposons également que si la ligne est
occupée au temps n, il y a une probabilité q qu’elle se libère au temps n + 1.
Cherchons la matrice de transition de ce processus stochastique.
Solution : On peut alors modéliser une chaı̂ne de Markov à valeurs dans E =
{0, 1}, et ayant pour matrice de transition
   
P (0|0) P (1|0) 1−p p
P= =
P (0|1) P (1|1) q 1−q

où P (0|0) désigne la probabilité qu’à l’instant n + 1, la ligne soit libre sachant
qu’elle était également libre à l’instant n ;
P (0|1) est la probabilité qu’à l’instant n + 1, la ligne soit libre sachant qu’elle
était occupée à l’instant n ;
P (1|0) est la probabilité qu’à l’instant n + 1, la ligne soit occupée sachant qu’elle
était libre à l’instant n ;
P (1|1) est la probabilité qu’à l’instant n + 1, la ligne soit occupée sachant qu’elle
était également occupée à l’instant n.
Exemple 2. (Chaı̂ne à trois états) : File d’attente simple

On modifie l’exemple précédent en supposant qu’on peut mettre un appel en


attente. Les appels arrivent et la ligne se libère comme avant. Si un appel arrive
pendant que la ligne est occupée et si le système n’est pas saturé, l’appel est mis
en attente. Si un appel arrive alors qu’il y a déjà un en attente, il est perdu.
Déterminons la matrice de transition de ce processus stochastique.
Solution : L’espace d’état est E = {0, 1, 2} et Xn = 2 si on peut mettre
un appel qui arrive en attente. Le cas où il y a exactement un appel retenu
au temps n est un peu plus délicat. En effet, la situation ”l’appel se termine

18
et pas d’appel nouveau arrive” correspond à P (0|1) = q(1 − p) ; et P (2|1) =
p(1 − q) est lorsqu’un appel nouveau arrive et celui en cours continue. Comme
P (1|0) + P (1|1) + P (1|2) = 1, on trouve finalement
   
P (0|0) P (1|0) P (2|0) 1−p p 0
P =  P (0|1) P (1|1) P (2|1)  =  q(1 − p) 1 − q(1 − p) − p(1 − q) p(1 − q) 
P (0|2) P (1|2) P (2|2) 0 q 1−q
Comme exemple d’interprétation, P (2|1) est la probabilité qu’un appel soit en
attente à l’instant n + 1 sachant que la ligne était occupée à l’instant n.
Soit πn la loi (distribution) de probabilité de la variable aléatoire Xn . πn est
encore la distribution de probabilités d’états pour une chaı̂ne de Markov.
Théorème 3. : (Chapman-Kolmogorov)
Soit Xn [E, P, π0 ], une chaı̂ne de Markov homogène. Alors la distribution à l’ins-
tant n est donnée par la formule : πn = πn−1 P = πn−2 P2 = ... = π0 Pn

2.2.5 Etats possibles d’une chaı̂ne de Markov


Définition 8. On appelle état accessible à partir de l’état xi ∈ E tout état
xj ∈ E d’une chaine de Markov tel que il existe un entier n, (P (Xn+1 = xj |Xn =
xi ))n > 0. Deux états mutuellement accessibles l’un à partir de l’autre sont dits
communicants.
Définition 9. Désignons par Tij le temps de premier passage de l’état xi à
l’état xj (ou temps de premier retour en dans une chaı̂ne de Markov discrète :
Tij = min{k, Xk = xj |X0 = xi }
Si i = j alors Ti est le temps de premier retour en xi .
1) L’état xi est dit état récurent si p(Tij < ∞) = 1
Les états récurent sont dits aussi persistants. Un état récurrent est donc visité
un nombre infini de fois.
2) xi est dit transitoire si p(Tij < ∞) < 1
Une chaı̂ne dont tous les états sont récurrents est dite récurrente ; une chaı̂ne
dont tous les états sont transitoires est dite transiente.
Définition 10. Un état xj ∈ E est absorbant si la probabilité de rester dans cet
état lorsqu’on y parvient est 1 (P (Xn+1 = xj |Xn = xj ) = 1 )
Définition 11. Une chaı̂ne est dite irréductible si tout état est accessible à
partir de n’importe quel autre état, avec une probabilité non nulle.
Remarque 1. – Toute chaı̂ne possédant un état absorbant n’est pas irréductible.
– Les états périodiques sont des états qui ne sont atteints que périodiquement.
– Si tous les états d’une chaı̂ne sont communicants mutuellement, alors elle est
irréductible.

2.2.6 Calcul du temps moyen de retour en xj ∈ E


Définition 12. La probabilité de première transition en n unités de temps, de
(n)
l’état xi à l’état xj , notée fij , est définie par :

19
(n)
fij = P (Tj = n|X0 = xi ) = P (Xn = xj , Xn−1 6= xj , ..., X1 6= xj |X0 = xi )
(n)
fii est la probabilité de premier retour à l’état xi en n unités de temps.
Théorème 4. xi est récurrent si et seulement si ∞
P (n)
n=1 fii = 1
xi est transitoire si et seulement si ∞
P (n)
n=1 fii < 1
Définition 13. 1) On appelle temps moyen de retour en xj , la quantité :
P (n)
µj = E(Tj |X0 = xj ) = n npjj
2) Un état xj est récurrent positif (ou non nul) s’il est récurrent et si le temps
moyen µj de retour est fini. Dans le cas où le temps moyen de retour est infini,
l’état est dit récurrent nul.

2.2.7 Comportement asymptotique des chaı̂nes de Mar-


kov homogènes
Définition 14. Un vecteur de probabilités υ = (υ1 , ..., υm ) sur E (les coéfficients
de υ sont positifs et de somme 1) est dit vecteur de probabilités invariant (dis-
tribution invariante ou vecteur de probabilités d’équilibre), pour la chaı̂ne de
matrice de transition P, si υ est un vecteur propre à gauche de valeur propre 1
(υ = υP).
Remarque 2. On voit que si υ est un vecteur de probabilités invariant et si
l’état initial de la chaı̂ne X0 suit la loi υ, alors Xn suit également la loi υ pour
tout n (puisque la loi de Xn est υPn = υ).
Proposition 2. Il existe toujours un vecteur de probabilités invariant dans un
processus stochastique markovien à dimension fini.
Les résultats suivants donnent les conditions d’unicité de ce vecteur de proba-
bilités invariant.
Lemme 1. Soit (Xn )n∈N une chaı̂ne de Markov sur un espace à m éléments
et ayant pour matrice de transition P. On suppose que les coéfficients de P
sont tous strictement positifs. Alors il existe un unique vecteur de probabilités
invariant υ = (υ1 , ..., υm ) telle que quelque soit la distribution initiale de la
chaı̂ne π0 , Xn converge en loi vers υ quand n tend vers +∞.
Théorème 5. Soit (Xn )n∈N une chaı̂ne de Markov sur un espace d’état fini et
ayant pour matrice de transition P. On suppose qu’il existe un entier k pour
lequel les coéfficients de Pk sont tous strictement positifs (P est dite régulière).
Alors il existe un unique vecteur de probabilités invariant υ tel que quelque soit
la distribution initiale de la chaine π0 , Xn converge en loi vers υ quand n tend
vers +∞ (i.e, ∀i, j ∈ E, lim P (Xn = j|X0 = i) = υj ).
n→+∞
La matrice P est alors dite régulière.
Preuve : Considérons une loi initiale π0 , fixons r ∈ {0, 1, ..., k} et notons π0 u =
π0 Pr . On a π0 Pkm+r = π0 Pkm , et d’après le lemme ci-dessus, π0 Pkm+r converge
vers υ quand m tend vers +∞. Puisque cette limite ne dépend pas de r (quelque
soit la distribution initiale), Xn converge en loi vers le vecteur propre probabilité
(à gauche) associé à la valeur propre 1 de Pk .

20
Définition 15. Une chaı̂ne de Markov homogène Xn [E, P, π0 ] est dite station-
naire si la distribution n’évolue pas dans le temps. Dans ce cas, π0 est une
distribution invariante (ou stationnaire) de cette chaı̂ne.

Théorème 6. 1) On pose π = (π1 , π1 , ..., πi , ...) une distribution stationnaire,


avec πi = p(X∞ = xi ).
Alors pour tout état récurrent xi : πi = µ1i ,
où µi est le temps moyen de retour à xi .

2) Une chaı̂ne transiente infinie n’admet pas de distribution stationnaire.

3)Si la chaı̂ne est irréductible, elle possède une distribution stationnaire unique
π = ( µ1i )xi ∈E si et seulement si tous les états sont récurrents positifs.

4) Toute distribution limite π ∗ d’une chaı̂ne, si elle existe, est l’unique distri-
bution stationnaire, nécessairement portée par les états récurrents.

Définition 16. :(Propriétés d’Ergodicité d’une chaı̂ne de Markov)


1) Si lim Pn = P∞ où P∞ est une matrice stochastique ne possédant aucun
n→+∞
élément nul, on dit que le système est ergodique, ou qu’il est stable en probabilité,
ou encore qu’il possède un régime permanent, et est dite matrice ergodique.
2) Un état récurrent positif et apériodique est dit ergodique.
3) Une chaı̂ne irréductible, apériodique et récurrente positive est dite ergodique.

Théorème 7. (Chacon-Ornstein)
Toute chaı̂ne ergodique possède une distribution limite unique π ∗ = (πi∗ )i qui
s’identifie à l’unique distribution stationnaire π = (πi )i de la chaı̂ne ;
(n)
∀xi ∈ E, lim pi = πi∗ = πi = 1
µi
, où π = πP.
n→+∞

Remarque 3. – Il existe plusieurs situations où les chaı̂nes de Markov tendent


vers un équilibre du système ; c’est à dire une chaı̂ne dont la distribution
évolue et se stabilise à partir d’un certain rang.
– Etant donnée une chaı̂ne de Markov (Xn )n∈N de matrice de transition P, on
cherche à étudier le comportement de la ditribution de Xn quand n → +∞.
Ce qui revient à étudier la suite de matrice (Pn )n∈N .
Exemple 3. Reprenons le phénomène aléatoire précédent sur la ligne téléphonique
de matrice de transition
 
1−p p
P=
q 1−q

avec 0 < p et q < 1. On cherche alors une expression simplifiée de Pn pour


calculer facilement sa limite.
On peut diagonaliser P et on montre que ses valeurs propres sont 1 et 1 − p − q.
On a alors D = Q−1 PQ avec

21
     
1 −p −1 q/(p + q) p/(p + q) 1 0
Q= ;Q = ;D = .
1 q −1/(p + q) 1/(p + q) 0 1−p−q
Par ailleurs Pn = (QDQ−1 )n = QDn Q−1 ; et un calcul simple donne
 
n (q + p(1 − p − q)n )/(p + q) (p − p(1 − p − q)n )/(p + q)
P =
(q − q(1 − p − q)n )/(p + q) (p + q(1 − p − q)n )/(p + q)

Comme |1 − p − q| < 1, on voit que


 
q/(p + q) p/(p + q)
n
lim P = = P∞
n→+∞ q/(p + q) p/(p + q)

2.2.8 Exemple d’application


On dispose d’une parcelle de terrain dont les végétations potentielles sont :
herbe (h), arbuste (a) et forêt (f). On observe régulièrement la végétation après
chaque trois ans ; et on obtient alors les informations suivantes sur la parcelle
de terrain :
– S’il y a de l’herbe, 3 ans plus tard, on aura une végétation composée de 50
pour cent d’herbe, 45 pour cent arbuste et 5 pour cent de forêt.
– S’il y a des arbustes, 3 ans plus tard, on aura 10 pour cent d’herbe, 50 pour
cent d’arbuste et 40 pour cent de forêt.
– S’il y a de la forêt, 3 ans plus tard, on aura 10 pour cent d’arbuste et 90 pour
cent de forêt.
1. Donner l’ensemble E des états de ce processus Markovien.
2. Montrer que la matrice de passage de l’instant initial à l’instant suivant
est  
0.5 0.45 0.05
P0 =  0.1 0.5 0.4 
0 0.1 0.9
3. On suppose que l’évolution de cette végétation peut être modélisée par une
chaine de Markov homogène de distribution initiale π0 (h, a, f ) = (1, 0, 0).
Calculer π1 , π2 , π3 .
4. On suppose que ∀n ≥ 25,
 
0.0377 0.1887 0.7736
Pn =  0.0377 0.1887 0.7736 
0.0377 0.1887 0.7736

Montrer alors qu’au bout de 75 ans, la distribution se stabilise autour de


π∞ = (0.0377, 0.1887, 0.7736).

22
2.3 Processus de Poisson
2.3.1 Exemple introductif : Arrivées d’appels dans une
centrale téléphonique
On suppose que le processus d’arrivée des appels est constitué d’un ensemble
de processus ponctuels indépendants entre eux et de comportement identiques
au cours du temps ; c’est l’hypothèse couramment avancée à l’entrée des cen-
traux et des grands réseaux de télécommunications lorsqu’on peut négliger les
renouvellements d’appels.
Les hypothèses d’un tel processus sont les suivantes : considérons un intervalle
de temps [t0 ; t0 + t], compté à partir d’une origine t0 arbitraire.
On se propose de déterminer la probabilité Pn (t) que n appels se
produisent pendant le temps t sachant que :
1. Pn (t) ne dépend pas de l’origine des temps.
2. La probabilité qu’un appel se produise pendant le temps dt est propor-
tionnelle à ∆t.
3. La probabilité qu’un appel se produise plus d’une fois pendant dt est prati-
quement nulle (l’on exclut l’accumulation d’appels en un temps très court).
Soit :
P1 (∆t) = λ∆t ; P2 (∆t) = P3 (∆t) = ... = Pn (∆t) = 0.
4. Si I1 et I2 sont des intervalles de temps disjoints ; les deux évènements :
A = {k appels se produisent pendant I1 } et
B = {l appels se produisent pendant I2 } sont deux évènements indépendants.

2.3.2 Définitions
Lorsque dans un processus stochastique les dates de transitions sont imprévisibles,
elles sont modélisées par des variables aléatoires poissoniennes (processus de
Poisson). On remarque que le processus de Poisson au niveau des carrefours à
feux est caractérisé par le mode selon lequel s’effectuent les arrivées au sein de
ces systèmes.
Le processus de Poisson est donc un processus de comptage ; ainsi à tout instant
t il associe une variable aléatoire Nt qui compte les évènements apparus entre
l’origine des temps et t. Le nombre d’appels sur une ligne téléphonique entre t0
et t0 + t, le nombre de noyaux atomiques désintégrés dans un corps radioactif
entre t0 et t0 + t, ou l’entrée d’un service public tel qu’un guichet d’un magasin
donnent une idée du processus de Poisson.

2.3.3 Caractérisation du processus de Poisson : quatre


conditions
1. Le processus ainsi décrit est homogène dans le temps ; donc les probabilités
de transitions sont constantes.

23
2. Le processus est additif à accroissement indépendants : étant donnés deux
intervalles de temps disjoints, le nombre des événements qui se produisent
dans l’un est indépendant du nombre des événements qui se produisent
dans l’autre (les nombres d’évènements dans des intervalles de temps dis-
joints sont indépendants).
3. La probabilité pour que deux événements se réalisent en même temps est
négligeable devant la probabilité de réalisation d’un seul.
4. On doit écarter le cas des probabilités de transition nulles, ou égales à 1.

2.3.4 La matrice de transition


Désignons par Nt le nombre d’événements qui peuvent se produire pendant
l’intervalle [0, t]. Mathématiquement les conditions précédentes peuvent être
résumées par : p(Nt+∆t − Nt > 0/Nt = n) = λ∆t + O(∆t),
p(Nt+∆t − Nt > 1/Nt = n) = O(∆t) ; pour tout n et 0 < λ < 1
où O(∆t) est un infiniment petit et ∆t le laps de temps constant d’observations
des arrivées.
Si ∆t tend vers 0, on peut écrire de façon plus simple :
p(Nt+∆t − Nt = 1/Nt = n) = λ∆t + O(∆t) : C’est la probabilité d’apparition
d’un individu pendant l’intervalle ∆t, sachant qu’il existe déjà n individus au
sein du système ;
et p(Nt+∆t − Nt = 0/Nt = n) = 1 − λ∆t + O(∆t) : C’est la probabilité qu’il n’y
ait aucune apparition dans l’intervalle ∆t, sachant qu’il y en a eu déjà n.
Le processus de Poisson peut alors être défini comme un processus markovien
dont la matrice de transition est la matrice tridiagonale :
 
1 − λ∆t λ∆t 0 ... 0 0 ...

 0 1 − λ∆t λ∆t ... 0 0 ... 


 0 0 1 − λ∆t ... 0 0 ... 

P=  ... ... ... ... ... ... ... 


 0 0 0 ... 1 − λ∆t λ∆t ... 

 0 0 0 ... ... 1 − λ∆t ... 
... ... ... ... ... ... ...

2.3.5 Les équations régissant l’évolution du système


Posons Pk (t) = p(Nt = k) la probabilité que k évènements arrivent dans un
intervalle de temps de longueur t.
Pour obtenir les équations du futur, il suffit de multiplier la matrice de transition
précédente par le vecteur [P0 (t), P1 (t), P2 (t), ..., Pn (t)]. On obtient donc :
0 0
P0 (t) = −λP0 (t) et Pn (t) = −λPn−1 (t) − λPn (t) pour tout n > 0.
0
P0 (t) 0
La première équation donne : d’où P0 (t) = e−λt + C
P0 (t)
−λt
On obtient P0 (t) = e car P0 (0) = 1

24
Pour n = 1 la deuxième équation donne :
0
P1 (t) = −λP0 (t) − λP1 (t) = λe−λt − λP1 (t)
Cette équation différentielle donne P1 (t) = k(t)e−λt ; et par variation de la
0
constante k (t) = λ. Comme k(t) = 0, on obtient P1 (t) = λte−λt
n
Par conjecture on a Pn (t) = (λt)n!
e−λt pour tout n > 0.
C’est la probabilité d’occurrence de n événements dans l’intervalle [0, t] et
vérifiant les conditions 1 à 4 précédentes. C’est la loi de probabilité du
processus de Poisson.
On dit alors que le processus stochastique est un processus de Poisson d’intensité
λ. Ainsi, le paramètre λ représente le nombre moyen d’arrivées par unité de
temps (taux d’arrivée).
NB : On prouve aussi ce résultat par récurrence sur n et en utilisant les condi-
tions ( de caractérisation de la loi de poisson ) précédentes.
Théorème 8. (Equation d’équilibre au régime stationnaire du pro-
cessus de poisson)
La distribution stationnaire π = (π1 , π2 , .., πn , ...) est solution de l’équation
d’équilibre π.P = 0
Remarque 7. 1) Un processus de Poisson non homogène est un processus de
comptage d’intensité λ(t) fonction du temps.
2) Le processus de Poisson non homogène de paramètre λ(t) = ( αt )β , α, β > 0 ;
est le processus de Weibull.

2.3.6 Conclusion
Dans ce chapitre nous avons introduit les modèles mathématiques nécessaires
pour l’étude du formalisme des files d’attente telles que : les chaı̂ne de Mar-
kov, processus de Poisson. Il est possible d’étudier ce formalisme de plusieurs
manières, en le considérant soit comme une discipline abstraite de mathématique
appliquées, soit comme un outil mathématique utile pour analyser ou évaluer
le comportement d’un système d’attente.

25
2.4 Travaux Dirigés
Exercice 1. 1. Montrer que le produit de deux matrices stochastiques (de
même taille) est encore une matrice stochastique.
2. Montrer que toutes les valeurs propres d’une matrice stochastique ont un
module inférieur ou égal à 1.
3. Une matrice P est bistochastique si la somme de chaque ligne et de chaque
colonne est égale à 1. Montrer que dans ce cas, une telle chaine de Markov
ne possède que des états persistants.
4. Montrer que la matrice stochastique d’une chaı̂ne de Markov ayant un état
absorbant, ne peut pas être régulière.
5. Montrer que toute chaı̂ne de Markov irréductible et apériodique admet une
unique distribution invariante et qui est indépendante de la distribution
initiale.

Exercice
 2.On considère une chaı̂ne de Markov de matrice stochastique
0 1
P= ;
1 0
1. Montrer que cette chaı̂ne est irréductible mais périodique de période 2.
2. Montrer alors que lim Pn n’existe pas.
n→+∞
3. Montrer que cette chaine de Markov ne possède qu’une distribution inva-
riante ( 21 ; 12 ), et qui rend le processus stationnaire dès le départ.

Exercice 3. Une boulangerie dispose d’un seul vendeur. On suppose que l’ar-
rivée de sa clientèle décrit l’évolution d’un phénomène aléatoire à travers une
suite de variables aléatoires réelles (Xn )n∈N . Ainsi, Xn = 0 signifie que le ven-
deur est libre à l’instant n, et Xn = 1 signifie que le vendeur est occupé à
l’instant n. Supposons que sur chaque intervalle de temps, la probabilité qu’un
client arrive est q (un patient au plus), et doit rentrer si le vendeur est déjà
occupé. Supposons également que si le vendeur est occupé à l’instant n, il y a
une probabilité p qu’il se libère à l’instant n + 1.
1) Evaluer la matrice de transition P de cette chaı̂ne de Markov ainsi modélisée.
2) Etudier son
 comportement asymptotique  en vérifiant que :
p/(p + q) q/(p + q)
lim Pn = ; avec 0 < q et p < 1.
n→+∞ p/(p + q) q/(p + q)

Exercice 4. 1. On considère une chaı̂ne de Markov homogène de matrice de


transition
0 21 12 0
 
 0 1 0 0 
P=  0 0 0 1 

0 0 1 0
Montrer que P admet une infinité de vecteurs de distribution invariante.

26
1 3 1 3 9
   
4
0 4 4 10 20
1 1 1  telle que lim Pn =  1 3 9 
2. On suppose que P =  4 4 2 4 10 20
1 1 1 n→+∞ 1 3 9
4 2 4 4 10 20
– Soient deux distributions initiales π0 = (1, 0, 0) et π0∗ = ( 41 , 10
3 9
, 20 ). Mon-
trer que Xn [E, P, π0 ] n’est pas une chaine stationnaire et que Xn [E, P, π0∗ ]
est stationnaire.
– En déduire une distribution invariante de P.

Exercice 5. Doudou le paresseux.


Doudou, le paresseux, ne connait que trois endroits dans sa cage : (i) les copeaux
où il dort ; (ii) la mangeoire où il mange ; (iii) la roue où il s’amuse. Ses journées
sont assez semblables les une saux autres, et son activité se modélise aisement
par une chaı̂ne de Markov homogène. Toutes les minutes, il peut soit changer
d’activité, soit continuer celle qu’il était entrain de faire.
– Quand il dort, il a 9 chances sur 10 de ne pas se reveiller la minute suivante.
Et lorsqu’il se reveille, il y a 1 chance sur 2 qu’il aille manger et 1 chance
sur 2 qu’il parte s’amuser.
– Le repas ne dure qu’une minute, après il fait autre chose. Ainsi, après avoir
manger, il y a 3 chances sur 10 qu’il parte s’amuser dans la roue, mais surtout
7 chances sur 10 qu’il retourne dormir.
– Quand il s’amuse, il y a 8 chances sur 10 qu’il retourne dormir au bout d’une
minute. Sinon il continue à s’amuser.
On suppose que l’état initial de la distribution est π0 = (a, b, c) (c’est à dire
qu’au début des observations, on avait a pour cent de chance de trouver Doudou
entrain de dormir, b pour cent de chance de trouver Doudou entrain de manger
et c pour cent de chance de trouver Doudou entrain de s’amuser).
1. Donner l’ensemble E des états, ainsi que la matrice de transition de ce
processus Markovien .
2. Quelles sont les chances de trouver Doudou entrain de dormir, manger
ou s’amuser, respectivement après une et deux minutes dès le début de
l’observation de ce dernier ?
3. Retrouver de deux manières différentes la distribution initiale suivante
π0∗ = (0.884, 0.0442, 0.0718) qui rend la chaı̂ne Xn [E, P, π0∗ ] stationnaire.

Exercice 6. Modélisation d’un brin d’ADN


La modélisation incomplète la plus simple d’un brin d’ADN, enchainement
“désordonné“ de nucleotides de l’un des 3 types adenine (a), cytosine (c) et
guanine (g), est de le considérer comme une trajectoire d’une chaı̂ne de Markov
homogène (Xn )n∈N à trois états E = {a, c, g} dont la matrice de transition P
fournit les probabilités que l’un de ces états succède à un autre. Si le pas de
temps entre chaque observation est 3 minutes, on obtient alors les informations
suivantes :
- Si c’est de l’adenine, 3 minutes plus tard notre brin d’ADN sera constitué de
50 pour cent d’adenine, 45 pour cent de cytosine et 5 pour cent de guanine.

27
- Si c’est de la cytosine, 3 minutes plus tard notre brin d’ADN sera constitué
de 10 pour cent d’adenine, 50 pour cent de cytosine et 40 pour cent de guanine.
- Si c’est de la guanine, 3 minutes plus tard notre brin d’ADN sera constitué
de 10 pour cent de cytosine et 90 pour cent de guanine.
1. Donner alors la matrice de transition P de passage d’un instant à l’autre.
2. On suppose que l’état initial de la distribution de probabilité est
π0 = (1, 0, 0). La distribution à l’instant n étant donnée par la formule
πn = πn−1 P = π0 Pn pour n ≥ 1,
– i) Calculer les distributions au bout de 3mn, 6mn, 75mn, 78mn et 81mn,
correspondant respectivement à π1 , π2 , π25 , π26 , π27 ; sachant que
 
0.0377 0.1887 0.7736
P25 =  0.0377 0.1887 0.7736 
0.0377 0.1887 0.7736

– ii) En déduire alors la matrice lim Pn


n→+∞

3. En déduire que Xn [E, P, π0∗ ] est stationnaire ; avec π0∗ = (0.0377, 0.1887, 0.7736).

Exercice 7. L’évolution de la végétation sur une parcelle de terrain présente


quatre types de végétation : sol nu (sn), herbe (h) arbuste (a) et forêt (f ) ; et est
considérée comme une trajectoire d’une chaı̂ne de Markov homogène (Xn )n∈N à
quatre états E = {sn, h, a, f }. On suppose que le pas de temps entre deux ob-
servations est de 3 ans et que les probabilités que l’un de ces états succède à un
autre sont évaluées grace à des analyses biologiques et conduisent à la matrice
de transition P.
 
1 0 0 0
 1 0 1 0 
P= 2 2 
 0 1 0 1 
2 2
0 0 0 1
On suppose que l’état initial de la distribution de probabilité de la végétation est
π0 = (a, b, c, d) (c’est à dire qu’au début des observations, la parcelle de terrain
était constitué d’une proportion a de sol nu, b d’herbe, c d’arbuste et d de forêt).
1. Calculer les distributions de la végétation sur la parcelle au bout de 3 ans,
6 ans.  
1 0 0 0
 2 0 0 1 
2. On suppose que lim Pn =  3 3 
 1 0 0 2  ; Calculer n→+∞ lim πn .
n→+∞
3 3
0 0 0 1
3. Trouver les constantes a, b, c, d pour que la chaı̂ne Xn [E, P, π0 ] soit station-
naire.

28
Exercice 8. Un patient qui arrive dans un cabinet médical est dirigé vers une
salle d’attente. S’il y a déjà 3 personnes qui attendent, le patient découragé
repart immédiatement. Un médecin est présent en dans ce cabinet. Le médecin
vient toutes les 20 mn dans la salle d’attente pour voir s’il y a des patients en
attente. Si c’est le cas, il prend en consultation l’un des patients, sinon il revient
20 mn plus tard. On supposera qu’une consultation ne dure pas plus de 20 mn.
On discrétise le temps en intervalles de temps de durée 20 mn. On note X0
le nombre de personnes dans la salle d’attente à l’instant t0 et Xn le nombre
de personnes qui sont dans la salle d’attente lorsque les médecins arrivent à
l’instant tn dans la salle d’attente. On peut alors montrer que la suite (Xn)n est
1 1

2 2
0 0
 1 1 0 0 
une chaı̂ne de Markov homogène de matrice de transition P =  1 21 1 1 
 2

4 4 4 4
0 0 0 1
1. Déterminer l’ensemble des états E de cette chaı̂ne de Markov.
2. Calculer les distributions π1 , π2 et π3 lorsque π0 = (1, 0, 0, 0).
En déduire que la chaı̂ne Xn [E, P, π0 ] n’est pas stationnaire.
3. Trouver une distribution initiale invariante π0∗ laquelle la chaı̂ne Xn [E, P, π0∗ ]
est stationnaire.
4. Montrer que la chaı̂ne admet un état absorbant que l’on précisera.
5. En déduire lim Pn
n→+∞

Exercice 9. Dans un certain pays, il ne fait jamais beau deux jours de suite.
Si un jour il fait beau(BT), le lendemain il peut neiger(N) ou pleuvoir(PL) avec
autant de chances. Si un jour il pleut ou il neige, il y a une chance sur deux
qu’il y ait changement de temps le lendemain, et s’il y a changement, il y a une
chance sur deux que ce soit pour du beau temps.
1. Former, à partir de celà, une chaı̂ne de Markov (en précisant l’espace des
états) et en déterminer sa matrice de transition.
2. Si un jour il fait beau, quel est le temps le plus probable pour le surlende-
main ?
3. On suppose que l’on a que deux états (beau temps et mauvais temps).
– a) Déterminer la matrice de transition de la nouvelle chaı̂ne ainsi obte-
nue.
– b) Montrer que la chaı̂ne admet un état absorbant que l’on précisera.
– c) Montrer que la chaı̂ne peut tendre vers un système d’équilibre (On
pourra si possible calculer lim Pn ).
n→+∞

Exercice 10. Un individu vit dans un environnement où il est susceptible d’être
contaminé par une maladie. Son état de santé est suivi mensuellement. Pour un
mois donné m, trois états sont possibles : Il peut etre immunisé (état I), malade
(état M), non malade et non immunisé (état S).
D’un mois m au mois suivant m+1, son état peut évoluer selon les règles
épidémiologiques suivantes :

29
– étant immunisé au mois m, il peut, au mois m+1, être encore immunisé avec
une probabilité 0, 9 ou passer à l’état S avec une probabilité 0,1
– étant malade au mois m, il peut, au mois m+1, être encore malade avec une
probabilité 0,2 ou passer à l’état immunisé avec une probabilité 0,8
– étant en l’état S au mois m, il peut, au mois m+1, être encore en l’état S
avec une probabilité 0,5 ou passer à l’état malade M avec une probabilité 0,5.
1. Ecrire la matrice A qui résume les probabilités de transition entre le mois
m et le mois m+1.
2. En supposant le processus homogenement Markovien, calculer les probabi-
lités pour qu’un individu soit dans l’état e au mois m+2, e = I ou M ou
S, sachant avec certitude qu’il était immunisé au mois m.
3. Quelle distribution initiale rend le processus stationnaire ?

Exercice 11. Une application économique des chaı̂nes de Markov


La plupart des entreprises qui émettent des obligations sont notées par des
agences de notations (Moody’s ou Standard and Poors). Les notes peuvent etre
sous la forme AAA, BBB, CCC ; du plus sûr au plus risqué. Après plusieurs
évaluatios mensuelles, on a constaté que cela obéissait à un processus Markovien
homogène de matrice de transition (en pourcentage) :
 
90.81 8.33 0.86
P =  0.70 90.65 8.65 
0.09 2.27 97.64

On rappelle que c’est l’agrégation des capacités (ou crédibilités) de solvabilité des
entreprises d’un pays vis à vis de leurs bailleurs de fonds (Institutions financières
qui prêtent de l’argent aux entreprises).
On s’interresse à la situation financière actuelle de l’Allemagne dont le processus
de mesure de crédibilité obéit à un algorithme généré par la matrice P.
On suppose qu’à l’instant n = 0(janvier 2013), l’état initial des notes attribuées
à l’Allemagne était π0 = (1, 0, 0) (c’est à dire qu’en janvier, ce pays avait une
probabilité certaine d’avoir le triple A (AAA) ; indicateur d ’une tres bonne
santé économique du pays.
1. Donner l’ensemble E des états possibles de ce processus Markovien de no-
tations .
2. A quelles période (préciser le mois et l’année) l’Allemagne perdra t-elle son
son triple A ? (cette situation se produit lorsqu’il existe une distribution où
un état est plus probable que l’état AAA ).
3. Trouver une distribution initiale π0∗ pour que l’Allemagne garde son triple
A quelque soit l’ampleur de la crise financière mondiale qui sévit actuelle-
ment.
4. Reprendre les questions précédentes (avec π0 = (1, 0, 0, 0, 0, 0, 0, 0)) si les
notes sont de la forme AAA, AA, A, BBB, BB, B, CCC, Défaut ; du plus

30
sûr au plus risqué, sachant que cela obéissait à un processus Markovien
homogène de matrice de transition (en pourcentage) :
 
90.81 8.33 0.68 0.06 0.12 0.00 0.00 0.00
 0.70 90.65 7.79 0.64 0.06 0.14 0.02 0.00 
 
 0.09 2.27 91.05 5.52 0.74 0.26 0.01 0.06 
 
 0.02 0.33 5.95 86.93 5.30 1.17 0.12 0.18 
P=  0.02 0.14 0.67 7.73 80.53 8.84 1.00 1.06 

 
 0.00 0.11 0.24 0.43 6.48 83.46 4.08 5.20 
 
 0.22 0.00 0.22 1.30 2.38 5.00 64.85 19.79 
0.00 0.00 0.00 0.00 0.00 0.00 0.00 100

Exercice 12. Soit X(t) un processus aléatoire défini de la manière suivante :


– Il ne prend que deux valeurs 0 ou 1.
– Les instants de transition suivent une loi de poisson. Ainsi la probabilité n
d’avoir n transitions pendant le temps t est donnée par : Pn (t) = (λt) n!
e−λt
où λ > 0 est le nombre moyen de transition par unité de temps.
A l’origine, le processus vaut 0 avec la probabilité p et 1 avec la probabilité 1 − p.
1. Montrer que E(X(t)) = λt.
2. A quelle condition E(X(t)) est-il indépendant de t.
3. On suppose que la condition précédente est remplie :
Calculer E[X(t)X(t + τ )].

Exercice 13. Un serveur informatique envoie des messages selon un processus


de Poisson. En moyenne, il envoie un message toutes les 30 secondes.
1. Quelle est la probabilité que le serveur n’envoie aucun message au cours
des 2 premières minutes de sa mise en service ?
2. Quelle est la probabilité que le serveur n’ait pas envoyé de message durant
la première minute, sachant qu’il a envoyé 3 messages au cours des 3
premières minutes ?
3. Quelle est la probabilité pour qu’il y ait moins de 3 messages au cours des
2 premières minutes, sachant qu’il y en a eu au moins 1 au cours de la
première minute ?
4. Quel est le temps moyen de l’envoi du second message ?
5. Rappeler la nature de loi suivie par la durée du temps T aléatoire qui
sépare deux envois consécutifs (temps inter-arrivées). Exprimer sa densité
de probabilité fT .
6. En déduire la probabilité pour que la durée entre deux envois successifs soit
inférieure ou égale à 3 minutes.

Exercice 14. Des clients arrivent dans un magasin au rythme moyen λ = 3 par
unité de temps. On suppose que le nombre de clients arrivant N (t) pendant une
n
durée t suit une loi de Poisson donnée par : Pn (t) = P (N (t) = n) = (λt)
n!
e−λt
pour tout n ≥ 0.

31
1. Calculer la probabilité qu’il arrive un seul client dans l’intervalle de temps
[0; 2].
2. Calculer la probabilité qu’il n’arrive aucun client sur une durée de 5 unités
de temps.
3. Calculer la probabilité pour que, dans 2 intervalles disjoints ayant chacun
une durée de 2 unités de temps, il arrive exactement au total 2 clients.

Exercice 15. Sur une route à sens unique, l’écoulement des voitures peut être
décrit par un processus de Poisson d’intensité λ = 16 par seconde.
1. Calculer la probabilité pour que, dans deux périodes de 6 secondes, dis-
jointes, on compte deux voitures.
2. Un piéton qui veut traverser la route a besoin d’un intervalle d’au moins
4s entre deux voitures successives. Calculer la probabilité pour qu’il doive
attendre.
3. Un radar est placé sur cette route. On suppose qu’il passe en moyenne 5
véhicules en excès de vitesse par heure. Déterminer la probabilité qu’une
voiture ait été prise dans le premier 14 d’heure sachant que 2 ont été prises
en 1 heure.

32
Chapitre 3

INTRODUCTION AUX
MODÈLES DE FILES
D’ATTENTES

3.1 Position du problème


3.1.1 Introduction
La Théorie des files d’attente est une technique de la Recherche opérationnelle
qui permet de modéliser un système admettant un phénomène d’attente, de
calculer ses performances et de déterminer ses caractéristiques pour aider les
gestionnaires dans leurs prises de décisions. Ce domaine d’étude important des
processus stochastiques fournit un cadre mathématique efficace pour l’étude de
plusieurs phénomènes de congestion dans divers domaines d’application.
On parle de phénomène d’attente chaque fois que certaines unités appelées
“clients” se présentent d’une manière aléatoire à des “stations” afin de recevoir
un service dont la durée est généralement aléatoire. La théorie des files d’attente
est un formalisme mathématique qui permet de mener des analyses quantitatives
à partir de la donnée des caractéristiques du flux d’arrivées et des temps de
service.
Les files d’attente sont aujourd’hui des phénomènes que l’on rencontre quoti-
diennement dans de très nombreux domaines et sous diverses formes : queue à
un guichet, saturation d’un trafic routier, d’un réseau de télécommunications,
gestion d’un stock de production, maintenance d’un équipement informatique,
mouvements de populations, prévisions météorologiques, les systèmes militaires,
etc. De nombreux modèles stochastiques existent, reposant sur certaines hy-
pothèses adaptées au contexte en question. Le modèle le plus célèbre que nous
allons étudier ci-après, le plus simple et le plus utilisé de manière générale est un
modèle markovien ( M/M/1) qui repose sur l’absence de mémoire de certaines
occurrences.
D’innombrables questions se posent naturellement, afin d’optimiser la rentabi-
lité de certains services, de diminuer les attentes des différentes parties concernées

33
ainsi que les coûts associés s’il y a des dépenses de fonds. Par exemple, quel est
le temps passé par un client dans une file d’attente devant un guichet, quelle
est la longueur de la queue à un instant donné, quelle est la durée de repos
du serveur (c’est-à-dire lorsque la queue est vide avant l’arrivée d’un nouveau
consommateur), à quelle vitesse minimale devrait travailler le serveur pour ne
pas dépasser un seuil maximal de clients, combien de serveurs faudrait-il au
minimum pour éviter la saturation de la salle d’attente... ? Autant de ques-
tions auxquelles la théorie des chaı̂nes de Markov et des processus stochastiques
apportent des réponses plus ou moins explicites selon le modèle adopté.
L’objectif principal de ce chapitre est d’expliquer le phénomène d’attente, de
présenter les notions de base concernant les systèmes de files d’attente et de
définir les paramètres permettant de décrire les performances de tels systèmes.

3.1.2 Développement de la théorie


La littérature sur la théorie des files d’attente a connu une croissance exponen-
tielle au fil des années depuis le début du siècle dernier grâce aux mathématiciens :
danois A.K.Erlang avec ses travaux sur les réseaux téléphoniques et le russe A.A.
Markov avec la création des modèles markoviens. Ils observent le caractère pois-
sonnier des arrivées des appels à un central téléphonique, et le caractère expo-
nentiel des durées des appels. Le calcul de la probabilité d’avoir un appel rejeté
est élaboré ainsi que la notion d’équilibre stationnaire d’un système d’attente.
Les applications de ces travaux aux flux de trafic (véhicule, avion, personnes,
télécommunications), planification ( des patients dans les hôpitaux, les pro-
grammes d’un ordinateur) sont menés. Actuellement ce sont les applications
dans le domaine de l’analyse de performance des réseaux (téléphone mobile,
Internet, multimédia ) qui suscitent le plus de travaux.

3.1.3 Notations et définitions


Généralement une file d’attente est le donnée d’une (ou plusieurs) unités de
services où arrivent des clients qui demandent une certaine durée d’utilisation de
cette unité (le service demandé par les clients). Quand les clients peuvent accéder
à cette unité de service, ils patientent dans une file d’attente en attendant d’être
servis. La file d’attente peut éventuellement n’accepter qu’un nombre fini de
clients, dans ce cas les clients trouvant la file pleine,à leur arrivée, sont rejetés
par le système. Un client peut être servi pendant une certaines période puis
abandonné par le serveur. La charge de la file d’attente, est la somme de tous
les services résiduels de tous les clients présent ; Où le service résiduel d’un client
est la durée du service qu’il reste à effectuer, quand celui-ci est nulle, le client
qui la fille d’attente.
La charge de la file d’attente est la somme de tous les services résiduels de tous
les clients présents.

34
3.1.4 Constitution d’une file d’attente
Une file est composée de clients se succédant et demandant un service. Les clients
peuvent être des individus, des appels téléphoniques, des signaux électriques,
des véhicules, des accidents, des turbulences atmosphériques... et le service peut
être un serveur humain, un central téléphonique, un serveur informatique, un
péage autoroutier, une compagnie d’assurance, la météorologie nationale...
Une file d’attente se compose alors des éléments suivants :
– La population : C’est la source de clients potentiels. Elle peut être infinie
(clients des supermarchés, des banques, des restaurants, des cinémas, des
centres, d’appels, trafic urbain,... ) ou finie (le nombre de machines, d’avions,
en réparation dans un centre de maintenance )
– Le nombre de serveurs (ressources ) : La capacité de service dépend de la
capacité de chaque serveur et du nombre de serveurs disponibles. Le guichet
unique est une file à un serveur. Les serveurs sont en parallèle (Chaque client
ne requiert le service que d’un seul serveur et tous les serveurs sont capables
de fournir ce service) ou en série/cascade (Le client entrant au système doit
visiter plusieurs serveurs successifs dans un ordre fixe pour recevoir le service :
chaı̂ne de fabrication, circulation des dossiers dans une administration ) dans
le ca multi-serveurs ; ou en réseaux.
– Les tendances quant à l’arrivée et au service :
– L’ordre de traitement des clients :
– Une salle d’attente, c’est-à-dire un lieu où les clients attendent quand aucun
des serveurs n’est disponible pour les servir :
Tout système de file d’attente peut être représenté par le schéma suivant :

Figure 4 : Structure générale d’un système de file d’attente

3.2 comportement d’un système de files d’at-


tentes
3.2.1 Nomenclature de Kendall
David George Kendall a créé une notation pour décrire un système de file d’at-
tente. Elle se présente sous la forme d’un symbole A/S/P/K/D, où chacune

35
des lettres désigne une caractéristique de la file :
– A décrit la distribution de probabilité des temps entre les arrivées des clients.
C’est loi des inter-arrivées (durée entre deux arrivées successives)
– S décrit la distribution de probabilité du temps de service d’un client. C’est
la loi des durées de service des clients
– P représente le nombre de serveurs
– K représente la capacité de la file d’attente (finie ou infinie). C’est le nombre
maximum de clients qui peuvent être présents simultanément dans le système,
c’est-à-dire les clients en attente et les clients en service
– D décrit la discipline d’attente(ou politique de service), précisant comment
les clients sont servis : FIFO, LIFO, avec priorité, aléatoirement,...
NB : Plusieurs types de distributions sont possibles pour les temps d’arrivée et
les temps de service tel que la loi exponentielle (M=Markov), la loi constante
ou déterministe (D), la loi uniforme (U), la loi d’Erlang à n phases ( En ),...

3.2.2 Processus des arrivées


Les arrivées peuvent être régulières/déterministes ( une collection de réels po-
sitifs ) ou complètement aléatoires (processus stochastique ), individuelles ou
groupées, provenir de populations différentes ou se répartir en plusieurs files. Le
processus des arrivées est alors la collection des instants ou dates d’arrivée de
chaque client.
On appelle inter-arrivée la différence entre deux dates d’arrivées successives.
Lorsque les arrivées des clients sont indépendantes, les durées séparant deux
arrivées successives sont des variables aléatoires indépendantes et de même loi.
Les différentes formes du processus d’arrivées sont : arrivées régulières (les ins-
tants séparant deux arrivées successives sont constants et égaux à λ1 ), arrivée
Poissonnienne (les instants d’arrivées forment un processus de Poisson), arrivées
suivant une loi d’Erlang d’ordre k (C’est un processus où les arrivées sont Pois-
sonniennes mais seulement les clients d’ordre multiple de k sont considérés).
On appelle taux d’arrivée des clients, ou intensité des arrivées, le nombre
moyen de client qui arrivent dans le système par unité de temps.
Aux instants d’arrivée, plusieurs clients arrivent simultanément. On parle alors
d’arrivées par groupe .La donnée de la loi caractérisant la taille du groupe
est alors nécessaire pour déterminer le comportement du processus des arrivées.
Les clients sont dits impatients lorsqu’ils quittent le système avant d’être ser-
vis. Cela peut arriver soit dès l’arrivée, s’ils jugent la file trop importante, on
parle alors de découragement, soit après avoir attendu et c’est alors un aban-
don.

3.2.3 Processus de service


Chaque client entrant dans une file d’attente va donc utiliser le serveur pendant
une certaine durée qui dépend du client. Dans la plupart des systèmes de file
d’attente, la durée de service de chaque client est indépendante des autres.

36
Elles obéissent toutes à une même loi de distribution : on parle de variables
indépendantes et identiquement distribuées (i.i.d.). Les durées de service de
tous les clients sont donc décrits par le processus de service (déterministe ou
aléatoire).
La date de départ ou date de sortie est la date de fin de service des clients.
C’est la somme de la date d’arrivée, le temps d’attente et la durée de service
effectivement reçue.

3.2.4 Discipline de service


La discipline de service détermine l’ordre dans lequel les clients sont rangés dans
la file et y sont retirés pour recevoir un service. Les disciplines les plus courantes
sont :
– FIFO (first in, first out) ou FCFS (first come first served) ou PAPS (premier
arrivé, premier servi) : c’est la file standard dans laquelle les clients sont servis
dans leur ordre d’arrivée en présence d’un seul serveur. En cas de plusieurs
serveurs, le premier à arriver sera seulement le premier à commencer son
service car rien n’empêche alors qu’un client qui commence son service après
lui, dans un autre serveur, termine avant lui.
– LIFO (last in, first out) ou LCFS (last come, first served) ou DAPS (dernier
arrivé, premier servi). Cela n’est possible que pour une file mono-serveur.
– RANDOM (aléatoire). Le prochain client qui sera servi est choisi aléatoirement
dans la file d’attente.
– Priorité : Dans ce cas, il existe plusieurs classes de clients de priorité différente ;
le client avec la priorité la plus haute est servi en premier, et la discipline de
service est FIFO au sein d’une même classe.

3.2.5 Capacité de la file


La capacité de la file à accueillir des clients en attente de service peut être finie
ou infinie.
Soit K la capacité de la file (incluant le ou les clients en service). Une file à
capacité illimitée vérifie K = ∞ . Lorsque la capacité de la file est limitée et
qu’un client arrive alors que cette dernière est pleine, le client est perdu.

3.2.6 Notion de classes de clients


Une file d’attente peut être parcourue par différentes classes de clients si la
population est hétérogène. Ces différentes classes se distingueront par :
– des processus d’arrivée différents ;
– des temps de service différents ;
– un ordonnancement dans la file d’attente en fonction de leur classe.
Remarque 8. Dans ce cas, deux situations pour la discipline de service sont
envisagées :

37
– Un système non préemptif : le service du client non-prioritaire continue
jusqu ?à son terme avant le traitement du client prioritaire. Citant l’exemple
des hôpitaux et les urgences où il faut terminer une intervention chirurgicale
avant de traiter un autre cas, même plus urgent.
– Un système préemptif : le service du client non-prioritaire est interrompu par
l’arrivée d’un client prioritaire et il reprend dès que le traitement du client
prioritaire se termine et s’il n’y a plus de personne prioritaire dans la file.
C’est le cas notamment de certaines activités, qui donnent la priorités aux
femmes enceintes et aux personnes handicapées.

3.3 Etude analytique d’un système de file d’at-


tente M/M/1
La file d’attente M/M/1 est un exemple classique où les clients arrivent et sont
servis suivant la loi de Markov, à un serveur unique. On pourra identifier trois
familles de mesures de performance aléatoires intéressantes à calculer lors de
l’analyse d’une file d’attente :
– Une mesure du temps d’attente subit par un client quelconque ;
– Une indication sur la manière dont les clients peuvent s’accumuler dans le
système ;
– Une mesure de la durée de repos ou d’activité des serveurs.
Leur caractérisation nécessite la détermination des lois associées ou au moins
des valeurs moyennes.

3.3.1 Structure générale d’un système M/M/1


le système de file d’attente M/M/1 est un système où l’arrivée des clients est
poissionnienne de taux λ (nombre moyen de clients arrivant pendant une unité
de temps ) et la durée du service est exponentielle et de taux µ(nombre moyen de
clients servis pendant une unité de temps, donc µ1 est le temps moyen de service
d’un client ). C’est donc un processus de naissance et de mort de paramètres :
λn = λ, µn = µ . Une file d’attente M/M/1 est donc une file avec un processus
de markovien en entrée et en sortie, un seul serveur,une discipline de service
premier a arriver, premier a être servi, une capacité infinie et un nombre infini de
clients qui peuvent entrer dans cette file. L’exemple le plus courant est l’attente
des voitures devant un carrefour à feux.

38
Figure 5 : Structure générale d’un système de file d’attente M/M/1

3.3.2 Modélisation des processus dans un système M/M/1


Processus des arrivées

On suppose ∆t très petite de telle sorte que pas plus d’une personne n’arrive
dans chaque laps de temps [(n − 1)∆t, n∆t[. Soit At le nombre (aléatoire) de
consommateurs entrés dans le système pendant le temps [0, t]. C’est la loi de
Poisson Pλt . On dit alors que la suite (At ) est un processus de Poisson d’intensité
k
λ car P (At = k) = (λt) k!
e−λt .
Ainsi, λ = E(At t ) ; C’est donc le nombre moyen d’arrivées par unité de temps
(taux d’arrivée).

Temps inter-arrivées

Soit T1 l’instant d’arrivée (aléatoire) de la première personne. les v.a. T1 , T2 , .


. . , Tn , . . . sont indépendantes de loi exponentielle commune E(λ).
Ainsi, λ = E(T1 1 ) ; d’où la loi de T1 mesure aussi l’intervalle de temps séparant
deux arrivées consécutives.

Temps d’arrivée de la neme personne

Soit sn l’instant d’arrivée de la neme personne durant l’intervalle de temps [0, t].
sn est la somme des n premiers temps inter-arrivées : sn = T1 + T2 + ... + Tn où
Tk = Sk − Sk−1 .
n tn−1
La densité de sn est alors la célèbre loi d’Erlang E(n; λ) : fsn (t) = λ(n−1)! e−λt

Temps de service

Soit Sn la durée de service de la ne personne. Un modèle très répandu est celui


de Markov, reposant sur l’absence de mémoire :
P (Sn > s + t|Sn > s) = P (Sn > t) = φ(t) = e−µt ; où la constante µ = E(S1 n )
est l’inverse du temps moyen de service ou encore le nombre moyen de services
(taux de service) que le serveur peut effectuer par unité de temps. Ainsi, la v.a.
Sn suit la loi exponentielle E(µ).

Longueur de la queue

Introduisons Dt le nombre (aléatoire) de clients sortis du système pendant le


temps [0, t]. La suite (Dt )t est le processus des départs. Notons alors Qt la
longueur de la file à l’instant t, c’est-à-dire le nombre de personnes présentes
dans le système (en attente ou en service) ; on a bien sûr : Qt = At −Dt (longueur
= nombre de personnes entrées - nombre de personnes sorties). La suite (Qt )t
est un processus de naissance-mort de taux de naissance λ et de taux de mort
µ.

39
Il est nécessaire d’évaluer l’instant de sortie σn de chaque client, lequel dépend
à la fois de l’instant d’entrée sn de ce client, son temps d’attente Wn et son
temps de service Sn . On montre alors que σn = Sn + Wn + Sn ; où Wn est donné
par la relation de récurrence : Wn+1 = max(Wn + Sn − Tn+1 , 0)

3.3.3 Détermination des mesures de performance et Condi-


tions de stabilité/régime permanent
L’étude du régime transitoire des systèmes d’attente est généralement diffi-
cile, seuls les régimes stationnaires (ou permanents) sont alors importants. Le
système est stable lorsque le nombre de clients qui arrivent au système est stric-
tement plus petit que le nombre des clients qui partent.
Les consommateurs arrivent selon un processus de Poisson d’intensité λ et le
service s’effectue selon la loi exponentielle E(µ) avec la discipline FCFS. Lorsque
λ < µ, le système tend vers un état stationnaire que l’on supposera dans ce
paragraphe.

Loi de la longueur de la queue

Soit Q∞ la longueur limite de la queue, et πn = p(Q∞ = n). Le taux entrant en


l’état n est donc λπn−1 + µπn+1 . Le taux sortant de l’état n est donc (λ + µ)πn .
Ainsi en égalant les flux entrant et sortant, on obtient les équations d’équilibre
(équations de balance globale) suivantes :
(
λπ0 = µπ1
λπn−1 + µπn+1 = (λ + µ)πn si n ≥ 1

On pose alors ρ = µλ ∈]0; 1[. C’est le taux ou intensité du trafic (ou encore
charge du système) ; dont l’unité est appelée erlang.
la relation de récurrence ci-dessus a pour solution πn P = π0 ρn . (πn )n est donc
une suite géométrique avec équation de normalisation +∞ 0 πn = 1.
La probabilité de trouver la file vide étant π0 = p(Q∞ = 0) = 1 − ρ, la solution
de l’équation de balance est donc πn = p(Q∞ = n) = (1 − ρ)ρn , n ∈ N.
λ
La longueur moyenne de la queue est donc E(Q∞ ) =
µ−λ
Remarque 9.
1) Lorsque λ < µ ( condition d’ergodicité du système), la file d’attente est stable,
il existe un régime dit stationnaire ou permanent.
2) Lorsque λ > µ, on montre que Qt devient infini en temps infini ; le flux des
arrivées est plus important que celui des sorties (la file grossit indéfiniment) et
le système est saturé. On parle de file transitoire ou instable.
3) Lorsque λ = µ (cas critique), Qt n’a pas de limite et on observe des oscilla-
tions d’amplitude non bornées.

40
Lois des temps d’attente et temps de séjour d’un client
La loi de probabilité du temps d’attente W∞ (waiting time) d’un client générique
en régime stationnaire est la loi exponentielle E(µ − λ) avec
p(W∞ ≤ t) = 1 − µλ e−(µ−λ)t
Comme p(W∞ = 0) = p(Q∞ = 0), la chance de ne pas attendre coı̈ncide avec
celle de trouver une file vide.
λ
L’attente moyenne d’un client est E(W∞ ) =
µ(µ − λ)
La loi du temps de séjour total (attente + service) du client est véritablement
exponentielle E(µ − λ) avec p(W∞ + S∞ ≤ t) = 1 − e−(µ−λ)t
1
Le temps de séjour moyen d’un client dans le système est : E(W∞ +S∞ ) =
µ−λ
Remarque 10. 1) Ces différentes quantités sont reliées par la célèbre formule
de Little (1961)
E(Q∞ ) = µE(W∞ ) = λE(W∞ + S∞ )
Le nombre moyen de clients dans un système est égal au produit du taux moyen
d’arrivées par le temps moyen passé par chaque client dans le système.
2) Pour la file d’attente à n0 serveurs ( M/M/n0 ), Cette formule de Little reste
valable en régime stationnaire lorsque la charge est inférieure aux nombres de
serveurs ( ρ = µλ < n0 ).

Loi du temps d’activité du serveur


La loi du temps d’activité B∞ (busy time) en régime stationnaire est complexe.
1 1
On montre que sa moyenne est E(B∞ ) = et que E(S∞ ) =
µ−λ µ
Donc le temps d’activité moyen du serveur est identique au temps de séjour
moyen d’un client dans le système.
Remarque 11. Le temps de vacance I∞ du serveur (idle time), qui est la durée
d’attente pour le serveur d’une nouvelle arrivée lorsque la file est vide, suit la
loi exponentielle E(λ)

Processus des départs


En régime stationnaire, on décrit le processus des départs des clients après avoir
été servis par le laps de temps τn = σn −σn−1 séparant les départs des (n−1)eme
et (n)eme personnes.
- Si le nombre de clients que laisse la (n − 1)eme personne derrière lui en quittant
le système : Qσn−1 ≥ 1 , le temps τn n’est donc autre que Sn
- Si Qσn−1 = 0, on a dans ce cas τn = In−1 + Sn .
La v.a. τ∞ suit donc la loi exponentielle E(λ) ; car tous les laps de temps inter-
départs sont indépendants en régime stationnaire.
Par conséquent la moyenne des temps des départs des clients après avoir été
1
servis est E(τ∞ ) =
λ
41
Autres paramètres de performance du système
λ2
E(L∞ ) = est la longueur moyenne de la file.
µ(µ − λ)
1
µ
est le temps moyen passé dans une unité de service.
u = ρ est le taux d’utilisation de chaque serveur (proportion du temps pendant
lequel il est occupé).

Exemple d’application

Soit un système d’attente M/M/1 où un client arrive en moyenne tous les quarts
d’heure, et dont la durée moyenne de service est 10 minutes.
1. Calculons les probabilités pour que deux clients, trois clients, k clients
soient en attente dans la file, ainsi que la longueur moyenne de la file et le
temps moyen d’attente pour un client. On prend l’heure pour unité.
π2 = ( 23 )2 31 ; π3 = ( 23 )3 13 ; πk = ( 23 )k 13
λ2 ρ2
E(L∞ ) = µ(µ−λ)
= 1−ρ = 43
λ ρ
E(W∞ ) = µ(µ−λ) = µ(1−ρ) = 13
soit 20 minutes d’attente moyenne par client.
2. Si le taux d’arrivée augmente de 25 pour cent, voyons comment évoluent
la longueur moyenne de la file et le temps moyen d’attente pour un client.
Le taux d’arrivée initial est de 4 par heure, et après augmentation il est
de 5 par heure ; d’où ρ = 56 .
E(L∞ ) = 256
, soit une file moyenne trois fois plus longue que précédemment.
5
E(W∞ ) = 6 , soit deux fois et demi plus d’attente moyenne.
On constate un phénomène analogue lorsque la durée moyenne de service
µ augmente : choisir par exemple µ = 4.5 et λ = 4.

Conclusion

De façon générale, une augmentation petite de l’intensité ρ au voisinage de 1 se


traduit par une augmentation significative de la longueur moyenne de la file et
du temps moyen d’attente.

D’un point de vue pratique, il y a donc conflit d’intérêts entre les clients qui
souhaitent passer le moins de temps possible en attente et le gestionnaire qui
souhaite minimiser le nombre de services. Si le gestionnaire du service souhaite
diminuer le risque de perte des clients, il faudra qu’il choisisse un nombre mini-
mal de services de façon à ce que l’intensité du trafic ρ ne soit pas trop proche
de 1.

42
3.4 Travaux Dirigés

Exercice 1. (Monoserveur M/M/1)


On utilise une ligne à 512 kb/s (en moyenne) pour faire un transfert de fichier.
Le fichier est transféré par blocs de 100 000 caractères de 8 bits. La ligne joue
le rôle de serveur.
1
1. Quel est le temps moyen µ
nécessaire pour transférer un bloc ?
2. La ligne délivre un trafic Poissonnien avec une charge limitée à 60 pour
cent (de 512 kb/s).
– a) Quel est le taux d’arrivée en blocs/s ?
– b) Calculer le temps moyen d’attente d’un bloc dans la ligne, le temps de
réponse de la ligne ainsi que le nombre moyen de blocs transitant dans
la ligne en régime stationnaire.

Exercice 2. (File M/M/n0 )


Préliminaire : Ecrire le nombre moyen de clients ainsi que le temps moyen passé
par un client dans un système décrit par le modèle M/M/n0 dans les cas
n0 = 1, 2, 3 serveurs.

On considère une cabine téléphonique avec une loi d’arrivée de Poisson avec un
taux d’arrivée de 3 personnes/heure. Le temps passé par un individu dans la
cabine suit la loi exponentielle de moyenne 10 minutes.
1. Quel est le temps moyen d’attente de chaque individu ?
2. Quel est le nombre total moyen de personnes dans le système ?
3. Quelle est la probabilité que le temps total passé dans le système soit plus
grand ou égal à 10 mn ? 15 mn ? 20 mn ? Quelle conclusion peut-on en
tirer ?
4. On suppose maintenant que le taux d’arrivée s’élève à 10 personnes/heure.
On souhaiterait limiter le nombre moyen de personnes à moins de trois
(resp. le temps d’attente moyen à moins de 10 mn). De combien de cabines
faudrait-il disposer au minimum ?

Exercice 3. (Monoserveur-multiserveur)
On doit relier deux ordinateurs qui utilisent huit applications parallèles. Chaque
application génère un trafic Poissonnien de 2 paquets/s en moyenne. La lon-
gueur moyenne des paquets est de 16 kb. On propose deux solutions :
solution 1 : dédier une bande de base 64 kb/s à chaque application (8 monoser-
veurs M/M/1) ;
solution 2 : utiliser une ligne à 512 kb/s pour toutes les applications (1 mono-
serveur M/M/1).
1. Quelle est la solution qui donne le meilleur temps de réponse (i.e. temps
de séjour dans le système) ?

43
2. On envisage d’utiliser la solution 1 mais avec une répartition équilibrée
entre les serveurs, c’est-à-dire que l’on ouvre 8 serveurs (1 multiserveur
M/M/8, voir l’annexe 3).
– (a) Quel est le temps de réponse ?
– (b) Quel est le nombre moyen de paquets transitant dans le système ?
– (c) Quel semble être le meilleur dispositif ?

Exercice 4. (Comparaison entre les files M(λ)/M(µ)/2 et M(λ)/M(2µ)/1)


On considère deux files M(λ)/M(µ)/2 (deux serveurs offrant chacun un service
d’une durée moyenne 1/µ) et M(λ)/M(2µ)/1 (un serveur offrant un service
d’une durée moyenne 1/(2µ)) en régime stationnaire (λ < 2µ).
1. Calculer :
– (a) la longueur moyenne de la file E(Q∞ ) ;
– (b) le temps d’attente moyen avant service E(W∞ ) ;
– (c) le temps de séjour moyen dans le système E(W∞ + S∞ ) ;
– (d) la probabilité de trouver le système vide P (Q∞ = 0) = P (W∞ = 0).
2. Dresser un tableau comparatif des résultats obtenus puis en tirer une conclu-
sion.

Exercice 5. (Comparaison entre les files 2*M(λ/2)/M(µ)/1 et M(λ)/M(µ)/2)


On considère deux files 2*M(λ/2)/M(µ)/1 (deux files indépendantes avec pour
chacune un taux d’arrivée moyen λ/2 et un serveur offrant un service d’une
durée moyenne 1/µ) et M(λ)/M(µ)/2 (une seule file de taux global d’arrivée
moyen λ répartie entre deux serveurs offrant chacun un service d’une durée
moyenne 1/µ) en régime stationnaire (λ < 2µ).
1. Calculer :
– (a)la longueur moyenne de la file E(Q∞ ) ;
– (b) le temps d’attente moyen avant service E(W∞ ) ;
– (c) le temps de séjour moyen dans le système E(W∞ + S∞ ). .
2. Dresser un tableau comparatif des résultats obtenus puis en tirer une conclu-
sion.

44

Vous aimerez peut-être aussi