Académique Documents
Professionnel Documents
Culture Documents
I. Objectifs
II. Programme
1
– Comportement asymptotique d’une chaı̂ne de Markov (Ergodicité, sta-
tionnarité,...
– Exemples d’application
3. Processus de Poisson
– Exemple introductif : Arrivées d’appels dans une centrale téléphonique
– Définitions
– Caractérisation du processus de Poisson : quatre conditions
– La matrice de transition
– Les équations régissant l’évolution du système
2
Chapitre 1
ESPACES DE PROBABILITES
ET VECTEURS ALEATOIRES
3
Le couple (Ω , T (Ω)) est un espace probabilisable si T (Ω) est une tribu sur Ω.
Dans ce cas, tout élément A de T (Ω) est un évènement.
2) Si P est une probabilité sur (Ω, T (Ω)), alors le triplet (Ω, T (Ω), P ) est
appelé espace probabilisé.
Remarque 2. :
– L’axiome A2 ci-dessus est la propriété de σ-additivité de P .
– Si Ω est fini ou dénombrable, on peut alors définir sur (Ω, P(Ω)) une proba-
P à l’aide d’une application p : Ω → R vérifiant : p(ω) ≥
bilité P 0 ∀ω ∈ Ω et
p(ω) = 1. Il suffit de considérer pour A ∈ P(Ω), P (A) = p(ω).
ω∈Ω ω∈A
– Si Ω n’est pas dénombrable, on démontre qu’il n’existe pas une application
P : P(Ω) → [0, 1] vérifiant les deux axiomes A1 et A2 .
4
Définition 6. Soit (Ω, T (Ω), P ) un espace probabilisé.
1) Deux évènements A et B sont dits P-stochastiquement indépendants (ou tout
simplement indépendants) si P (A ∩ B) = P (A)P (B).
2) Les évènements A1 , A2 , ..., An sont dits mutuellement indépendants si pour
toute sous famille Ai1 , Ai2 , ..., Aik avec 1 ≤ i1 < i2 < ... < ik ≤ n, on a :
l=k
! l=k
\ Y
P Ail = P (Ail )
l=1 l=1
Remarque 3. :
– L’indépendance dépend de la probabilisation de l’espace.
– Si A et B sont indépendants, alors A et B, A et B, A et B sont aussi
indépéndants.
– Si les évènements A1 , A2 , ..., An sont mutuellement indépendants, alors ils
sont indépendants 2 à 2. Mais la réciproque est fausse.
5
1.2.2 Densité de probabilité et Fonction de répartition
Soit (Ω, T (Ω), P ) un espace probabilisé, et (Rn , BRn ) l’espace borelien.
On considère X = (X1 , X2 , ..., Xn ) une variable aléatoire définie de Ω vers Rn .
Définition 9. 1) La fonction de répartition de X (ou fonction de repartition
de la probabilité PX ) est la fonction F : Rn → [0, 1] définie par :
∂ n F (t1 , t2 , ..., tn )
fX (t1 , t2 , ..., tn ) =
∂t1 ∂t2 ...∂tn
par rapport à la mesure de Borel sur Rn .
– En particulier pour n = 1, fX est la densité de probabilité de X par rapport
à la mesure de Lebesgue sur R.
n
X n
X n
X
∗
V ar(X)(x ) = E[( αi Xi − αi E(Xi )) ] = E[( αi (Xi − E(Xi )))2 ]
2
6
Après calcul, on obtient finalement,
Xn Xn
∗
V ar(X)(x ) = αi αj E[(Xi − E(Xi )(Xj − E(Xj ))]
i=1 j=1
7
1.3 Quelques lois de probabilités usuelles
1.3.1 Loi normale
C’est la loi la plus importante en statistique car elle permet d’approcher plu-
sieurs autres lois. Sa forme la plus utilisée est la forme centrée réduite qui
s’obtient par un changement de variables. En effet, si X suit la loi N (µ, σ),
on pose alors U = X−µ σ
. On montre alors facilement que U suit la loi normale
centré reduite N (0, 1).
8
1.3.6 Loi Beta
(
xa−1 (1−x)b−1
B(a,b)
si x ∈ [0, 1]
a > 0, b > 0 avec fa,b (x) = ; où
0 sinon
R1
B(a, b) = 0 ta−1 (1 − t)b−1 dt
a+1 (a + 1)(b + 1)
Ainsi, E(X) = et V (X) =
a+b+2 (a + b + 3)(a + b + 2)2
9
1.4 Travaux Dirigés
0 0
Exercice 1. Soient (Ω, U) et (Ω , U ) deux espaces probabilisables, et
0 0
X : (Ω, U) → (Ω , U ) une application.
0
1. Montrer que X −1 (U ) est une tribu des parties de Ω.
0
2. Soit C une famille des parties de Ω . Montrer que T (X −1 (C)) ⊂ X −1 (T (C)),
où T (C) et T (X −1 (C)) désignent respectivement les tribus engendrées par
C et X −1 (C).
Exercice 3. :
1. On considère un ensemble E = {1, 2, 3, 4}. La classe C = {∅, E, {1}, {2}, {3, 4}, {1, 2}}
est-elle une tribu sur E ? Justifier votre réponse.
2. Soit E un espace et F une tribu de parties de E. On suppose que E = R et
on pose A = {A ⊂ E, A est fini ou dénombrable ou Ac est fini ou dénombrable }
(A est l’ensemble des parties qui sont finies ou dénombrables ou dont le
complémentaire est fini ou dénombrable.).
Montrer que A est une tribu et que A 6= P (R), où P (R) est l’ensemble des
parties de R.
10
Exercice 6. La consommation journalière d’une agglomération au cours du
mois de septembre est une variable aléatoire X dont la densité a la forme :
f (t) = c(t − a)(b − t)1[a,b] (t), où t ∈ R ; a, b et c sont des constantes strictement
positives (a < b), avec la fonction indicatrice 1[a,b] (t) = 1 si t ∈ [a, b] et 0 sinon.
1. Vérifier que l’on a pour tout n ∈ N :
Z b
(b − a)n+2
(t − a)n (b − t)dt = .
a (n + 1)(n + 2)
11
2. Soit X = (X1 , X2 ) un vecteur aléatoire à valeurs dans R2 de densité :
1
∀(x1 , x2 ) ∈ R2 , f (x1 , x2 ) = k×exp(−
P 18
(5x21 +5x22 −8x1 x2 −14x1 +4x2 +17))
– i) Déterminer µ = E(X) et X la matrice des variances et covariances
de X.
– ii) En déduire k ; ainsi que le coéfficient de corrélation linéaire entre X1
et X2 .
Exercice 13. .
Soit X une variable aléatoire réelle de loi exponentielle de paramètre q > 0
(fX (t) = qe−qt si t ≥ 0, fX (t) = 0 sinon).
1. Calculer le moment d’ordre 2 de X.
2. On note Y = [X] sa partie entière. Montrer que Y suit la loi géométrique
de paramètre e−q .
Exercice 14. Soit X une variable aléatoire réelle. Si X suit la loi uniforme
sur [a, b],
1. Calculer son espérance mathématique.
(b−a)2
2. Montrer que sa variance vaut V (X) = 12
.
12
Exercice 15. Soit X = (X1 , X1 , ..., Xn ) un vecteur aléatoire normal à valeurs
dans Rn , donc qui suit la loi normale N n (µ, X ) où X = (cij )1≤i,j≤n est sa
P P
matrice des variances et covariances.
On suppose que n = 2, et que la loi normale centrée réduite à deux dimensions
X a ρ comme coéfficient de corrélation linéaire des deux variables.
13
Chapitre 2
PROCESSUS
STOCHASTIQUES
14
La variable Xt représente l’état du processus au temps t et l’ensemble de toutes
les valeurs possibles E ( partie de R) est appelée espace des états du processus.
Définition 2. 1) Une suite de v.a.r (Xn )n∈N sur (Ω, T (Ω), P ) converge en
loi vers une v.a.r X si lim FXn (x) = FX (x), où FXn désigne la fonction de
n→+∞
répartition de Xn .
2) Une suite de v.a.r (Xn )n∈N sur (Ω, T (Ω), P ) converge en probabilité vers une
v.a.r X si ∀ε > 0, lim P (|Xn − X| ≥ ε) = 0.
n→+∞
2.1.4 Exemples
Les processus stochastiques sont appliqués dans plusieurs domaines courants de
la vie socio-économique et politique :
1. Météorologie : Xn = désigne la température en un lieu donné au jour n,
ou encore la hauteur des précipitations au courant de l’année n.
2. Bourse de valeurs : Xn = désigne le cours d’une action le jour n, ou le
chiffre d’affaire d’une société l’année n.
3. Assurance : Xn = désigne le montant total des indemnités versées par
une compagnie d’assurance pour des sinistres survenus le mois n.
4. Epidémiologie : Xn = désigne le nombre d’individus infectés par une
maladie contagieuse au bout de n jours.
5. Jeux : Xn = désigne l’ordre des cartes d’un jeu qui a été battu n fois.
15
2.2 Chaines de Markov dans un espace d’états
au plus dénombrable
La catégorie des processus stochastiques est très large car elle permet de modéliser
l’ensemble des phénomènes aléatoires. Cependant, on ne peut pas obtenir mathéma
tiquement beaucoup de résultats sur un processus stochastique trop général. Il
faut alors ignorer des hypothèses supplémentaires pour faciliter leur résolution.
En 1906, Andrei Andreyevich Markov a commencé l’étude d’un nouveau type
de processus stochastique où le résultat d’une expérience donnée peut affecter
le résultat de l’expérience suivante.
Dans ce cours, on propose de se restreindre à la modélisation des phénomènes
aléatoires par des chaı̂nes de Markov. Il est donc nécessaire de vérifier deux
hypothèses mathématiques que sont la propriété de Markov et l’homogéneité.
(Pij )j∈E désigne alors la probabilité de transition pour l’état i. Si l’espace d’état
E est au plus dénombrable, (Pij )i,j∈E est alors appelée matrice de transition de
la chaı̂ne.
Proposition 1. Si x0 , x1 , ..., xn ∈ E, alors on a
P (X1 = x1 , ..., Xn = xn |X0 = x0 ) = Px0 ,x1 Px1 ,x2 ...Pxn−1 ,xn
En particulier pour un espace d’état E = {1, 2, ..., n} au plus dénombrable,
P (Xn = j|X0 = i) = Pijn
16
Définition 6. La matrice stochastique d’une chaı̂ne de Markov est la matrice
d’une forme quadratique P définie de E × E vers [0, 1] et encore appelée noyau
de transition.par : P(x, y) = p(Xn+1 = y/Xn = x).
P
On montre alors que y∈E P(x, y) = 1 pour tout x, y ∈ E.
Théorème 1. Une chaı̂ne de Markov (Xn )n∈N est caractérisée par :
(i) L’espace d’états E = {x1 , ..., xm } ;
(ii) A chaque instant n, la matrice de transition Pn modélisant le passage à l’état
xn+1 sachant l’état xn est donnée par : Pn = (P (Xn+1 = j/Xn = i))i,j∈E =
(Pij )i,j∈E
(iii) La distribution initiale π0 ( c’est une loi de probabilités sur E à l’instant
n = 0).
Définition 7. 1) Intuitivement, une chaı̂ne de Markov homogène est une chaı̂ne
telle que la probabilité qu’elle a pour passer dans un certain état au nème
état soit indépendante du temps. En d’autres termes, la loi de probabilité ca-
ractérisant la prochaine étape ne dépend pas du temps (de l’étape précédente),
et en tout temps la loi de probabilité à tout moment de la chaı̂ne est toujours la
même pour caractériser la transition à l’étape en cours.
2) Formellement, une chaı̂ne de Markov (Xn )n∈N à dimension finie est dite
homogène lorsque : ∀n ∈ N, Pn = P (i.e la matrice de transition Pn reste
invariante quelque soit l’instant de transition n).
Théorème 2. Une chaı̂ne de Markov homogène (Xn )n∈N est caractérisée par :
(i) L’espace d’états E = {x1 , ..., xm } ;
(ii) La matrice de transition P ;
(iii) La distribution initiale π0
La forme
analytique de la matrice de transition P est alors :
P (Xn+1 = x1 |Xn = x1 ) P (Xn+1 = x2 |Xn = x1 ) . . . P (Xn+1 = xm |Xn = x1 )
P (Xn+1 = x1 |Xn = x2 ) P (Xn+1 = x2 |Xn = x2 ) . . . P (Xn+1 = xm |Xn = x2 )
. . . . .
P=
. . . . .
. . . . .
P (Xn+1 = x1 |Xn = xm ) P (Xn+1 = x2 |Xn = xm ) . . . P (Xn+1 = xm |Xn = xm )
P (x1 |x1 ) P (x2 |x1 ) . . . P (xm |x1 )
P (x1 |x2 ) P (x2 |x2 ) . . . P (xm |x2 )
. . . . .
=
. . . . .
. . . . .
P (x1 |xm ) P (x2 |xm ) . . . P (xm |xm )
où encore
P (x1 , x1 ) P (x1 , x2 ) . . . P (x1 , xm )
P (x2 , x1 ) P (x2 , x2 ) . . . P (x2 , xm )
. . . . .
P=
. . . . .
. . . . .
P (xm , x1 ) P (xm , x2 ) . . . P (xm , xm )
17
NB : La première écriture est appelée ériture conditionnelle tandis que la
deuxième est l’écriture conventionnelle.
où P (0|0) désigne la probabilité qu’à l’instant n + 1, la ligne soit libre sachant
qu’elle était également libre à l’instant n ;
P (0|1) est la probabilité qu’à l’instant n + 1, la ligne soit libre sachant qu’elle
était occupée à l’instant n ;
P (1|0) est la probabilité qu’à l’instant n + 1, la ligne soit occupée sachant qu’elle
était libre à l’instant n ;
P (1|1) est la probabilité qu’à l’instant n + 1, la ligne soit occupée sachant qu’elle
était également occupée à l’instant n.
Exemple 2. (Chaı̂ne à trois états) : File d’attente simple
18
et pas d’appel nouveau arrive” correspond à P (0|1) = q(1 − p) ; et P (2|1) =
p(1 − q) est lorsqu’un appel nouveau arrive et celui en cours continue. Comme
P (1|0) + P (1|1) + P (1|2) = 1, on trouve finalement
P (0|0) P (1|0) P (2|0) 1−p p 0
P = P (0|1) P (1|1) P (2|1) = q(1 − p) 1 − q(1 − p) − p(1 − q) p(1 − q)
P (0|2) P (1|2) P (2|2) 0 q 1−q
Comme exemple d’interprétation, P (2|1) est la probabilité qu’un appel soit en
attente à l’instant n + 1 sachant que la ligne était occupée à l’instant n.
Soit πn la loi (distribution) de probabilité de la variable aléatoire Xn . πn est
encore la distribution de probabilités d’états pour une chaı̂ne de Markov.
Théorème 3. : (Chapman-Kolmogorov)
Soit Xn [E, P, π0 ], une chaı̂ne de Markov homogène. Alors la distribution à l’ins-
tant n est donnée par la formule : πn = πn−1 P = πn−2 P2 = ... = π0 Pn
19
(n)
fij = P (Tj = n|X0 = xi ) = P (Xn = xj , Xn−1 6= xj , ..., X1 6= xj |X0 = xi )
(n)
fii est la probabilité de premier retour à l’état xi en n unités de temps.
Théorème 4. xi est récurrent si et seulement si ∞
P (n)
n=1 fii = 1
xi est transitoire si et seulement si ∞
P (n)
n=1 fii < 1
Définition 13. 1) On appelle temps moyen de retour en xj , la quantité :
P (n)
µj = E(Tj |X0 = xj ) = n npjj
2) Un état xj est récurrent positif (ou non nul) s’il est récurrent et si le temps
moyen µj de retour est fini. Dans le cas où le temps moyen de retour est infini,
l’état est dit récurrent nul.
20
Définition 15. Une chaı̂ne de Markov homogène Xn [E, P, π0 ] est dite station-
naire si la distribution n’évolue pas dans le temps. Dans ce cas, π0 est une
distribution invariante (ou stationnaire) de cette chaı̂ne.
3)Si la chaı̂ne est irréductible, elle possède une distribution stationnaire unique
π = ( µ1i )xi ∈E si et seulement si tous les états sont récurrents positifs.
4) Toute distribution limite π ∗ d’une chaı̂ne, si elle existe, est l’unique distri-
bution stationnaire, nécessairement portée par les états récurrents.
Théorème 7. (Chacon-Ornstein)
Toute chaı̂ne ergodique possède une distribution limite unique π ∗ = (πi∗ )i qui
s’identifie à l’unique distribution stationnaire π = (πi )i de la chaı̂ne ;
(n)
∀xi ∈ E, lim pi = πi∗ = πi = 1
µi
, où π = πP.
n→+∞
21
1 −p −1 q/(p + q) p/(p + q) 1 0
Q= ;Q = ;D = .
1 q −1/(p + q) 1/(p + q) 0 1−p−q
Par ailleurs Pn = (QDQ−1 )n = QDn Q−1 ; et un calcul simple donne
n (q + p(1 − p − q)n )/(p + q) (p − p(1 − p − q)n )/(p + q)
P =
(q − q(1 − p − q)n )/(p + q) (p + q(1 − p − q)n )/(p + q)
22
2.3 Processus de Poisson
2.3.1 Exemple introductif : Arrivées d’appels dans une
centrale téléphonique
On suppose que le processus d’arrivée des appels est constitué d’un ensemble
de processus ponctuels indépendants entre eux et de comportement identiques
au cours du temps ; c’est l’hypothèse couramment avancée à l’entrée des cen-
traux et des grands réseaux de télécommunications lorsqu’on peut négliger les
renouvellements d’appels.
Les hypothèses d’un tel processus sont les suivantes : considérons un intervalle
de temps [t0 ; t0 + t], compté à partir d’une origine t0 arbitraire.
On se propose de déterminer la probabilité Pn (t) que n appels se
produisent pendant le temps t sachant que :
1. Pn (t) ne dépend pas de l’origine des temps.
2. La probabilité qu’un appel se produise pendant le temps dt est propor-
tionnelle à ∆t.
3. La probabilité qu’un appel se produise plus d’une fois pendant dt est prati-
quement nulle (l’on exclut l’accumulation d’appels en un temps très court).
Soit :
P1 (∆t) = λ∆t ; P2 (∆t) = P3 (∆t) = ... = Pn (∆t) = 0.
4. Si I1 et I2 sont des intervalles de temps disjoints ; les deux évènements :
A = {k appels se produisent pendant I1 } et
B = {l appels se produisent pendant I2 } sont deux évènements indépendants.
2.3.2 Définitions
Lorsque dans un processus stochastique les dates de transitions sont imprévisibles,
elles sont modélisées par des variables aléatoires poissoniennes (processus de
Poisson). On remarque que le processus de Poisson au niveau des carrefours à
feux est caractérisé par le mode selon lequel s’effectuent les arrivées au sein de
ces systèmes.
Le processus de Poisson est donc un processus de comptage ; ainsi à tout instant
t il associe une variable aléatoire Nt qui compte les évènements apparus entre
l’origine des temps et t. Le nombre d’appels sur une ligne téléphonique entre t0
et t0 + t, le nombre de noyaux atomiques désintégrés dans un corps radioactif
entre t0 et t0 + t, ou l’entrée d’un service public tel qu’un guichet d’un magasin
donnent une idée du processus de Poisson.
23
2. Le processus est additif à accroissement indépendants : étant donnés deux
intervalles de temps disjoints, le nombre des événements qui se produisent
dans l’un est indépendant du nombre des événements qui se produisent
dans l’autre (les nombres d’évènements dans des intervalles de temps dis-
joints sont indépendants).
3. La probabilité pour que deux événements se réalisent en même temps est
négligeable devant la probabilité de réalisation d’un seul.
4. On doit écarter le cas des probabilités de transition nulles, ou égales à 1.
24
Pour n = 1 la deuxième équation donne :
0
P1 (t) = −λP0 (t) − λP1 (t) = λe−λt − λP1 (t)
Cette équation différentielle donne P1 (t) = k(t)e−λt ; et par variation de la
0
constante k (t) = λ. Comme k(t) = 0, on obtient P1 (t) = λte−λt
n
Par conjecture on a Pn (t) = (λt)n!
e−λt pour tout n > 0.
C’est la probabilité d’occurrence de n événements dans l’intervalle [0, t] et
vérifiant les conditions 1 à 4 précédentes. C’est la loi de probabilité du
processus de Poisson.
On dit alors que le processus stochastique est un processus de Poisson d’intensité
λ. Ainsi, le paramètre λ représente le nombre moyen d’arrivées par unité de
temps (taux d’arrivée).
NB : On prouve aussi ce résultat par récurrence sur n et en utilisant les condi-
tions ( de caractérisation de la loi de poisson ) précédentes.
Théorème 8. (Equation d’équilibre au régime stationnaire du pro-
cessus de poisson)
La distribution stationnaire π = (π1 , π2 , .., πn , ...) est solution de l’équation
d’équilibre π.P = 0
Remarque 7. 1) Un processus de Poisson non homogène est un processus de
comptage d’intensité λ(t) fonction du temps.
2) Le processus de Poisson non homogène de paramètre λ(t) = ( αt )β , α, β > 0 ;
est le processus de Weibull.
2.3.6 Conclusion
Dans ce chapitre nous avons introduit les modèles mathématiques nécessaires
pour l’étude du formalisme des files d’attente telles que : les chaı̂ne de Mar-
kov, processus de Poisson. Il est possible d’étudier ce formalisme de plusieurs
manières, en le considérant soit comme une discipline abstraite de mathématique
appliquées, soit comme un outil mathématique utile pour analyser ou évaluer
le comportement d’un système d’attente.
25
2.4 Travaux Dirigés
Exercice 1. 1. Montrer que le produit de deux matrices stochastiques (de
même taille) est encore une matrice stochastique.
2. Montrer que toutes les valeurs propres d’une matrice stochastique ont un
module inférieur ou égal à 1.
3. Une matrice P est bistochastique si la somme de chaque ligne et de chaque
colonne est égale à 1. Montrer que dans ce cas, une telle chaine de Markov
ne possède que des états persistants.
4. Montrer que la matrice stochastique d’une chaı̂ne de Markov ayant un état
absorbant, ne peut pas être régulière.
5. Montrer que toute chaı̂ne de Markov irréductible et apériodique admet une
unique distribution invariante et qui est indépendante de la distribution
initiale.
Exercice
2.On considère une chaı̂ne de Markov de matrice stochastique
0 1
P= ;
1 0
1. Montrer que cette chaı̂ne est irréductible mais périodique de période 2.
2. Montrer alors que lim Pn n’existe pas.
n→+∞
3. Montrer que cette chaine de Markov ne possède qu’une distribution inva-
riante ( 21 ; 12 ), et qui rend le processus stationnaire dès le départ.
Exercice 3. Une boulangerie dispose d’un seul vendeur. On suppose que l’ar-
rivée de sa clientèle décrit l’évolution d’un phénomène aléatoire à travers une
suite de variables aléatoires réelles (Xn )n∈N . Ainsi, Xn = 0 signifie que le ven-
deur est libre à l’instant n, et Xn = 1 signifie que le vendeur est occupé à
l’instant n. Supposons que sur chaque intervalle de temps, la probabilité qu’un
client arrive est q (un patient au plus), et doit rentrer si le vendeur est déjà
occupé. Supposons également que si le vendeur est occupé à l’instant n, il y a
une probabilité p qu’il se libère à l’instant n + 1.
1) Evaluer la matrice de transition P de cette chaı̂ne de Markov ainsi modélisée.
2) Etudier son
comportement asymptotique en vérifiant que :
p/(p + q) q/(p + q)
lim Pn = ; avec 0 < q et p < 1.
n→+∞ p/(p + q) q/(p + q)
0 0 1 0
Montrer que P admet une infinité de vecteurs de distribution invariante.
26
1 3 1 3 9
4
0 4 4 10 20
1 1 1 telle que lim Pn = 1 3 9
2. On suppose que P = 4 4 2 4 10 20
1 1 1 n→+∞ 1 3 9
4 2 4 4 10 20
– Soient deux distributions initiales π0 = (1, 0, 0) et π0∗ = ( 41 , 10
3 9
, 20 ). Mon-
trer que Xn [E, P, π0 ] n’est pas une chaine stationnaire et que Xn [E, P, π0∗ ]
est stationnaire.
– En déduire une distribution invariante de P.
27
- Si c’est de la cytosine, 3 minutes plus tard notre brin d’ADN sera constitué
de 10 pour cent d’adenine, 50 pour cent de cytosine et 40 pour cent de guanine.
- Si c’est de la guanine, 3 minutes plus tard notre brin d’ADN sera constitué
de 10 pour cent de cytosine et 90 pour cent de guanine.
1. Donner alors la matrice de transition P de passage d’un instant à l’autre.
2. On suppose que l’état initial de la distribution de probabilité est
π0 = (1, 0, 0). La distribution à l’instant n étant donnée par la formule
πn = πn−1 P = π0 Pn pour n ≥ 1,
– i) Calculer les distributions au bout de 3mn, 6mn, 75mn, 78mn et 81mn,
correspondant respectivement à π1 , π2 , π25 , π26 , π27 ; sachant que
0.0377 0.1887 0.7736
P25 = 0.0377 0.1887 0.7736
0.0377 0.1887 0.7736
3. En déduire que Xn [E, P, π0∗ ] est stationnaire ; avec π0∗ = (0.0377, 0.1887, 0.7736).
28
Exercice 8. Un patient qui arrive dans un cabinet médical est dirigé vers une
salle d’attente. S’il y a déjà 3 personnes qui attendent, le patient découragé
repart immédiatement. Un médecin est présent en dans ce cabinet. Le médecin
vient toutes les 20 mn dans la salle d’attente pour voir s’il y a des patients en
attente. Si c’est le cas, il prend en consultation l’un des patients, sinon il revient
20 mn plus tard. On supposera qu’une consultation ne dure pas plus de 20 mn.
On discrétise le temps en intervalles de temps de durée 20 mn. On note X0
le nombre de personnes dans la salle d’attente à l’instant t0 et Xn le nombre
de personnes qui sont dans la salle d’attente lorsque les médecins arrivent à
l’instant tn dans la salle d’attente. On peut alors montrer que la suite (Xn)n est
1 1
2 2
0 0
1 1 0 0
une chaı̂ne de Markov homogène de matrice de transition P = 1 21 1 1
2
4 4 4 4
0 0 0 1
1. Déterminer l’ensemble des états E de cette chaı̂ne de Markov.
2. Calculer les distributions π1 , π2 et π3 lorsque π0 = (1, 0, 0, 0).
En déduire que la chaı̂ne Xn [E, P, π0 ] n’est pas stationnaire.
3. Trouver une distribution initiale invariante π0∗ laquelle la chaı̂ne Xn [E, P, π0∗ ]
est stationnaire.
4. Montrer que la chaı̂ne admet un état absorbant que l’on précisera.
5. En déduire lim Pn
n→+∞
Exercice 9. Dans un certain pays, il ne fait jamais beau deux jours de suite.
Si un jour il fait beau(BT), le lendemain il peut neiger(N) ou pleuvoir(PL) avec
autant de chances. Si un jour il pleut ou il neige, il y a une chance sur deux
qu’il y ait changement de temps le lendemain, et s’il y a changement, il y a une
chance sur deux que ce soit pour du beau temps.
1. Former, à partir de celà, une chaı̂ne de Markov (en précisant l’espace des
états) et en déterminer sa matrice de transition.
2. Si un jour il fait beau, quel est le temps le plus probable pour le surlende-
main ?
3. On suppose que l’on a que deux états (beau temps et mauvais temps).
– a) Déterminer la matrice de transition de la nouvelle chaı̂ne ainsi obte-
nue.
– b) Montrer que la chaı̂ne admet un état absorbant que l’on précisera.
– c) Montrer que la chaı̂ne peut tendre vers un système d’équilibre (On
pourra si possible calculer lim Pn ).
n→+∞
Exercice 10. Un individu vit dans un environnement où il est susceptible d’être
contaminé par une maladie. Son état de santé est suivi mensuellement. Pour un
mois donné m, trois états sont possibles : Il peut etre immunisé (état I), malade
(état M), non malade et non immunisé (état S).
D’un mois m au mois suivant m+1, son état peut évoluer selon les règles
épidémiologiques suivantes :
29
– étant immunisé au mois m, il peut, au mois m+1, être encore immunisé avec
une probabilité 0, 9 ou passer à l’état S avec une probabilité 0,1
– étant malade au mois m, il peut, au mois m+1, être encore malade avec une
probabilité 0,2 ou passer à l’état immunisé avec une probabilité 0,8
– étant en l’état S au mois m, il peut, au mois m+1, être encore en l’état S
avec une probabilité 0,5 ou passer à l’état malade M avec une probabilité 0,5.
1. Ecrire la matrice A qui résume les probabilités de transition entre le mois
m et le mois m+1.
2. En supposant le processus homogenement Markovien, calculer les probabi-
lités pour qu’un individu soit dans l’état e au mois m+2, e = I ou M ou
S, sachant avec certitude qu’il était immunisé au mois m.
3. Quelle distribution initiale rend le processus stationnaire ?
On rappelle que c’est l’agrégation des capacités (ou crédibilités) de solvabilité des
entreprises d’un pays vis à vis de leurs bailleurs de fonds (Institutions financières
qui prêtent de l’argent aux entreprises).
On s’interresse à la situation financière actuelle de l’Allemagne dont le processus
de mesure de crédibilité obéit à un algorithme généré par la matrice P.
On suppose qu’à l’instant n = 0(janvier 2013), l’état initial des notes attribuées
à l’Allemagne était π0 = (1, 0, 0) (c’est à dire qu’en janvier, ce pays avait une
probabilité certaine d’avoir le triple A (AAA) ; indicateur d ’une tres bonne
santé économique du pays.
1. Donner l’ensemble E des états possibles de ce processus Markovien de no-
tations .
2. A quelles période (préciser le mois et l’année) l’Allemagne perdra t-elle son
son triple A ? (cette situation se produit lorsqu’il existe une distribution où
un état est plus probable que l’état AAA ).
3. Trouver une distribution initiale π0∗ pour que l’Allemagne garde son triple
A quelque soit l’ampleur de la crise financière mondiale qui sévit actuelle-
ment.
4. Reprendre les questions précédentes (avec π0 = (1, 0, 0, 0, 0, 0, 0, 0)) si les
notes sont de la forme AAA, AA, A, BBB, BB, B, CCC, Défaut ; du plus
30
sûr au plus risqué, sachant que cela obéissait à un processus Markovien
homogène de matrice de transition (en pourcentage) :
90.81 8.33 0.68 0.06 0.12 0.00 0.00 0.00
0.70 90.65 7.79 0.64 0.06 0.14 0.02 0.00
0.09 2.27 91.05 5.52 0.74 0.26 0.01 0.06
0.02 0.33 5.95 86.93 5.30 1.17 0.12 0.18
P= 0.02 0.14 0.67 7.73 80.53 8.84 1.00 1.06
0.00 0.11 0.24 0.43 6.48 83.46 4.08 5.20
0.22 0.00 0.22 1.30 2.38 5.00 64.85 19.79
0.00 0.00 0.00 0.00 0.00 0.00 0.00 100
Exercice 14. Des clients arrivent dans un magasin au rythme moyen λ = 3 par
unité de temps. On suppose que le nombre de clients arrivant N (t) pendant une
n
durée t suit une loi de Poisson donnée par : Pn (t) = P (N (t) = n) = (λt)
n!
e−λt
pour tout n ≥ 0.
31
1. Calculer la probabilité qu’il arrive un seul client dans l’intervalle de temps
[0; 2].
2. Calculer la probabilité qu’il n’arrive aucun client sur une durée de 5 unités
de temps.
3. Calculer la probabilité pour que, dans 2 intervalles disjoints ayant chacun
une durée de 2 unités de temps, il arrive exactement au total 2 clients.
Exercice 15. Sur une route à sens unique, l’écoulement des voitures peut être
décrit par un processus de Poisson d’intensité λ = 16 par seconde.
1. Calculer la probabilité pour que, dans deux périodes de 6 secondes, dis-
jointes, on compte deux voitures.
2. Un piéton qui veut traverser la route a besoin d’un intervalle d’au moins
4s entre deux voitures successives. Calculer la probabilité pour qu’il doive
attendre.
3. Un radar est placé sur cette route. On suppose qu’il passe en moyenne 5
véhicules en excès de vitesse par heure. Déterminer la probabilité qu’une
voiture ait été prise dans le premier 14 d’heure sachant que 2 ont été prises
en 1 heure.
32
Chapitre 3
INTRODUCTION AUX
MODÈLES DE FILES
D’ATTENTES
33
ainsi que les coûts associés s’il y a des dépenses de fonds. Par exemple, quel est
le temps passé par un client dans une file d’attente devant un guichet, quelle
est la longueur de la queue à un instant donné, quelle est la durée de repos
du serveur (c’est-à-dire lorsque la queue est vide avant l’arrivée d’un nouveau
consommateur), à quelle vitesse minimale devrait travailler le serveur pour ne
pas dépasser un seuil maximal de clients, combien de serveurs faudrait-il au
minimum pour éviter la saturation de la salle d’attente... ? Autant de ques-
tions auxquelles la théorie des chaı̂nes de Markov et des processus stochastiques
apportent des réponses plus ou moins explicites selon le modèle adopté.
L’objectif principal de ce chapitre est d’expliquer le phénomène d’attente, de
présenter les notions de base concernant les systèmes de files d’attente et de
définir les paramètres permettant de décrire les performances de tels systèmes.
34
3.1.4 Constitution d’une file d’attente
Une file est composée de clients se succédant et demandant un service. Les clients
peuvent être des individus, des appels téléphoniques, des signaux électriques,
des véhicules, des accidents, des turbulences atmosphériques... et le service peut
être un serveur humain, un central téléphonique, un serveur informatique, un
péage autoroutier, une compagnie d’assurance, la météorologie nationale...
Une file d’attente se compose alors des éléments suivants :
– La population : C’est la source de clients potentiels. Elle peut être infinie
(clients des supermarchés, des banques, des restaurants, des cinémas, des
centres, d’appels, trafic urbain,... ) ou finie (le nombre de machines, d’avions,
en réparation dans un centre de maintenance )
– Le nombre de serveurs (ressources ) : La capacité de service dépend de la
capacité de chaque serveur et du nombre de serveurs disponibles. Le guichet
unique est une file à un serveur. Les serveurs sont en parallèle (Chaque client
ne requiert le service que d’un seul serveur et tous les serveurs sont capables
de fournir ce service) ou en série/cascade (Le client entrant au système doit
visiter plusieurs serveurs successifs dans un ordre fixe pour recevoir le service :
chaı̂ne de fabrication, circulation des dossiers dans une administration ) dans
le ca multi-serveurs ; ou en réseaux.
– Les tendances quant à l’arrivée et au service :
– L’ordre de traitement des clients :
– Une salle d’attente, c’est-à-dire un lieu où les clients attendent quand aucun
des serveurs n’est disponible pour les servir :
Tout système de file d’attente peut être représenté par le schéma suivant :
35
des lettres désigne une caractéristique de la file :
– A décrit la distribution de probabilité des temps entre les arrivées des clients.
C’est loi des inter-arrivées (durée entre deux arrivées successives)
– S décrit la distribution de probabilité du temps de service d’un client. C’est
la loi des durées de service des clients
– P représente le nombre de serveurs
– K représente la capacité de la file d’attente (finie ou infinie). C’est le nombre
maximum de clients qui peuvent être présents simultanément dans le système,
c’est-à-dire les clients en attente et les clients en service
– D décrit la discipline d’attente(ou politique de service), précisant comment
les clients sont servis : FIFO, LIFO, avec priorité, aléatoirement,...
NB : Plusieurs types de distributions sont possibles pour les temps d’arrivée et
les temps de service tel que la loi exponentielle (M=Markov), la loi constante
ou déterministe (D), la loi uniforme (U), la loi d’Erlang à n phases ( En ),...
36
Elles obéissent toutes à une même loi de distribution : on parle de variables
indépendantes et identiquement distribuées (i.i.d.). Les durées de service de
tous les clients sont donc décrits par le processus de service (déterministe ou
aléatoire).
La date de départ ou date de sortie est la date de fin de service des clients.
C’est la somme de la date d’arrivée, le temps d’attente et la durée de service
effectivement reçue.
37
– Un système non préemptif : le service du client non-prioritaire continue
jusqu ?à son terme avant le traitement du client prioritaire. Citant l’exemple
des hôpitaux et les urgences où il faut terminer une intervention chirurgicale
avant de traiter un autre cas, même plus urgent.
– Un système préemptif : le service du client non-prioritaire est interrompu par
l’arrivée d’un client prioritaire et il reprend dès que le traitement du client
prioritaire se termine et s’il n’y a plus de personne prioritaire dans la file.
C’est le cas notamment de certaines activités, qui donnent la priorités aux
femmes enceintes et aux personnes handicapées.
38
Figure 5 : Structure générale d’un système de file d’attente M/M/1
On suppose ∆t très petite de telle sorte que pas plus d’une personne n’arrive
dans chaque laps de temps [(n − 1)∆t, n∆t[. Soit At le nombre (aléatoire) de
consommateurs entrés dans le système pendant le temps [0, t]. C’est la loi de
Poisson Pλt . On dit alors que la suite (At ) est un processus de Poisson d’intensité
k
λ car P (At = k) = (λt) k!
e−λt .
Ainsi, λ = E(At t ) ; C’est donc le nombre moyen d’arrivées par unité de temps
(taux d’arrivée).
Temps inter-arrivées
Soit sn l’instant d’arrivée de la neme personne durant l’intervalle de temps [0, t].
sn est la somme des n premiers temps inter-arrivées : sn = T1 + T2 + ... + Tn où
Tk = Sk − Sk−1 .
n tn−1
La densité de sn est alors la célèbre loi d’Erlang E(n; λ) : fsn (t) = λ(n−1)! e−λt
Temps de service
Longueur de la queue
39
Il est nécessaire d’évaluer l’instant de sortie σn de chaque client, lequel dépend
à la fois de l’instant d’entrée sn de ce client, son temps d’attente Wn et son
temps de service Sn . On montre alors que σn = Sn + Wn + Sn ; où Wn est donné
par la relation de récurrence : Wn+1 = max(Wn + Sn − Tn+1 , 0)
On pose alors ρ = µλ ∈]0; 1[. C’est le taux ou intensité du trafic (ou encore
charge du système) ; dont l’unité est appelée erlang.
la relation de récurrence ci-dessus a pour solution πn P = π0 ρn . (πn )n est donc
une suite géométrique avec équation de normalisation +∞ 0 πn = 1.
La probabilité de trouver la file vide étant π0 = p(Q∞ = 0) = 1 − ρ, la solution
de l’équation de balance est donc πn = p(Q∞ = n) = (1 − ρ)ρn , n ∈ N.
λ
La longueur moyenne de la queue est donc E(Q∞ ) =
µ−λ
Remarque 9.
1) Lorsque λ < µ ( condition d’ergodicité du système), la file d’attente est stable,
il existe un régime dit stationnaire ou permanent.
2) Lorsque λ > µ, on montre que Qt devient infini en temps infini ; le flux des
arrivées est plus important que celui des sorties (la file grossit indéfiniment) et
le système est saturé. On parle de file transitoire ou instable.
3) Lorsque λ = µ (cas critique), Qt n’a pas de limite et on observe des oscilla-
tions d’amplitude non bornées.
40
Lois des temps d’attente et temps de séjour d’un client
La loi de probabilité du temps d’attente W∞ (waiting time) d’un client générique
en régime stationnaire est la loi exponentielle E(µ − λ) avec
p(W∞ ≤ t) = 1 − µλ e−(µ−λ)t
Comme p(W∞ = 0) = p(Q∞ = 0), la chance de ne pas attendre coı̈ncide avec
celle de trouver une file vide.
λ
L’attente moyenne d’un client est E(W∞ ) =
µ(µ − λ)
La loi du temps de séjour total (attente + service) du client est véritablement
exponentielle E(µ − λ) avec p(W∞ + S∞ ≤ t) = 1 − e−(µ−λ)t
1
Le temps de séjour moyen d’un client dans le système est : E(W∞ +S∞ ) =
µ−λ
Remarque 10. 1) Ces différentes quantités sont reliées par la célèbre formule
de Little (1961)
E(Q∞ ) = µE(W∞ ) = λE(W∞ + S∞ )
Le nombre moyen de clients dans un système est égal au produit du taux moyen
d’arrivées par le temps moyen passé par chaque client dans le système.
2) Pour la file d’attente à n0 serveurs ( M/M/n0 ), Cette formule de Little reste
valable en régime stationnaire lorsque la charge est inférieure aux nombres de
serveurs ( ρ = µλ < n0 ).
Exemple d’application
Soit un système d’attente M/M/1 où un client arrive en moyenne tous les quarts
d’heure, et dont la durée moyenne de service est 10 minutes.
1. Calculons les probabilités pour que deux clients, trois clients, k clients
soient en attente dans la file, ainsi que la longueur moyenne de la file et le
temps moyen d’attente pour un client. On prend l’heure pour unité.
π2 = ( 23 )2 31 ; π3 = ( 23 )3 13 ; πk = ( 23 )k 13
λ2 ρ2
E(L∞ ) = µ(µ−λ)
= 1−ρ = 43
λ ρ
E(W∞ ) = µ(µ−λ) = µ(1−ρ) = 13
soit 20 minutes d’attente moyenne par client.
2. Si le taux d’arrivée augmente de 25 pour cent, voyons comment évoluent
la longueur moyenne de la file et le temps moyen d’attente pour un client.
Le taux d’arrivée initial est de 4 par heure, et après augmentation il est
de 5 par heure ; d’où ρ = 56 .
E(L∞ ) = 256
, soit une file moyenne trois fois plus longue que précédemment.
5
E(W∞ ) = 6 , soit deux fois et demi plus d’attente moyenne.
On constate un phénomène analogue lorsque la durée moyenne de service
µ augmente : choisir par exemple µ = 4.5 et λ = 4.
Conclusion
D’un point de vue pratique, il y a donc conflit d’intérêts entre les clients qui
souhaitent passer le moins de temps possible en attente et le gestionnaire qui
souhaite minimiser le nombre de services. Si le gestionnaire du service souhaite
diminuer le risque de perte des clients, il faudra qu’il choisisse un nombre mini-
mal de services de façon à ce que l’intensité du trafic ρ ne soit pas trop proche
de 1.
42
3.4 Travaux Dirigés
On considère une cabine téléphonique avec une loi d’arrivée de Poisson avec un
taux d’arrivée de 3 personnes/heure. Le temps passé par un individu dans la
cabine suit la loi exponentielle de moyenne 10 minutes.
1. Quel est le temps moyen d’attente de chaque individu ?
2. Quel est le nombre total moyen de personnes dans le système ?
3. Quelle est la probabilité que le temps total passé dans le système soit plus
grand ou égal à 10 mn ? 15 mn ? 20 mn ? Quelle conclusion peut-on en
tirer ?
4. On suppose maintenant que le taux d’arrivée s’élève à 10 personnes/heure.
On souhaiterait limiter le nombre moyen de personnes à moins de trois
(resp. le temps d’attente moyen à moins de 10 mn). De combien de cabines
faudrait-il disposer au minimum ?
Exercice 3. (Monoserveur-multiserveur)
On doit relier deux ordinateurs qui utilisent huit applications parallèles. Chaque
application génère un trafic Poissonnien de 2 paquets/s en moyenne. La lon-
gueur moyenne des paquets est de 16 kb. On propose deux solutions :
solution 1 : dédier une bande de base 64 kb/s à chaque application (8 monoser-
veurs M/M/1) ;
solution 2 : utiliser une ligne à 512 kb/s pour toutes les applications (1 mono-
serveur M/M/1).
1. Quelle est la solution qui donne le meilleur temps de réponse (i.e. temps
de séjour dans le système) ?
43
2. On envisage d’utiliser la solution 1 mais avec une répartition équilibrée
entre les serveurs, c’est-à-dire que l’on ouvre 8 serveurs (1 multiserveur
M/M/8, voir l’annexe 3).
– (a) Quel est le temps de réponse ?
– (b) Quel est le nombre moyen de paquets transitant dans le système ?
– (c) Quel semble être le meilleur dispositif ?
44