Vous êtes sur la page 1sur 19

République Algérienne Démocratique et Populaire

Ministère de l’Enseignement Supérieur et de la Recherche Scientifique


Université De M’hamed Bougara Boumerdes
Faculté des Sciences
Département de Mathématiques

Gestion des files d’attente

Présenté par

ISSAADI Badredine

Maître de conférences classe A,

Pour Master I

Spécialité : Recherche Opérationnelle, Optimisation et Management


Stratégique.

Année Universitaire : 2020 / 2021


Email : issaadi_badredine@univ-boumerdes.dz
issaadi_badredine@yahoo.fr
Table des matières

Table des matières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I

1 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Introduction 1
1.2 Processus de comptage 1
1.3 Une relation fondamentale 2
1.4 Définition et propriété principale 3
1.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4.2 Propriété principale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4.3 Graphe des transitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Processus de Poisson et loi exponentielle 6
1.6 Exemple 7

2 Phénomènes d’attente
processus de naissance et de mort . . . . . . . . . . . . . . . . . . . . . . 9
2.1 Processus de naissance et de mort 9
2.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

U.M.B.B B. ISSAADI
2.1.3 Régime transitoire et régime stationnaire . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.3.1 Régime transitoire . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.3.2 Régime stationnaire . . . . . . . . . . . . . . . . . . . . . . 11
2.1.4 Graphes des transitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.5 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 Phénomènes d’attente 14
2.2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.2 Discipline du service . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.3 Classification des systèmes d’attente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.4 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
I
1. Processus de Poisson

AD e
in

1.1 Introduction
SA
ed

les processus stochastiques à temps continu, le processus de Poisson occupe


P
ARMI
dr

une place privilégiée. Il est utilisé avant tout pour décrire la réalisation dans le
Ba

temps d’événements aléatoires d’un type donné, comme par exemple :


– L’arrivée de clients vers un guichet ;
– L’occurrence d’accidents dans une entreprise ;
– L’apparition de pannes dans un parc de machines ;
– L’arrivée de tâches dans l’unité centrale d’un ordinateur.
IS

1.2 Processus de comptage


La description mathématique d’un flux d’événements aléatoires peut se faire de
deux manières différentes :
– On considère le nombre d’événements N ( t) se produisant dans l’intervalle de
temps [0, t[ et on cherche à déterminer la distribution de cette variable discrète.
Le processus stochastique { N ( t), t ≥ 0} est appelé processus de comptage,
ses réalisations sont des fonctions en escalier non décroissantes. Notons que
N ( u + t) − N ( u) indique le nombre (aléatoire) d’événements se produisant dans
l’intervalle semi-ouvert ( u, u + t].

U.M.B.B B. ISSAADI
1.3 Une relation fondamentale 2

– On considère les intervalles de temps qui séparent les instants d’apparitions


de deux événements consécutifs. Ce sont des variables aléatoires continues
et positives dont on admettra généralement qu’elles sont indépendantes et
identiquement distribuées. La connaissance de leur distribution commune
permettra alors de déterminer les propriétés caractéristiques du processus de
comptage correspondant.

I
1.3 Une relation fondamentale
Soit { N ( t), t ≥ 0} un processus de comptage et désignons par T n la durée séparant

AD
le ( n − 1) − ième du n − ième événement ( n = 2, 3, . . .). En particulier, T1 est l’instant de
réalisation du premier événement. La variable aléatoire T n appelée durée d’attente,
représente le temps pendant lequel le processus demeure dans l’état ( n − 1), posons
ensuite :
S n = T1 + T2 + · · · + T n ,

S n est le temps écoulé jusqu’à la réalisation du n − ième événement. On vérifie


aisément qu’il y a équivalence pour chacune des paires d’événement suivantes :
e
in

" N ( t) ≤ n" et "S n+1 > t,


SA
ed

" N ( t) ≥ n" et "S n ≤ t.


dr

Il en résulte que pour n = 1, , . . .


Ba

N ( t) = n ⇔ N ( t) ≤ n et N ( t) ≥ n,
⇔ S n+1 > t et S n ≤ t,
⇔ t ∈ [S n , S n+1 [.
IS

Donc,

P ( N ( t) = n) = P (S n+1 > t et S n ≤ t)
= P (S n+1 > tS n ≤ t) P (S n ≤ t)
= [1 − P (S n+1 ≤ tS n ≤ t)] P (S n ≤ t)
= P (S n ≤ t) − P (S n+1 ≤ tS n ≤ t) P (S n ≤ t)
= P (S n ≤ t) − P (S n+1 ≤ t et S n ≤ t)
= P (S n ≤ t) − P (S n+1 ≤ t)

puisque S n+1 ≤ t implique S n ≤ t, cette relation est valable pour tout processus de
comptage.

U.M.B.B B. ISSAADI
1.4 Définition et propriété principale 3

1.4 Définition et propriété principale


1.4.1 Définition
On dit qu’un processus de comptage { N ( t), t ≥ 0} est un processus de Poisson
s’il satisfait aux trois conditions suivantes :
c 1 − Le processus N ( t) est homogène dans le temps, ceci veut dire que la probabi-
lité d’avoir k événements dans un intervalle de longueur donnée t ne dépend
que de t et non pas de la position de l’intervalle par rapport à l’axe temporel.
En d’autres termes,

I
P ( N ( s + t) − N ( s) = k) = P ( N ( t) = k) = p k ( t),

pour tout s > 0, t > 0 et k = 0, 1, 2, . . .

AD
c 2 − Le processus N ( t) est à accroissement indépendants ce qui signifie que pour
tout systèmes d’intervalles disjoints, les nombres d’événements s’y produisant
sont des variables aléatoires indépendantes. En particulier,

P ( N ( s + t) − N ( s) = k, N ( s) = j ) = P ( N ( s + t) − N ( s) = k) P ( N ( s) = j )
= P ( N ( t) = k ) P ( N ( s) = j )
= p k ( t) p j ( t),
e

pour tout s > 0, t > 0.


in
SA
c 3 − La probabilité que deux événements ou plus se produisent dans un petit
ed

intervalle ∆ t est négligeable par rapport à la probabilité qu’il n’y ait qu’un seul
dr

événement. En termes plus précis :


Ba




 O (∆ t ) k ≥ 2,

p k (∆ t) = λ∆ t + O (∆ t) k = 1,


1 − λ∆ t + O (∆ t)

k = 0.
IS

Le coefficient λ est appelé densité ou intensité du processus Poissonien. La


condition c 3 exclut la possibilité d’une réalisation simultanée de deux événe-
ments ou plus.

1.4.2 Propriété principale


Nous donnons ci-après le résultat principal de ce chapitre qui explique bien le
nom donné au processus Poissonien.

Théorème 1.4.1 Si un processus de comptage { N ( t), t ≥ 0} satisfait aux conditions


c 1 , c 2 et c 3 formulées dans le paragraphe 1.4.1, alors :

(λ t)k −λ t
p k ( t) = P ( N ( t) = k ) = e , t > 0 et k = 0, 1, 2, . . .
k!

U.M.B.B B. ISSAADI
1.4 Définition et propriété principale 4

Par conséquent
E ( N ( t)) = λ t et V ( N ( t)) = λ t.

Démonstration. D’après le théorème des probabilités totales et en tenant compte


des conditions c 2 et c 3 on a pour n = 1, 2, . . .

p n ( t + ∆ t) = P ( N ( t + ∆ t) = n)
n
P ( N ( t) = n − i, N (∆ t) = i )
X
=
i =0

I
n
P ( N ( t) = n − i ) P ( N (∆ t) = i )
X
=
i =0

AD
n
= p n ( t) p 0 (∆ t) + p n−1 ( t) p 1 (∆ t) + p n− i ( t) p i (∆ t)
X
i =2
= p n ( t) (1 − λ∆ t) + p n−1 ( t) λ∆ t + O (∆ t)

Ce qui implique

p n ( t + ∆ t) − p n ( t) O (∆ t)
= −λ p n ( t) + λ p n−1 ( t) +
∆t ∆t
= λ( p n−1 ( t) − p n ( t)) + O (∆ t)
e

Lorsque ∆ t tend vers zéro, on obtient :


in
SA
ed

p0n ( t) = λ( p n−1 ( t) − p n ( t)).


dr
Ba

De la même façon, nous avons :

p 0 ( t + ∆ t) = P ( N ( t + ∆ t) = 0)
= P ( N ( t) = 0, N (∆ t) = 0)
= P ( N ( t) = 0) P ( N (∆ t) = 0)
IS

= p 0 ( t) p 0 (∆ t) = p 0 ( t)(1 − λ∆ t + O (∆ t))

Puis,
p 0 ( t + ∆ t) − p 0 ( t)
= −λ p 0 ( t) + O (∆ t)
∆t
Lorsque ∆ t → 0,
p00 ( t) = −λ p 0 ( t).

Donc, 
 p0 ( t) = λ( p n−1 ( t) − p n ( t)) si n ≥ 1,
n
 p0 ( t) = −λ p ( t) sinon.
0 0

Ce système d’équations différentielles connus sous le nom d’équations de Chapman-


Kolmogorov, il peut être résolu soit par récurrence, soit en employant les fonctions

U.M.B.B B. ISSAADI
1.4 Définition et propriété principale 5

génératrices. Utilisons la récurrence, avec les conditions initiales p 0 (0) = 1 et p i (0) =


0, i ≥ 1.
Pour p00 ( t) = −λ p 0 ( t) la solution est donnée par p 0 ( t) = K e−λ t , avec p 0 (0) = 1 on
trouve k = 1, d’où
p 0 ( t) = e−λ t .

Pour p01 ( t) = λ( p 0 ( t) − p 1 ( t)), la solution est donnée par p 1 ( t) = (λ t + C ) e−λ t , avec


p 1 (0) = 0 on trouve C = 0, d’où
p 1 ( t) = λ te−λ t .

I
¡ (λ t)2
Pour p02 ( t) = λ( p 1 ( t) − p 2 ( t)), la solution est donnée par p 2 ( t) = + C e−λ t , avec
¢
2
p 2 (0) = 0 on trouve C = 0, d’où

AD
Supposons que ∀ j ≥ 2, on a
p 1 ( t) =

p j ( t) =
(λ t)2 −λ t
2
e .

(λ t) j −λ t
j!
e ,

et montrons que cette relation reste valable pour ( j + 1), on doit alors résoudre
p0j+1 ( t) = λ( p j ( t) − p j+1 ( t)), la solution de cette dernière est donnée par p j+1 ( t) =
¡ (λ t) j+1 ¢ −λ t
e
+ C e , avec p j+1 (0) = 0 on trouve C = 0, d’où
in

( j +1)!
SA
ed

(λ t) j+1 −λ t
p j+1 ( t) = e .
dr

( j + 1)!
Ba

Alors ∀ n ≥ 0 :
(λ t)n −λ t
p n ( t) = e .
( n)!

IS

U.M.B.B B. ISSAADI
1.5 Processus de Poisson et loi exponentielle 6

1.4.3 Graphe des transitions


1  ∆   1  ∆   1 ∆  
                     

1    1

∆   ∆  
                     

I
ou bien,

AD
1    1

    

1.5 Processus de Poisson et loi exponentielle


Soit { N ( t), t ≥ 0} un processus de Poisson de paramètre λ, et T n la durée séparant
e
la ( n − 1) − ième et le n − ième événement.
in
SA
Théorème 1.5.1 Les temps d’attente T n d’un processus de Poisson de paramètre λ
ed

sont des variables aléatoires indépendantes et distribuées identiquement selon


dr

une loi exponentielle de paramètre λ.


Ba

Théorème 1.5.2 Un processus de comptage { N ( t), t ≥ 0} est un processus de Pois-


son de paramètre λ si les intervalles de temps entre deux événements consécutifs
sont des variables aléatoires indépendantes obéissant à la même loi exponentielle
IS

de paramètre λ.

Démonstration. Soit T1 , T2 , . . ., T n des variables aléatoires indépendantes obéissant


à la même loi exponentielle de paramètre λ, leur somme S n = T1 + T2 + . . . + T n
est alors distribuée suivant une loi gamme de paramètre λ et n qui est également
connue sous le nom de loi d’Erlang d’ordre n, sa densité de probabilité est :

f n ( t) = λn t n−1 e−λ t /( n − 1)!, t ≥ 0.

Pour déterminer la distribution de N ( t), constatons que :

P ( N ( t) = 0) = P (T1 > t) = e−λ t .

U.M.B.B B. ISSAADI
1.6 Exemple 7

D’autre part,

P ( N ( t) = n) = P (S n ≤ t) − P (S n+1 ≤ t), n = 1, 2, . . .

Et par conséquent,
Z t
P ( N ( t) = n) = ( f n ( u) − f n+1 ( u)) du
0
Z t µ n n−1
λ u λn+1 u n −λu

−λ u
= e − e du
0 ( n − 1)! n!
λn t ¡ n−1
Z
− λ u n e−λu du
¢

I
= nu
n! 0
λn h n −λu i t
= u e du

AD
n! 0
(λ t)n −λ t
= e
n!

1.6 Exemple
e
Admettons que la durée de vie d’un dispositif technique est exponentielle de
in
SA
paramètre λ = 1 h−1 . Dès qu’un dispositif tombe en panne, il est immédiatement
ed

remplacé par un élément identique.


dr

1. Quelle est la probabilité d’avoir plus de 3 pannes dans un intervalle d’une


Ba

durée de 2 h ?
2. Quelle est la distribution de l’instant d’occurrence de la première panne sachant
que le deuxième dispositif fonctionne encore à l’instant t = 3 h ?
Solution :
IS

1) D’après le théorème 1.5.2 le nombre de pannes N ( t) se produisant dans un


intervalle de temps [0, t], suit une loi Poissonienne de paramètre λ, d’où :

P ( N (2) > 3) = 1 − P ( N (2) ≤ 3)


= 1 − P ( N (2) = 0) − P ( N (2) = 1) − P ( N (2) = 2) − P ( N (2) = 3)
= 1 − p 0 (2) − p 1 (2) − p 2 (2) − p 3 (2)
4
= 1 − e−2 − 2 e−2 − 2 e−2 − e−2
3
19 −2
= 1− e
3
= 0, 14287

2)
P (T1 < t, N (3) = 1)
P (T1 < t N (3) = 1) =
P ( N (3) = 1)

U.M.B.B B. ISSAADI
1.6 Exemple 8

T1 est l’instant de la première occurrence.

P ( N ( t) = 1, N (3) = 1)
P (T1 < t N (3) = 1) =
P ( N (3) = 1)
P ( N ( t) = 1, N (3) − N ( t) = 0)
=
P ( N (3) = 1)
P ( N ( t) = 1, N (3) − N ( t) = 0)
=
P ( N (3) = 1)
P ( N ( t) = 1) P ( N (3) − N ( t) = 0)
=
P ( N (3) = 1)
( te ) ((3 − t)0 e−(3− t) /0!)
−t

I
=
3 e−3
− t −(3− t)
te e

AD
=
3 e−3
t
=
3
où, 0 ≤ t ≤ 3.
T1 est donc uniformément répartie dans [0, 3].
in e
SA
ed
dr
Ba
IS

U.M.B.B B. ISSAADI
2. Phénomènes d’attente

I
processus de naissance et de mort

AD in e

2.1 Processus de naissance et de mort


SA
ed

2.1.1 Introduction
dr

mathématique d’un système se fait le plus souvent par l’introduction


L
ÉTUDE
Ba

d’un processus stochastique défini de façon appropriée. En premier lieu, on


s’intéresse ici au nombre X ( t) de clients se trouvant dans le système à l’instant t
( t ≥ 0).
IS

Les processus de naissance et de mort interviennent non seulement lors de la


modélisation de systèmes d’attente, mais encore ils permettent de façon générale de
décrire l’évolution temporelle de la taille d’une population d’un type donné. De tels
phénomènes sont naturellement étudiés en biologie, en démographie et en sociologie,
mais on les rencontre aussi en physique et dans des domaines techniques.

2.1.2 Définition
Soit un processus stochastique { X ( t), t ≥ 0} à temps continu, à états discret
n = 0, 1, 2, . . . et homogène dans le temps, c’est à dire tel que :

p i j ( t) = P ( X ( t + s) = j  X ( s) = i )

U.M.B.B B. ISSAADI
2.1 Processus de naissance et de mort 10

ne dépend pas de s. Alors { X ( t), t ≥ 0} est un processus de naissance et de mort s’il


satisfait les postulats suivants :

p i,i+1 (∆ t) = λ i ∆ t + O (∆ t) ( i ≥ 0)
p i,i−1 (∆ t) = µ i ∆ t + O (∆ t) ( i ≥ 1)
p i,i (∆ t) = 1 − (λ i + µ i )∆ t + O (∆ t) ( i ≥ 1)
p 0,0 (∆ t) = 1 − λ0 ∆ t + O (∆ t) ( i = 0)

Les coefficients non négatifs, λ i et µ i sont appelés taux de transition, plus particuliè-

I
rement, on parle de taux de naissance (ou de croissance) et de taux de mort (ou de
décroissance).

2.1.3
AD
De cette définition, on déduit que :

p i, j (∆ t) = O (∆) si | i − j | ≥ 2.

Régime transitoire et régime stationnaire


2.1.3.1 Régime transitoire
e

Les probabilités p n ( t) = P ( X ( t) = n) définissent le régime transitoire du processus


in
SA
{ X ( t), t ≥ 0}. Pour calculer les probabilités d’état p n ( t) = P ( X ( t) = n) nous devons
ed

écrire, d’après le théorème des probabilités totales et pour n ≥ 1 :


dr

p n ( t + ∆ t) = P ( X ( t + ∆ t) = n)
Ba


P ( X ( t) = i, X ( t + ∆ t) = n)
X
=
i =0

p i ( t) p in (∆ t)
X
=
i =0
IS

= p n ( t) p nn (∆ t) + p n−1 ( t) p n−1,n (∆ t) + p n+1 ( t) p n+1,n (∆ t)



p i ( t) p in (∆ t)
X
+
i 6= n,n−1,n+1
= p n ( t) (1 − (λn + µn )∆ t + O (∆ t)) + p n−1 ( t) (λn−1 ∆ t + O (∆ t))
+ p n+1 ( t) (µn+1 ∆ t + O (∆ t)) + O (∆ t)
= p n ( t) − p n ( t) (λn + µn )∆ t + p n−1 ( t) λn−1 ∆ t + p n+1 ( t) µn+1 ∆ t + O (∆ t)

D’où
p n ( t + ∆ t) − p n ( t) O (∆ t )
= − p n ( t) (λn + µn ) + p n−1 ( t) λn−1 + p n+1 ( t) µn+1 +
∆t ∆t
En faisant tendre ∆ t → 0 (vers 0), on trouve

p0n ( t) = −(λn + µn ) p n ( t) + λn−1 p n−1 ( t) + µn+1 p n+1 ( t).

U.M.B.B B. ISSAADI
2.1 Processus de naissance et de mort 11

De la même façon :

p 0 ( t + ∆ t) = p i ( t) p i0 (∆ t)
X
i =0
= p 0 ( t) p 00 (∆ t) + p 1 ( t) p 10 (∆ t) + p i ( t) p i0 (∆ t)
X
i >1
= p 0 ( t) (1 − λ0 ∆ t) + p 1 ( t) µ1 ∆ t + O (∆ t)
= p 0 ( t) − p 0 ( t)λ0 ∆ t + p 1 ( t)µ1 ∆ t + O (∆ t)

Par conséquent,
p 0 ( t + ∆ t) − p 0 ( t) O (∆ t )

I
= −λ0 p 0 ( t) + µ1 p 1 ( t) +
∆t ∆t
Lorsque ∆ t → 0,

AD
p00 ( t) = −λ0 p 0 ( t) + µ1 p 1 ( t).
Ces équations sont connues sous le nom d’équations différentielles de Kolmogorov ;
elles permettent de calculer les probabilités d’état p n ( t) si l’on connait les conditions
initiales du processus X (0). On peut ainsi déterminer le régime transitoire du proces-
sus stochastique { X ( t), t ≥ 0}. Cependant, la résolution analytique des équations de
Kolmogorov se montre généralement très complexe, voire impossible, on ne considère
donc généralement que la distribution stationnaire.
e

2.1.3.2 Régime stationnaire


in
SA
Le régime stationnaire du processus stochastique, défini par :
ed

πn = lim p n ( t) = P ( X (+∞) = n), n = 0, 1, 2, . . .


dr

t→∞
Ba

Ces limites existent et sont indépendantes de l’état initial du processus, et

lim p0n ( t) = 0, n = 0, 1, 2, . . .
t→∞
A la place d’un système d’équations différentielles, on obtient alors un système
d’équations linéaires :
IS


λ0 π0 = µ1 π1 si ( n = 0),
( λ + µ ) π = µ
n n n n+1 π n+1 + λ n−1 π n−1 si ( n ≥ 1).
appelées équations de balance.
Additionnons les ( n + 1) premières équations, c.-à-d. :

λ0 π0 = µ1 π1
(λ1 + µ1 )π1 = µ2 π2 + λ0 π0
(λ2 + µ2 )π2 = µ3 π3 + λ1 π1
..
.
(λn + µn )πn = µn+1 πn+1 + λn−1 πn−1

U.M.B.B B. ISSAADI
2.1 Processus de naissance et de mort 12

Nous trouvons,
λn πn = µn+1 πn+1 ( n ≥ 0)

Donc,
λn
πn+1 = πn ,
µn+1
en d’autre termes :
λn−1
πn = πn−1
µn
λn−2

I
πn−1 = πn−2
µn−1
..
.

AD
λ0
π1 = π0
µ1

donc,

λn−1 λn−2 λ0 λ0 λ1 · · · λn−1


µ ¶µ ¶ µ ¶ µ ¶
πn = ··· π0 = π0 .
µn µn−1 µ1 µ1 µ2 · · · µ n

X
Ajoutons la condition : πn = 1, alors
e
n=0
in
SA
∞ λ λ ···λ
0 1 n−1
ed

X
π0 + π0 = 1
n=1 µ µ
1 2 · · · µ n
dr

à !
∞ λ λ ···λ
X 0 1 n−1
π0 1 + = 1
Ba

n=1 µ µ
1 2 · · · µ n

d’où :
" #−1
∞ λ λ ···λ
X 0 1 n−1
π0 = 1+ .
n=1 µ1 µ2 · · · µ n
IS

U.M.B.B B. ISSAADI
2.1 Processus de naissance et de mort 13

2.1.4 Graphes des transitions


  1 Δ   1 Δ 1 Δ 1 Δ  

1 Δ   Δ   Δ   Δ Δ Δ Δ  

  0    1    2  ···   n  n+1  ···


Δ   Δ   Δ Δ Δ Δ  

ou bien,
 
ߤଵ   ߤଶ   ߤଷ ߤ௡ ߤ௡ାଵ ߤ௡ାଶ  

I
  0    1    2  ···   n  n+1  ···

AD
ߣ଴   ߣଵ   ߣଶ ߣ௡ିଵ ߣ௡ ߣ௡ାଵ  

2.1.5 Exemple
Dans un cabinet médical, l’arrivée des patients peut être décrite par un processus
poissonnien de paramètre λ = 4 h−1 . La durée de traitement suit une loi exponentielle
de moyenne 12 min. Si l’on admet de plus que la salle d’attente ne contient qu’une
seule place, quelle est la probabilité qu’une personne qui arrive puisse être traitée ?
e
Solution :
in
SA
Le nombre de patients se trouvant dans le cabinet forme un processus de naissance
ed

et de mort dont on veut connaitre le régime stationnaire, on a :


dr

 
λ0 = λ1 = λ = 4 λ i = 0 , ∀ i ≥ 2
Ba

et
µ = µ = µ = 5 µ = 0 , ∀ i ≥ 3
1 2 i

le graphe des transitions est donné :


  1 9Δ
5Δ   5Δ  
1 5Δ
IS

1 4Δ  
  0    1    2 

4Δ   4Δ  

µπ1 = λπ0
λπ0 + µπ2 = (λ + µ)π1
λπ1 = µπ2

on tire alors : µ ¶2
λ λ
π1 = π0 et π2 = π0 ,
µ µ
avec : µ³ λ ´ ³ λ ´2 ¶−1
π0 = 1 + + .
µ µ

U.M.B.B B. ISSAADI
2.2 Phénomènes d’attente 14

Numériquement, on obtient : π0 = 0.41, π1 = 0.33 et π2 = 0.26.


La probabilité qu’un client qui arrive soit traité vaut donc : π0 + π1 = 0.74.
vn+1 servis

2.2 Phénomènes
  d’attente

2.2.1 Introduction  

Serveur comprend un espace de service avec une ou plusieurs
Un système  d’attente
stations de service montées en parallèle, et un espace d’attente dans lequel se
 
forme une éventuelle file d’attente. Des phénomènes d’attente se manifestent sous

I
Temps
des formes multiples
  dont voici
  quelques exemples :
– L’arrivée deFile d’attente
voitures vers une station-service ;
  •  • 

AD
– Vente de billets auprès d’un guichet ;
– Réparation   de machines
qn clients   qn+1mécanicien
défectueuses par un clients ;

  Cn sur un aéroport ;
– Atterrissage des avions Cn+1
..
.
 
Un système d’attente peut être représente, dans le cas d’un seul serveur comme
suit :  

    File d’attente Serveur


ine
SA
               
ed

 
Dans le cas de plusieurs serveurs, il est représenté comme suit :
dr

 
Ba

 
IS

2.2.2 Discipline du service


La discipline de la file d’attente concerne l’ordre de traitement des clients. Les
principales disciplines de service utilisées sont :
– FIFO (First In First Out) : premier entré, premier servi. C’est la règle la
plus communément utilisée dans les entreprises de services ; elle procure aux
clients un sentiment de justice, bien qu’elle pénalise les clients dont le temps
de service est court. Elle est appliquée dans les banques, les magasins, les
cinémas, les restaurants, etc ;
– LIFO (Last In First Out) : le dernier arrivé sera le premier servi. Cette
discipline est généralement très utilisée dans les stocks non périssables ;

U.M.B.B B. ISSAADI
2.2 Phénomènes d’attente 15

– FIRO (First In Random Out) : les clients sont servis de manière aléatoire.
Cette discipline est généralement utilisée dans les serveurs informatiques ;
– La discipline avec priorité : il y a plusieurs classes de clients, chaque classe
possède un niveau de priorité. C’est le client qui a la plus haute priorité qui
est servi le premier.
– PS (Processes Sharing) : Processus Partagé, c’est le cas de la distribution
ROUND-ROBIN lorsque le quantum Q tend vers 0. Tous les clients sont servis
en même temps avec une vitesse inversement proportionnelle au nombre de
clients simultanément présents ;

I
– ROUND-ROBIN (cyclique) : tous les clients du système entrent en service
à tour de rôle, effectuant Q (Quantité déterminée) de leurs temps de service

2.2.3
AD
et sont remplacés dans la file, jusqu’à ce que leurs service soit totalement
accompli ;
..
.

Classification des systèmes d’attente


Pour identifier un système d’attente, on a besoin des spécifications suivantes :
– La distribution des inter-arrivées ;
ine
SA
– La distribution du temps de service ;
ed

– Le nombre S de stations de service qui sont montées en parallèle ;


dr

– La capacité K du système. Si K < ∞, la file d’attente ne peut dépasser une


Ba

longueur de K − S unités.
Pour la classification des systèmes d’attente, on utilise généralement la notation de
KENDALL A /B/S /(K / N / Z ) où :
• A : distribution des temps entre deux arrivées successives ;
• B : distribution des durées de services ;
IS

• S : nombre de postes de service en parallèle ;


• K : capacité du système (nombre de serveurs + longueur maximale de la file) ;
• N : population des usagés ;
• Z : discipline du service.
Dans le cas où les valeurs K , N et Z ne sont pas données, alors on les prend par
défaut à ∞, ∞, FIFO.

Pour spécifier les distributions A et B, on introduit les symboles suivants :


• M : distribution exponentielle (qui vérifie donc la propriété de Markov) ;
• E k : distribution d’Erlang d’ordre k ;
• G : distribution générale ;
• D : cas déterministe.

U.M.B.B B. ISSAADI
2.2 Phénomènes d’attente 16

2.2.4 Exemple
La notation M /D /1/4 définit un système d’attente comprenant une station de
service et pour lequel la capacité de l’espace d’attente vaut 4 − 1 = 3. Le processus
d’arrivée est poissonnien et la durée de service constante.

I
AD e
in
SA
ed
dr
Ba
IS

U.M.B.B B. ISSAADI

Vous aimerez peut-être aussi