Vous êtes sur la page 1sur 78

Recherche Oprationnelle:

Programmation dynamique, chanes de Markov, les dattente


Cours de Tronc Commun Scientique 2A
Notes de cours et exercices corrigs
Frdric SUR
sur@loria.fr
http://www.loria.fr/sur/enseignement/RO/
cole des Mines de Nancy
2011-2012
Avertissement. Ce document est constitu de notes de cours dans une version pr-
liminaire. Il contient vraisemblablement des coquilles et erreurs, merci de bien vouloir
me les signaler.
Il sagit dun rsum trs condens de notions dont ltude approfondie ncessiterait
bien plus de temps. On essaie ici de donner les lments simplis, mais autant que pos-
sible rigoureux, de la thorie qui permettent daller au del de lapplication de formules.
Nhsitez pas consulter la littrature ddie.
Table des matires
1 La programmation dynamique 5
1.1 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 La distance ddition . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Problme de location de skis . . . . . . . . . . . . . . . . . . . 6
1.1.3 quilibrage de charge sur deux machines en parallle . . . . . . 7
1.1.4 Gestion de stocks . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.5 Programmation dynamique et plus court chemin . . . . . . . . 8
2 Les chanes de Markov 9
2.1 Exemple introductif . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.1 Dnitions et premires proprits . . . . . . . . . . . . . . . . 11
2.2.2 Reprsentation graphique des chanes de Markov . . . . . . . . 12
2.2.3 Chanes rductibles et irrductibles . . . . . . . . . . . . . . . 14
2.2.4 Chanes priodiques et apriodiques . . . . . . . . . . . . . . . 15
2.3 Comportement asymptotique des chanes ergodiques . . . . . . . . . . 17
2.4 Le thorme des coupes . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5 Comportement asymptotique des chanes absorbantes . . . . . . . . . . 21
2.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.6.1 Lanatomie dun moteur de recherche (examen 2010-2011) . . . 25
3 Les les dattentes 27
3.1 Rappels : loi de Poisson et loi exponentielle . . . . . . . . . . . . . . . 27
3.2 Caractristiques dune le dattente . . . . . . . . . . . . . . . . . . . 28
3.3 La formule de Little . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4.1 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . 32
3.5 Modlisation dans le cadre Markovien . . . . . . . . . . . . . . . . . . 35
3.5.1 La proprit PASTA . . . . . . . . . . . . . . . . . . . . . . . 35
3.5.2 Les clients et les serveurs sont sans mmoire . . . . . . . . . . 36
3.5.3 Les les dattente M/M/1 . . . . . . . . . . . . . . . . . . . . . 38
3
TABLE DES MATIRES 4
3.5.4 Processus de naissance et de mort . . . . . . . . . . . . . . . . 43
3.6 Formulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.6.1 File M/M/1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.6.2 File M/M/1/K . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.6.3 File M/M/m . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.6.4 File M/M/m/m . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.7 Les les M/G . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.7.1 Processus de Markov . . . . . . . . . . . . . . . . . . . . . . . 48
3.7.2 File M/G/1 gnrale . . . . . . . . . . . . . . . . . . . . . . . 49
3.8 Rseaux de les dattente . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.9 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.9.1 Paradoxe de lautobus . . . . . . . . . . . . . . . . . . . . . . 55
3.9.2 Dimensionnement dun service-client . . . . . . . . . . . . . . 55
3.9.3 Vlos en libre service (rattrapage 2010-2011) . . . . . . . . . . 55
3.9.4 Chez le mdecin (examen 2010-2011) . . . . . . . . . . . . . . 56
3.9.5 Problme de maintenance informatique (examen 2010-2011) . . 56
3.9.6 tude dune le M/G/1 (examen 2010-2011) . . . . . . . . . . 57
4 Correction des exercices 59
4.1 La programmation dynamique . . . . . . . . . . . . . . . . . . . . . . 60
4.1.1 La distance ddition . . . . . . . . . . . . . . . . . . . . . . . 60
4.1.2 Problme de location de skis . . . . . . . . . . . . . . . . . . . 62
4.1.3 quilibrage de charge sur deux machines en parallle . . . . . . 63
4.1.4 Gestion de stock . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.1.5 Programmation dynamique et plus court chemin . . . . . . . . 66
4.2 Les chanes de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.2.1 Lanatomie dun moteur de recherche . . . . . . . . . . . . . . 67
4.3 Les les dattente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.3.1 Paradoxe de lautobus . . . . . . . . . . . . . . . . . . . . . . 69
4.3.2 Dimensionnement dun service-client . . . . . . . . . . . . . . 70
4.3.3 Vlos en libre service . . . . . . . . . . . . . . . . . . . . . . . 72
4.3.4 Chez le mdecin . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.3.5 Problme de maintenance informatique . . . . . . . . . . . . . 73
4.3.6 tude dune le M/G/1 . . . . . . . . . . . . . . . . . . . . . . 75
F. Sur 2011-2012
Chapitre 1
La programmation dynamique
Dans cette version du polycopi, ce chapitre contient uniquement les exercices.
1.1 Exercices
1.1.1 La distance ddition
. . .aussi appele distance de Levenshtein.
Soient x et y deux mots sur un alphabet, de longueurs respectives m et n.
On note d(x, y) le nombre minimal dinsertions ou de suppressions de caractres
pour passer de x y. Lentier d(x, y) est appel distance ddition entre les mots x et y.
Par exemple, on peut passer de mines mimes des deux manires suivantes :
mines mies (suppression) mimes (insertion)
mines mins (suppression) mimns (insertion) mimens (insertion)
mimes (suppression)
La premire solution ncessite 2 insertions/suppressions, la seconde 4.
Dans cet exemple, d(mines,mimes) = 2.
Questions.
1. Montrez que d tablit bien une distance entre mots.
2. Montrez que |mn| d(x, y) m+n.
3. Pour i {0, 1, 2, . . . , m} et j {0, 1, 2, . . . , n}, on note x
i
et y
j
les prxes de x
et y de longueurs respectives i et j, avec la convention x
0
= y
0
= , o est le
mot vide.
Quelles sont les valeurs de d(x
i
, y
0
) et d(x
0
, y
j
) ?
5
CHAPITRE 1. LA PROGRAMMATION DYNAMIQUE 6
4. Soient i {1, . . . , m} et j {1, . . . , n}. Montrez que :
d(x
i
, y
j
) = min
_
d(x
i1
, y
j1
) + 2
i,j
, d(x
i1
, y
j
) + 1, d(x
i
, y
j1
) + 1
_
, (1.1)
o
i,j
vaut 0 si la i-me lettre de x et la j-me lettre de y sont identiques, et 1
sinon.
5. Estimez la complexit de lalgorithme rcursif implmentant directement
lquation (1.1). On pourra raisonner sur deux mots de mme longueur n.
Remarquez que dans cet algorithme les mmes calculs sont faits plusieurs fois.
6. Dduisez de lquation (1.1) un algorithme de calcul de d(x, y) tel que le nombre
doprations et loccupation mmoire soient en O(mn).
7. Calculez d(ingenieur, igneneur).
8. Trouvez une suite dopration ralisant le nombre minimal doprations dans le
cas prcdent.
Remarque : On dnit aussi la distance ddition comme le nombre minimal dinser-
tions, suppressions ou substitutions (ces dernires sont bien sr possibles dans le cadre
de lnonc, mais cotent ici 2 oprations). On peut aussi donner des cots diffrents
chaque opration. Le principe de la rsolution par programmation dynamique reste le
mme.
La distance ddition est utilise dans de nombreux contextes (par exemple les cor-
recteurs dorthographe des logiciels de traitement de texte). Une variante est galement
utilise dans les problmes dalignement de gnomes en biologie molculaire.
1.1.2 Problme de location de skis
On cherche attribuer m paires de skis (de longueurs l
1
, l
2
, . . . , l
m
) n skieurs (de
tailles t
1
, t
2
, . . . , t
n
), de manire minimiser la somme des diffrences entre la longueur
des skis et la taille des skieurs.
Bien sr, n m.
On suppose sans perte de gnralit que les l
i
et les t
i
sont classs par ordre croissant.
Le problme consiste trouver une fonction (dallocation) a telle que le skieur n
o
i
se voit attribu la paire de skis n
o
a(i) et qui minimise :
n

i=1

t
i
l
a(i)

La mme paire de skis nest pas attribue deux skieurs, donc a est injective.
F. Sur 2011-2012
7 1.1. EXERCICES
Questions.
1. Montrez que loptimum est atteint par une fonction a croissante. On supposera
donc que laffectation des skis des i premiers skieurs se fait parmi les j premires
paires de skis.
2. Soit S
i,j
le minimum de la fonction-objectif du problme restreint aux i premiers
skieurs et j premires paires de skis.
Montrez que
S(i, j) = min
_
S(i, j 1), S(i 1, j 1) +|t
i
l
j
|
_
.
3. Comment procderiez-vous pour calculer la solution optimale ?
4. Quelle est la complexit de cet algorithme ?
1.1.3 quilibrage de charge sur deux machines en parallle
On considre deux machines (par exemple des machines industrielles, mais aussi
des processeurs) sur lesquelles sont excutes n tches de dures t
1
, t
2
, . . . t
n
.
On souhaite rpartir les tches sur chacune des machines de manire ce quelles
sarrtent au plus tt.
Questions.
1. Justiez que le but est de partitionner lensemble des n tches en deux sous-
ensembles A
1
et A
2
, lun sexcutant sur la machine 1, lautre sur la machine 2,
tels que
DT(A
1
, A
2
) = max
_

iA
1
t
i
,

iA
2
t
i
_
soit minimum.
2. Notons minDT(k, T) le temps darrt minimal ralisable en plaant les nk der-
nires tches, lorsque lon impose 1) que les k premires tches ont t rparties
sur les deux machines (pas forcment de manire optimale) et 2) que la diffrence
(absolue) entre les temps darrt des machines 1 et 2 est T > 0 si on considre
uniquement les k premires tches.
Que vaut minDT(n, T) ?
tablissez une formule de rcurrence (ascendante en k) sur minDT.
3. Application numrique :
k 1 2 3 4
t
k
1 2 2 6
Quel est lordonnancement optimal ?
Recherche Oprationnelle
CHAPITRE 1. LA PROGRAMMATION DYNAMIQUE 8
1.1.4 Gestion de stocks
On cherche grer le stock dun produit unique sur n units de temps.
On note :
x
k
le nombre dunits disponibles en dbut de priode k.
u
k
le nombre dunits commandes (reues immdiatement) en dbut de priode k
w
k
le nombre dunits demandes par le client en dbut de priode k.
On suppose que les demandes sont connues (par un historique par exemple), et que le
stock a une capacit maximale C. Si une demande ne peut tre satisfaite, une pnalit
doit tre paye mais le client se tourne vers un autre fournisseur.
Les cots associs sont :
cot de rapprovisionnement : c(u
k
) = K
u
k
+ c u
k
, o K est le cot xe de
commande ((u
k
) = 1 si u
k
> 0, 0 sinon) et c le cot unitaire de commande ;
cot de gestion du stock : r(x
k
, u
k
, w
k
) = h max(x
k
+u
k
w
k
, 0) p min(x
k
+
u
k
w
k
, 0), o r est le cot unitaire de stockage et p le cot des pnalits entra-
nes par une pnurie.
On cherche dterminer les commandes u
k
de manire minimiser les cots. On
veut un stock nul la n des n units de temps.
Question.
Montrez que ce problme doptimisation satisfait le principe de Bellman en crivant
la formule de rcurrence adquate.
1.1.5 Programmation dynamique et plus court chemin
Proposez un algorithme utilisant la programmation dynamique pour calculer la dis-
tance entre deux sommets xs dun graphe valu.
Application : trouvez le chemin le plus court de A B, pour le graphe dont les artes
sont values par :
d(A,C) = 5 ; d(A,D) =3 ; d(A,G) = 14 ; d(D,C) = 11 ; d(D,G) = 6 ; d(D,E) = 7 ; d(C,E) =
3 ; d(C, F) = 2 ; d(F,B) = 7 ; d(E,F) =2 ; d(G,E) = 7 ; d(E,B) = 5 ; d(G,B) = 6.
F. Sur 2011-2012
Chapitre 2
Les chanes de Markov
Les principaux rsultats que vous avez vus dans les cours de probabilit / statis-
tique antrieurs ont trait des processus stochastiques ralisations indpendantes (par
exemple loi des grands nombres, thorme de la limite centrale). Les chanes de Mar-
kov permettent de modliser des processus dans lesquels une ralisation dpend de la
ralisation prcdente.
2.1 Exemple introductif
Lobservation du ciel a permis de dduire les statistiques suivantes :
une journe ensoleille est suivie dune journe ensoleille avec une probabi-
lit 0, 9,
une journe ensoleille est suivie dune journe pluvieuse avec une probabilit 0, 1,
une journe pluvieuse est suivie dune journe ensoleille avec une probabilit 0, 5,
une journe pluvieuse est suivie dune journe pluvieuse avec une probabilit 0, 5.
En introduisant la suite de variables alatoires (X
n
)
nN
reprsentant ltat du ciel (S
pour soleil ou P pour pluie) la date n 0, on peut crire les probabilits condition-
nelles :
Pr
_
X
n+1
= S| X
n
= S
_
= 0, 9
Pr
_
X
n+1
= P| X
n
= S
_
= 0, 1
Pr
_
X
n+1
= S| X
n
= P
_
= 0, 5
Pr
_
X
n+1
= P| X
n
= P
_
= 0, 5
Naturellement :
Pr
_
X
n+1
= S| X
n
= S
_
+ Pr
_
X
n+1
= P| X
n
= S
_
= 1
et :
Pr
_
X
n+1
= S| X
n
= P
_
+ Pr
_
X
n+1
= P| X
n
= P
_
= 1.
9
CHAPITRE 2. LES CHANES DE MARKOV 10
Si on sintresse lvolution de ltat du ciel au l du temps, on peut reprsenter le
phnomne par le graphe suivant.
S
0,9

0,1

P
0,5
.
0.5
.
Lorsque lon est ltat Soleil, avec une probabilit 0,9 on reste dans cet tat, et on
va vers ltat Pluie avec une probabilit 0,1. Do lappellation probabilits de transition
pour les probabilits conditionnelles ci-dessus.
Notons P la matrice dordre 2 (appele matrice de transition) :
P =
_
0, 9 0, 1
0, 5 0, 5
_
et intressons-nous la distribution
n
de X
n
, dnie par :

n
=
_
Pr(X
n
= S) , Pr(X
n
= P)
_
.
On calcule avec la formule des probabilits totales :
Pr(X
n+1
= S) = Pr(X
n+1
= S et X
n
= S) + Pr(X
n+1
= S et X
n
= P)
= Pr(X
n
= S) Pr(X
n+1
= S| X
n
= S) +
Pr(X
n
= P) Pr(X
n+1
= S| X
n
= P)
Et de mme :
Pr(X
n+1
= P) = Pr(X
n
= S) Pr(X
n+1
= P| X
n
= S) +
Pr(X
n
= P) Pr(X
n+1
= P| X
n
= P)
Sous forme matricielle cela se rsume en :

n+1
=
n
P
(remarquons quil sagit du produit droite de P par la matrice ligne
n
)
Par rcurrence immdiate on peut crire :
n N,
n
=
0
P
n
.
Lessentiel de ce chapitre sera consacr des questions de convergence, comme :
1. la suite (
n
) converge-t-elle ? (vers une distribution que lon qualiera de station-
naire)
2. si oui quelle condition ?
3. la limite ventuelle dpend-elle de ltat initial
0
?
Le thorme ergodique nous permettra, connaissant la distribution stationnaire

(si celle-ci est unique), de donner la proportion moyenne de journes de beau temps sur
un grand intervalle de temps.
F. Sur 2011-2012
11 2.2. VOCABULAIRE
2.2 Vocabulaire
2.2.1 Dnitions et premires proprits
Dnition 2.1 Soit E un ensemble ni ou dnombrable dtats. Une suite de variables
alatoires (X
n
)
nN
valeurs dans E telle que :
Pr(X
n+1
= j | X
0
= i
0
, . . . , X
n1
= i
n1
, X
n
= i) = Pr(X
n+1
= j | X
n
= i)
est une chane de Markov.
Autrement dit, une chane de Markov est un processus dont la mmoire une pro-
fondeur de 1 : X
n
ne dpend que de X
n1
.
Dnition 2.2 Pr(X
n+1
= j | X
n
= i) = p
n
(i, j) est la probabilit de transition de
ltat i ltat j.
Lensemble des probabilits de transition entre tats caractrise la chane de Markov.
Dans la suite (et sauf indication du contraire) on supposera :
1. p
n
(i, j) ne dpend pas de n : la chane de Markov est dite homogne.
2. Lensemble dtats E est ni, de cardinal not m.
Ces hypothses permettent de dnir la matrice de transition.
Dnition 2.3 Pour une chane de Markov homogne tats nis, on appelle la matrice
P = (p
i,j
) matrice de transition.
Nous allons tablir quelques proprits lmentaires de la matrice de transition. No-
tons, quelque soit n N,
n
la distribution de X
n
.
Proposition 2.1 Avec les notations prcdentes :
la somme des lments de toute ligne de P vaut 1 (on dit que P est une matrice
stochastique).
n N

,
n
=
n1
P =
0
P
n
.
n N, p
n
i,j
= Pr(X
t+n
= j | X
t
= i), o p
n
i,j
dsigne llment en ligne i et
colonne j de la matrice P
n
.
1
Il sagit des quations de Chapman-Kolmogorov.
Dmonstration. Le point 1 vient du fait que la somme des lments de la ligne i est par dnition

m
j=1
Pr(X
n+1
= j | X
n
= i) = 1.
La dmonstration du point 2 se fait comme dans lexemple introductif.
1
Attention, il ne sagit pas de p
i,j
la puissance n .
Recherche Oprationnelle
CHAPITRE 2. LES CHANES DE MARKOV 12
Pour ce qui est du point 3, la dmonstration se fait par rcurrence sur n, avec :
p
n+1
i,j
=
m

k=1
p
i,k
p
n
k,j
=
m

k=1
Pr(X
t+1
= k | X
t
= i) Pr(X
t

+n
= j | X
t
= k)
=
m

k=1
Pr(X
1
= k | X
0
= i) Pr(X
n+1
= j | X
1
= k)
=
m

k=1
Pr(X
1
= k | X
0
= i) Pr(X
n+1
= j | X
1
= k et X
0
= i)
=
m

k=1
Pr(X
n+1
= j et X
1
= k | X
0
= i)
= Pr(X
n+1
= j | X
0
= i)
En effet, la chane de Markov tant homogne, on peut donner toute valeur t et t

dans ce qui
prcde (ligne 3), ensuite on utilise la proprit de Markov (dnition 2.1) la ligne 4, puis la
formule des probabilits totales (ligne 5 et 6).
2.2.2 Reprsentation graphique des chanes de Markov
Une chane de Markov homogne ensemble dtats E peut tre reprsente par la
graphe orient valu G tel que :
ses sommets sont les tats de E,
il y a un arc du sommet i vers le sommet j si p(i, j) > 0,
la valuation de larc i j est la probabilit de transition p(i, j).
Une chane de Markov peut alors tre vue comme une marche alatoire sur le
graphe G : on tire alatoirement x
0
ralisation de X
0
selon la loi
0
, puis de x
0
on
tire x
1
(ralisation de X
1
) selon les probabilits de transition des arcs issus de x
0
, etc.
Exemple 1.
Considrons la chane de Markov valeurs dans E = {1, 2, 3, 4, 5}, de matrice de
transition :
P =
_
_
_
_
_
_
0, 5 0 0, 5 0 0
0, 25 0, 5 0, 25 0 0
0, 4 0 0, 6 0 0
0 0 0 0, 9 0, 1
0 0 0 0, 5 0, 5
_
_
_
_
_
_
Elle est reprsente par le graphe G suivant :
F. Sur 2011-2012
13 2.2. VOCABULAIRE
2
0,5

0,25
.s
s
s
s
s
s
s
s
s
s
s
s
s
s
s
s
s
s
s
s
s
s
s
s
0,25

K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K 4
0,9

0,1

1
0,5

0,5

3
0,6
_
0,4
.
5
0,5

0,5

Dans cet exemple, une ralisation de la chane de Markov pourra prendre les valeurs
des tats 1,2,3, ou 4,5, car le graphe nest pas connexe.
Exemple 2.
La chane de Markov prenant ses valeurs dans {1, 2, 3, 4, 5, 6} et dont la matrice de
transition est :
P =
_
_
_
_
_
_
_
_
0 0, 8 0 0 0 0, 2
0, 4 0 0, 6 0 0 0
0 0, 2 0 0, 8 0 0
0 0 0, 9 0 0, 1 0
0 0 0 0, 75 0 0, 25
0, 25 0 0 0 0, 75 0
_
_
_
_
_
_
_
_
est reprsente par le graphe suivant :
1
0,2

0,8

2
0.4
.
0,6

3
0,2
.
0,8

6
0,75

0,25

5
0,75

0,25
.
4
0,1
.
0,9

Nous reviendrons sur ces deux exemples dans la suite de ce chapitre.


Recherche Oprationnelle
CHAPITRE 2. LES CHANES DE MARKOV 14
2.2.3 Chanes rductibles et irrductibles
Dnition 2.4 Une chane de Markov est dite irrductible si chaque tat est accessible
partir de chaque autre tat en un certain nombre dtapes. Avec la proposition 2.1,
cela se traduit par :
(i, j) E E, n N, p
n
i,j
> 0.
On peut montrer que la relation ltat i est accessible partir de j et ltat j est
accessible partir de i dnit une relation dquivalence sur lensemble des tats E.
Les classes dquivalences de cette relation sont les composantes fortement connexes du
graphe orient G.
Par dnition, un graphe reprsentant une chane de Markov irrductible est forte-
ment connexe (il ne prsente quune seule classe dquivalence).
Dnition 2.5 Si une chane de Markov nest pas irrductible, alors elle est dite rduc-
tible et G admet plusieurs composantes fortement connexes.
Une composante qui ne mne aucune autre est dite nale, sinon les tats qui la
composent sont dits transients (ou transitoires).
Remarquons quune fois quon a quitt une classe tats transients, on ne peut pas
y retourner (par dnition de la classe dquivalence).
Considrons une chane de Markov possdant m n tats transitoires, et n tats
rpartis dans k composantes nales C
1
, C
2
, . . . C
k
. Alors, quitte renumroter les tats
(en considrant dabord les tats de C
1
, puis ceux de C
2
, . . .puis ceux de C
k
, et enn
les tats transitoires), la matrice de transition P peut scrire sous la forme canonique
suivante :
P =
_
_
_
_
_
_
_
P
1
0 . . . 0 0
0 P
2
. . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . P
k
0
Q
1
Q
2
. . . Q
k
Q
k+1
_
_
_
_
_
_
_
o P
i
est une matrice de taille n
i
n
i
(avec n
i
le cardinal de C
i
), et
Q =
_
Q
1
Q
2
. . . Q
k
Q
k+1
_
est une matrice de taille (mn) m.
Avant de revenir aux exemples, voyons une dernire dnition.
F. Sur 2011-2012
15 2.2. VOCABULAIRE
Dnition 2.6 Considrons une chane de Markov rductible. Lorsque les composantes
nales sont toutes rduites un seul tat, on dit que ltat correspondant est absorbant,
et que la chane elle-mme est absorbante.
La forme canonique de la matrice de transition devient :
P =
_
I
ms,ms
0
R
s,ms
Q
s,s
_
o s est le nombre dtats transitoires (et donc n = m s est le nombre dtats absor-
bants).
Dans lexemple 1 prcdent, la chane est rductible. Ses classes (composantes for-
tement connexes du graphe associ) sont : {1, 3}, {2}, {4, 5}.
Ltat 2 est transient, les classes {1, 3} et {4, 5} sont nales.
Quitte permuter les tats, on peut crire la matrice de transition sous la forme
canonique suivante :
P =
_
_
_
_
_
_
1 3 4 5 2
1 0, 5 0, 5 0 0 0
3 0, 4 0, 6 0 0 0
4 0 0 0 0, 9 0, 1
5 0 0 0 0, 5 0, 5
2 0, 25 0, 25 0 0 0, 5
_
_
_
_
_
_
Dans lexemple 2, la chane de Markov est irrductible : chaque tat est accessible
de nimporte quel autre tat.
2.2.4 Chanes priodiques et apriodiques
Dnition 2.7 Un tat i dune chane de Markov est dit priodique (de priode p) si :
p = pgcd {n, Pr(X
n
= i | X
0
= i) > 0} > 1
Autrement dit, si on considre le graphe associ la chane de Markov, tous les cycles
partant de i et revenant en i ont une longueur divisible par p.
Lorsque p = 1 ltat est dit apriodique.
Recherche Oprationnelle
CHAPITRE 2. LES CHANES DE MARKOV 16
Proposition 2.2 Les tats dune mme composante fortement connexe (classe dqui-
valence) ont mme priode.
Dmonstration. Soit p la priode de ltat i et p

la priode de ltat j. On suppose que i et j


appartiennent la mme classe, et donc il existe un chemin de i vers j et un chemin de j vers i.
La concatnation de ces deux chemins forme un cycle sur i, sa longueur l est donc divisible
par p. Or on peut former un cycle sur i du type : i j puis cycle sur j de longueur p

, puis
j i, dont la longueur est l + p

, et est divisible par p. Comme on a dj vu que p divise l,


alors p divise p

. De mme on montre que p

divise p. Conclusion : p = p

.
Il est donc lgitime de parler de la priode dune classe, et de classe priodique (ou
apriodique). Pour une chane de Markov irrductible (qui a donc une seule classe), on
peut parler de chane priodique ou apriodique.
On remarque aussi que ds que le graphe dune chane de Markov irrductible a une
boucle sur un sommet s, alors la chane est apriodique (comme le sommet s).
Dans le cas dune chane irrductible priodique (priode p), on peut dmontrer que
la matrice de transition peut scrire sous la forme (quitte renumroter les tats) :
P =
_
_
_
_
_
_
_
0 P
1
0 . . . 0
0 0 P
2
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . P
p1
P
p
0 0 . . . 0
_
_
_
_
_
_
_
Dans lexemple 1, la chane de Markov est apriodique, car par exemple le sommet 1
est de priode 1 (il prsente une boucle sur lui-mme).
Dans lexemple 2, on se convainc que la chane est de priode 2.
Sa matrice de transition peut se mettre sous la forme canonique :
P =
_
_
_
_
_
_
_
_
1 3 5 2 4 6
1 0 0 0 0, 8 0 0, 2
3 0 0 0 0, 2 0, 8 0
5 0 0 0 0 0, 75 0, 25
2 0, 4 0, 6 0 0 0 0
4 0 0, 9 0, 1 0 0 0
6 0, 25 0 0, 75 0 0 0
_
_
_
_
_
_
_
_
F. Sur 2011-2012
17 2.3. COMPORTEMENT ASYMPTOTIQUE DES CHANES ERGODIQUES
2.3 Comportement asymptotique des chanes ergodiques
Dans cette section, nous nous intressons aux proprits asymptotiques de la distri-
bution
n
de X
n
(lorsque n +).
De la relation
n+1
=
n
P, on voit que si (
n
) converge, cest vers un vecteur
propre ( gauche) associ la valeur propre 1 ( gauche).
Remarquons que 1 est bien valeur propre gauche de P. Comme :
P
_
_
_
_
_
1
1
.
.
.
1
_
_
_
_
_
=
_
_
_
_
_
1
1
.
.
.
1
_
_
_
_
_
(car P est une matrice stochastique) on se rend compte que 1 est valeur propre de P (
droite, i.e. au sens dont vous avez lhabitude). Comme la matrice P et sa transpose P
T
ont les mmes valeurs propres
2
, alors 1 est valeur propre ( droite) de P
T
. On conclut :
1 est bien valeur propre gauche de P.
Attention, ce raisonnement ne nous assure pas :
1. que la suite (
n
) converge effectivement,
2. que le sous-espace propre associ la valeur propre 1 a des vecteurs compo-
santes toutes positives (de manire obtenir une distribution de probabilits en
normalisant),
3. ni lunicit de la limite ventuelle : si le sous-espace propre associ la valeur
propre ( gauche) 1 est de dimension strictement suprieure 1, alors plusieurs
limites sont possibles, selon la valeur de
0
.
Nous allons voir que les chanes irrductibles ont tout de mme une unique distribu-
tion limite.
Proposition 2.3 Une chane de Markov irrductible admet une unique distribution de
probabilit

telle que :

P =

.
Dmonstration. (esquisse) La chane de Markov tant irrductible, pour tout couple dtat (i, j)
il existe un chemin de longueur n(i, j) N entre i et j. Soit n = ppcm{n(i, j)} : pour tout
(i; j) il existe aussi un chemin de longueur n entre les tats i et j (quitte reprendre plusieurs
fois le chemin de longueur n(i, j).
Avec la proposition 2.1, on dduit :
(i, j) E
2
, p
n
i,j
> 0.
(on dit que la matrice stochastique P est rgulire.)
2
En effet, les polynmes caractristiques de P et P
T
sont identiques :
det(PI) = det
_
(PI)
T
_
= det(P
T
I)
Recherche Oprationnelle
CHAPITRE 2. LES CHANES DE MARKOV 18
Maintenant en toute gnralit, si M est une matrice stochastique, une valeur propre,
v = (v
i
) un vecteur propre associ (composantes v
i
), et v
k
= max{ |v
i
|}, alors :
|v
k
| = |

j
p
k,j
v
j
|

j
p
k,j
|v
j
| |v
k
|

j
p
k,j
= |v
k
|
Donc toute valeur propre de Mest infrieure ou gale 1. Comme 1 est effectivement valeur
propre daprs la remarque du dbut de section, on dit que le rayon spectral de Mest 1.
Ainsi P
n
a un rayon spectral 1.
Comme P
n
et sa transpose ont mme spectre, il en est de mme pour (P
T
)
n
Ainsi, p
n
i,j
est strictement positif pour tout couple (i, j) dtats, et la matrice (P
T
)
n
a un
rayon spectral gal 1.
Le thorme de Perron-Frobenius (voir la littrature ddie) nous permet de conclure que
lespace propre associ la valeur propre 1 de P
T
est de dimension 1, et quun vecteur propre
associ 1 est de composantes toutes strictement positives.
On conclut lexistence de

en normalisant la somme des lments 1.


Avant de nous demander quelles sont les conditions pour que la suite (X
n
) admette
une distribution stationnaire limite, revenons sur les deux cas particuliers de chanes de
Markov tudis prcdemment : les chanes rductibles et les chanes priodiques.
Dans le cas des chanes rductibles, la limite (ventuelle) de (
n
) dpend de
0
.
Dans lexemple 1, si la marche alatoire sur le graphe associ la chane part des tats
1, 2 ou 3, il est clair que la distribution limite ventuelle ne pourra tre que de la forme :

=
_
0 0
_
car les tats 4 et 5 ne seront jamais visits. Mme rsultat mutatis mutandis si lon part
de 4 ou 5. La suite des (
n
) dpend donc de
0
.
On peut montrer que dans le cas des chanes rductible, la probabilit dtre dans
un tat transient tend vers 0 quand le nombre de pas n tend vers +, et que si chaque
classe nale est apriodique alors un distribution stationnaire

existe ; elle dpend


alors de
0
.
Dans le cas des chanes priodiques, il ny a a priori pas convergence de (
n
). Dans
lexemple 2, si on part dun tat impair (
0
= (, 0, , 0, , 0)), alors on est certain
quau bout dun nombre impair dtapes on est dans un tat pair. La suite des
n
va
prendre la forme :

2k
=
_

k
0
k
0
k
0
_
et :

2k+1
=
_
0

k
0

k
0

k
_
.
Cette suite ne peut pas converger (rappelons que
n
est une distribution de probabilit
et que donc sa somme vaut 1).
F. Sur 2011-2012
19 2.3. COMPORTEMENT ASYMPTOTIQUE DES CHANES ERGODIQUES
Remarquons au passage quon a vu en section 2.2.3 que cette chane est irrductible,
donc daprs la proposition 2.3 admet une unique distribution stationnaire. On voit que
cela nassure pas la convergence.
On ne discutera pas davantage le cas des chanes rductibles ou priodiques.
Dnition 2.8 Une chane de Markov est dite ergodique si (
n
) converge, indpendam-
ment de
0
.
La limite

de la suite de distributions (
n
) est appele distribution stationnaire
(car elle vrie :

P).
On a vu que les chanes de Markov rductibles ou priodiques ne sont pas ergo-
diques. On admet le thorme suivant.
Thorme 2.1 Les chanes de Markov irrductibles et apriodiques sont ergodiques.
Remarquons quon a la proprit suivante :
Proposition 2.4 La matrice de transition P dune chane de Markov ergodique admet-
tant pour distribution stationnaire

est telle que (P)


n
, o est la matrice carre
forme de la concatnation de lignes identiques

.
Dmonstration. Comme
0
, n 0,
n
=
0
P
n
, P
n
est une suite de matrices convergentes.
Soit Q sa limite : Q est stochastique et comme (P
n
) et (P
n+1
) ont mme limite : Q P = Q.
En particulier nimporte quelle ligne Q
i
de Qvrie : Q
i
P = Q
i
La chane tant ergodique, elle est irrductible donc admet une unique distribution station-
naire

.
Les lignes de Qsont donc gales

.
On admet galement le thorme ergodique suivant :
Thorme 2.2 (thorme ergodique pour les chanes de Markov) Soit (X
n
) une chane
de Markov ergodique de distribution stationnaire

et f une fonction relle borne


dnie sur E (tats de la chane), alors :
lim
n+
1
n + 1
n

k=0
f(X
k
) =

iE

i
f(i) p.s.
Recherche Oprationnelle
CHAPITRE 2. LES CHANES DE MARKOV 20
Ce thorme fait bien sr penser la loi forte des grands nombres lorsque les X
n
sont indpendants.
Un cas particulier intressant est celui o f est la fonction indicatrice dun ensemble
dtat S E : du thorme ergodique on dduit quen moyenne, la proportion de temps
pass dans les tats de S est

iS

i
.
Cela justie lintuition que lon peut avoir du rgime permanent. Dans lexemple
mtorologique initial, la chane de Markov est apriodique (elle prsente une boucle sur
au moins un tat) et irrductible (une seule composante fortement connexe), donc elle est
ergodique. La distribution

existe et satisfait par exemple

P. On peut donc
dterminer

numriquement (faites-le !). Alors

(S) et

(P) sont les probabilits


que, dans longtemps , il y ait un jour ensoleill ou pluvieux. Daprs le thorme
ergodique, cest aussi la proportion de journes ensoleilles ou pluvieuses sur un grand
intervalle de temps.
2.4 Le thorme des coupes
Pour une chane ergodique se pose le problme de dterminer

.
On peut dmontrer que P
n
converge vers une matrice dont toutes les lignes sont
gales

. On voit quon peut utiliser les algorithmes permettant de calculer les puis-
sances successives dune matrice.
On peut galement rsoudre le systme linaire :

P. Ce systme est de
rang m 1 (m : nombre dtats), et la somme des lments de

est 1, ce qui permet


de trouver

.
Dans les deux cas, cela peut tre assez compliqu lorsque la chane de Markov a un
trs grand nombre dtats.
Pour rsoudre le systme dans les cas simples (ceux des exercices), on peut
aussi utiliser le thorme des coupes, qui permet dobtenir un systme dquations
quivalent au prcdent.
Proposition 2.5 Thorme des coupes (conservation des ux). Soit (A, B) une par-
tition de E (A B = E et A B = ). Alors :

jB

iA

i
p
i,j
=

jA

iB

i
p
i,j
Dmonstration. Il sagit dun simple calcul partant de

P :
j,

j
=

iA

i
p
i,j
+

iB

i
p
i,j
F. Sur 2011-2012
21 2.5. COMPORTEMENT ASYMPTOTIQUE DES CHANES ABSORBANTES

jB

j
=

jB

iA

i
p
i,j
+

jB

iB

i
p
i,j
(somme sur j B)

jB

iA

i
p
i,j
=

jB

iB

i
_
_
1

jA
p
i,j
_
_
(la somme sur les lignes
de P vaut 1)

jB

iA

i
p
i,j
=

jA

iB

i
p
i,j
(changement dindice dans la somme de droite)

Remarque : le thorme des coupes est valable pour E inni dnombrable.


Le but est de choisir la partition (ou la coupe entre A et B) en minimisant le
nombre dinconnues

i
. Chaque coupe fournit une quation linaire en les

i
. On utilise
alors m 1 coupes (utiliser davantage de coupes fournirait des quations linairement
lies au prcdentes car le systme est de rang m1) et la condition

i
= 1.
Exemple 3.
On considre la chane de Markov reprsente par le graphe :
1
0,2

0,8

2
0,4

0.3
.
0,3

3
0,8

0,2
.
Cette chane est apriodique irrductible donc ergodique.
Avec la coupe A = {1}, B = {2, 3} on obtient lquation : 0.8

1
= 0.3

2
.
Avec la coupe A = {1, 2}, B = {3} on obtient lquation : 0.3

2
= 0.2

3
.
En ajoutant la contrainte

1
+

2
+

3
= 1 on dduit la valeur des

i
.
Remarquons que les probabilits des boucles ninterviennent pas.
2.5 Comportement asymptotique des chanes absorbantes
Les rsultats de cette section sont adapts du livre Introduction to probability par
C.M. Grinstead et J.L. Snell, American Mathematical Society, 1997.
Considrons une chane de Markov absorbante. Rappelons que, quitte renumroter
les tats en listant dabord les tats absorbants puis les tats transients, la matrice de
transition peut scrire sous la forme :
P =
_
I
ms,ms
0
R
s,ms
Q
s,s
_
Recherche Oprationnelle
CHAPITRE 2. LES CHANES DE MARKOV 22
o s est le nombre dtats transients (et ms le nombre dtats absorbants).
Par souci de simplicit, abandonnons les indices des matrices blocs.
Comme la matrice Pest triangulaire infrieure par blocs, on peut crire quelque soit
n N :
P
n
=
_
I
n
0
Q
n
_
Rappelons que p
n
i,j
est la probabilit darriver ltat j en partant de ltat i, aprs n
tapes (proposition 2.1).
Proposition 2.6 Dans une chane de Markov absorbante, la probabilit datteindre
aprs un certain nombre dtapes un tat absorbant est 1. (i.e. Q
n
0 lorsque n
+).
Dmonstration. Par dnition des tats transients, pour chacun de ces tats j il existe un nombre
minimum m
j
de transitions au bout desquelles on peut arriver un tat absorbant. Soit p
j
la
probabilit de ne pas arriver un tat absorbant en partant de j en m
j
tapes. Remarquons que
p
j
< 1 car par hypothse au moins un chemin arrive un tat absorbant en m
j
tapes. Soit
m = max m
j
et p = min p
j
. Partant de nimporte quel tat transient, la probabilit de ne pas
tre absorb (et donc arriver un tat transient) en m tapes est donc infrieure p
m
, en 2m
tapes elle est infrieure p
2m
, etc. Comme p < 1, p
km
tend vers 0 avec k et la probabilit de
ne pas tre absorb en km tapes aussi.
Dautre part, la probabilit de ne pas tre absorb en n tapes est strictement dcroissante
avec n (faites un raisonnement par rcurrence sur n), donc convergente (suite minore par 0).
Comme la suite extraite des (p
km
)
kN
tend vers 0, cette probabilit tend aussi vers 0.
On conclut bien : Q
n
0.
Thorme 2.3 La matrice carre (de taille s) I Q est inversible.
N = (I Q)
1
est la matrice fondamentale de la chane.
Llment n
i,j
en ligne i et colonne j de la matrice N est le nombre moyen de
passage par ltat transitoire j en partant de ltat transitoire i
3
.
Dmonstration. On calcule :
(I Q)
_
n

k=0
Q
k
_
= I Q
n+1
En passant la limite n +, daprs la proposition prcdente, I Q est inversible et son
inverse est N =

+
k=0
Q
k
.
3
Attention, il y a abus de notation, en fait il sagit du i-me (j-me) tat transitoire, les tats tant
ordonns de manire ce que P soit sous forme canonique. . .
F. Sur 2011-2012
23 2.5. COMPORTEMENT ASYMPTOTIQUE DES CHANES ABSORBANTES
Soit i et j deux tats transitoires, et X
k
i,j
la variable alatoire valant 1 si, partant de i, la
chane est dans ltat j aprs k tapes. Notons q
k
i,j
llment en ligne i, colonne j de la matrice
Q
k
.
On a :
Pr(X
k
i,j
= 1) = p
k
i,j
= q
k
i,j
et :
Pr(X
k
i,j
= 0) = 1 q
k
i,j
.
Lesprance de X
k
i,j
est :
E(X
k
i,j
) = 0 (1 q
k
i,j
) + 1 q
k
i,j
= q
k
i,j
.
Le nombre moyen de passage en j partant de i lors des n premires tapes est :
E
_
n

k=0
X
k
i,j
_
=
n

k=0
q
k
i,j
.
Cette quantit tend bien vers n
i,j
lorsque n +car Q
n
0.
Proposition 2.7 En consquence,

s
j=1
n
i,j
est le nombre moyen de passage dans les
tats transients lorsquon part de i (jusque larrive dans un tat absorbant).
Voici un dernier rsultat important sur la matrice fondamentale des chanes de Mar-
kov absorbantes. Rappelons la forme canonique de la matrice P :
P =
_
I
ms,ms
0
R
s,ms
Q
s,s
_
.
Thorme 2.4 Soit A = NR (cest une matrice de taille s ms).
Llment a
i,j
de Aen ligne i colonne j est la probabilit dtre absorbe par ltat j
en partant de ltat transient i
4
.
Dmonstration. Un chemin de i vers j est constitu de k tapes dans les s tats transients avant
daller du dernier tat transient visit ltat absorbant j. Donc la probabilit q
i,j
dtre absorb
4
Attention toujours labus de notation, il sagit du j-me tat absorbant et du i-me tat transient
lorsque les tats sont permuts pour mettre la matrice de transition sous forme canonique.
Recherche Oprationnelle
CHAPITRE 2. LES CHANES DE MARKOV 24
en j partant de i est :
q
i,j
=
+

k=0
s

n=1
Q
k
i,n
R
n,j
=
s

n=1
R
n,j
+

k=0
Q
k
i,n
=
s

n=1
R
n,j
N
i,n
= a
i,j
En effet, N =

+
k=0
Q
k
.

F. Sur 2011-2012
25 2.6. EXERCICES
2.6 Exercices
2.6.1 Lanatomie dun moteur de recherche (examen 2010-2011)
Une des difcults rencontres par les moteurs de recherche sur Internet est que de
trs nombreuses pages web peuvent contenir le mot ou lexpression cherchs. Dans quel
ordre les afcher ?
En 1998, deux tudiants en thse lUniversit de Stanford, Serguey Brin et Law-
rence Page, publient larticle The anatomy of a large-scale hypertextual Web search
engine, dans lequel ils proposent une nouvelle fonction pour classer ces pages, le Page-
Rank. Le nouveau moteur de recherche prsent est GOOGLE.
Soit PR(p
i
) le PageRank de la i-me page du Web. En premire approximation, la
fonction PR est suppose vrier :
PR(p
i
) =

p
j
P(p
i
)
PR(p
j
)
L(p
j
)
o P(p
i
) est lensemble des pages Web qui ont un lien vers la page p
i
, et L(p
j
) le
nombre total de liens (vers p
i
mais aussi vers dautres pages) que lon peut trouver sur
la page p
j
.
Par convention, on considrera que toute page pointe vers elle-mme. Si une page p
i
ne prsente aucun lien, on posera donc L(p
i
) = 1.
Dautre part, PR est normalis de manire ce que :
N

i=1
PR(p
i
) = 1
o N est le nombre total de pages sur le Web.
Intuitivement, si une page web a un fort PageRank, alors les pages vers lesquelles
elle pointe hriteront dune fraction de ce PageRank dautant plus forte quelles sont
peu nombreuses.
1. Soit PR la matrice ligne :
_
PR(p
1
), PR(p
2
), . . . , PR(p
N
)
_
.
Identiez une matrice M stochastique telle que :
PR = PR M.
Indication : vous pourrez raisonner en premire approximation sur un Web limit
trois pages web p
1
, p
2
, p
3
, o p
1
pointe vers p
2
et p
3
, p
2
vers p
1
et p
3
vers p
2
.
2. Calculez le PageRank dans lexemple de lindication prcdente.
Recherche Oprationnelle
CHAPITRE 2. LES CHANES DE MARKOV 26
3. On considre le Web comme un graphe orient dont les sommets sont les pages
Web, et les arcs sont les liens dune page i vers une page j, values par les coef-
cients m
i,j
.
Justiez que la chane de Markov associe ne peut pas tre considre comme
ergodique. Quel est le problme pour la dnition du PageRank ?
4. En fait, le PageRank est dni dans larticle de Brin et Page comme
5
:
PR(p
i
) =
1 d
N
+d

p
j
P(p
i
)
PR(p
j
)
L(p
j
)
Identiez une nouvelle matrice M stochastique telle que :
PR = PR M.
Le facteur d est appel facteur damortissement (damping factor) par Brin et Page,
et est x 0.85.
5. Justiez que la chane de Markov dnie par la matrice de transition prcdente
est ergodique.
6. Justiez lexplication intuitive du PageRank par Brin et Page :
PageRank can be thought of as a model of user behavior. We assume
there is a "random surfer" who is given a web page at random and
keeps clicking on links, never hitting "back" but eventually gets bored
and starts on another random page.
En particulier, quelle situation correspondent les cas d = 0 et d = 1 ?
5
dans leur article il manque le N divisant 1 d. . .
F. Sur 2011-2012
Chapitre 3
Les les dattentes
Lobjet de ce chapitre est la modlisation des les dattente par des processus ala-
toires. Les applications de la thorie des les dattente sont, au del des les un gui-
chet ou des embouteillages sur la route, la gestion du trac arien (dcollage, routage,
atterrissage des avions), les rseaux informatiques (comment dimensionner un serveur
pour quil puisse rpondre un certain nombre de requtes), les call-centers (combien
doprateurs ?), etc.
Les rponses que lon cherche apporter concernent par exemple la dimension de
la le et du processus de service (combien de places dans la le dattente, combien de
serveurs ?), le temps moyen dattente, la probabilit que la le dattente soit vide ou
les serveurs inoccups, etc.
3.1 Rappels : loi de Poisson et loi exponentielle
Ces rsultats ont t tablis dans le cours de statistique en premire anne.
Dnition 3.1 Une variable alatoire X valeurs entires suit une loi de Poisson de
paramtre > 0 si :
n N, Pr(X = n) =

k
k!
e
k
.
Proposition 3.1 Une variable alatoire qui suit une loi de Poisson de paramtre a
une esprance et une variance gales .
Dnition 3.2 Une variable alatoire Y valeurs relles strictement positives suit une
loi de exponentielle de paramtre > 0 si :
t > 0, Pr(Y = t) = e
t
.
27
CHAPITRE 3. LES FILES DATTENTES 28
Proposition 3.2 Une variable alatoire Y qui suit une loi exponentielle de paramtre
a une esprance gale 1/ et une variance gale 1/
2
.
Sa fonction de rpartition est donne par :
t > 0, Pr(Y < t) = 1 e
t
.
Proposition 3.3 Une variable alatoire Y suit une loi exponentielle si et seulement si :
s, t > 0, Pr(Y > s +t|Y > t) = Pr(Y > s)
On dit quune variable exponentielle est sans mmoire : si un vnement ne sest pas
produit entre 0 et t, la probabilit quil se produise entre t et t + s est la mme que la
probabilit pour quil se produise entre 0 et s : linstant de dpart na pas dinuence et
la variable ne garde pas de mmoire du pass.
3.2 Caractristiques dune le dattente
Un systme dattente est constitu de clients , qui entrent dans une le dattente,
avant daccder des serveurs qui dlivrent un service pendant un certain temps.
Client et serveur sont ici des termes gnriques.
"Clients"
File dattente
.........
"Serveurs"
S1
1 2 3 4
S2
Sn
Un systme dattente (dnomm le dattente par lger abus de langage) est
caractris par :
la loi darrive des clients dans la le (dterministe ou stochastique),
la loi de la dure des services (dterministe ou stochastique),
le nombre de serveurs travaillant en parallle dans le centre de service,
la taille de la le dattente (nie ou innie),
lorganisation de la le.
F. Sur 2011-2012
29 3.3. LA FORMULE DE LITTLE
Les notations de Kendall (1953) permettent de dcrire le systme dattente de ma-
nire succincte. Avec ces notations, un systme dattente est dcrit par :
A/B/m/N/S
o :
A est la distribution des arrives : stochastique (on prcise alors la loi) ou dter-
ministe.
B est la distribution des temps de service : idem.
m est le nombre de serveur
N est le nombre maximum de clients dans le systme (clients attendant dans la
le + clients servis)
S est la discipline de service (la manire de sortir de la le dattente pour les
clients) : First In First Out (FIFO), Last In First Out (LIFO), alatoire (RAND),
Round Robin
1
. . .
A et B peuvent prendre les valeurs : D (distribution dterministe), M (distribution
Markovienne), E
k
(distribution dErlang-k), G (distribution gnrale, on ne fait pas
dhypothse particulire), etc.
Comme nous ntablirons que des rsultats en moyenne , nous ne nous intres-
serons pas lvolution dun individu particulier dans la le et donc la discipline de
service naura pas dimportance pour nous.
Lorsque m ou N ne sont pas prciss, ils sont supposs innis.
Dans la suite de ce chapitre nous allons tudier les les dattente stochastiques et
voir dans quelle condition il est possible de faire des calculs.
3.3 La formule de Little
La formule (ou loi) de Little est un rsultat trs gnral (pas dhypothse sur la dis-
tribution des arrives et des services) liant la nombre moyen de clients dans le systme,
leur temps de sjour, et leur taux moyen darrive.
Nous allons ltablir en nous appuyant sur lillustration suivante.
1
Voir ltymologie trs intressante ici : http ://fr.wikipedia.org/wiki/Round-robin
Recherche Oprationnelle
CHAPITRE 3. LES FILES DATTENTES 30
Arrives
Dparts
temps
t
1
2
3
4
5
6
7
2
3
1
4
5
Nombre darrives / dparts
Sur ce schma, la courbe rouge reprsente lvolution au cours du temps du nombre
cumul darrives dans le systme depuis un temps initial o le systme est vide, et la
courbe verte reprsente le nombre cumul de dparts. Les entiers gurant sur les courbes
rouges et vertes correspondent au numro du client respectivement entrant ou sortant du
systme. En toute gnralit, les entres et sorties nont pas de raison de se faire dans le
mme ordre.
Comme les clients qui partent sont des clients qui sont arrivs un instant antrieur,
la courbe rouge est toujours au dessus de la courbe verte. Lorsquelles se rencontrent
il ny a aucun client dans le systme.
Notons :
A(t) le nombre darrives pendant [0, t],
D(t) le nombre de dparts pendant [0, t],
N(t) = A(t) D(t) le nombre de clients dans le systme au temps t,
T
i
: temps de sjour dans le systme (attente + service) du i-me client.
Considrons laire entre la courbe rouge et la courbe verte jusque linstant t (il sagit
bien sr de lintgrale de N entre les instants 0 et t).
La quantit T
i
correspond laire dune bande de hauteur 1 et de longueur T
i
. Dans
la partie gauche du graphe prcdent (entre larrive du client 1 et le dpart du client 4),
on se convainc que laire entre les courbes rouges et vertes est T
1
+T
2
+ T
3
+T
4
.
Nanmoins, linstant t tous les clients ne sont pas sortis, donc laire nest pas di-
rectement la somme des T
i
pour les A(t) clients entrs dans le systme, il faut introduire
un terme correctif, not ici R(t). Cela permet dcrire la relation :
_
t
0
N(u)du =
A(t)

i=1
T
i
R(t)
Donc :
1
t
_
t
0
N(u)du =
A(t)
t
1
A(t)
A(t)

i=1
T
i

R(t)
t
F. Sur 2011-2012
31 3.3. LA FORMULE DE LITTLE
Ce qui nous intresse est dtablir un rsultat asymptotique (i.e. lorsquon observe
le systme sur un intervalle de temps grand). Faisons quelques hypothses additionnelle
lorsque t +:
1.
1
t
_
t
0
N(u) N (N est le nombre moyen de clients prsents par unit de temps)
2.
A(t)
t
( est le nombre moyen darrives par unit de temps)
3.
_

A(t)
i=1
T
i
_
/A(t) T (T est le temps de sjour moyen)
4.
R(t)
t
0
Les hypothses 1,2,3 semblent naturelles et caractristiques dun systme qui attein-
drait un rgime permanent. Lhypothse 4 est galement naturelle dans ce cadre : on
suppose que les clients ne saccumulent pas dans le systme et que le temps de sjour
naugmente pas au cours du temps, et donc que R(t) est born.
On dduit donc la formule de Little (1961) :
Thorme 3.1 (formule de Little). Avec les notations prcdentes :
N = T.
Par exactement le mme raisonnement, en se restreignant aux clients dans la le
dattente (et non plus dans tout le systme), on tablit le corollaire :
Thorme 3.2 (variante de la formule de Little). En notant N
f
le nombre moyen de
clients dans la le dattente et T
f
le temps dattente moyen dans la le, alors :
N
f
= T
f
.
Remarquons encore une fois quil sagit dun rsultat trs gnral, en particulier sans
hypothse sur la distribution des arrives ou des temps de services, ni sur la discipline
de service.
Exemple 1.
Considrons un serveur informatique 5 processeurs, recevant en moyenne 1000 re-
qutes par seconde. Ladministrateur du serveur se rend compte que le serveur est oc-
cup 100%, et quen moyenne 8 requtes sont en attente.
Quel est le temps moyen dattente dune requte ? (quantit mettre en relation
avec la notion de time-out, dure au bout duquel le client dcide que le serveur est
indisponible.)
Daprs la formule de Little (variante) : T
f
= N
f
/ = 8/1000 sec.
Quel est le temps moyen de traitement dune requte ?
Avec les deux lois de Little : T T
f
= (N N
f
)/ = 5/1000 sec.
Recherche Oprationnelle
CHAPITRE 3. LES FILES DATTENTES 32
3.4 Processus de Poisson
Avant dtudier un type de les dattente dans lequel on peut faire des calculs (les
les M/M), nous introduisons la notion de processus de Poisson.
3.4.1 Processus de Poisson
Dnition 3.3 Considrons (X(t))
t0
un processus stochastique croissant temps continu
valeurs dans N (cela signie que pour tout t 0, X(t) est une variable alatoire
valeurs entires). On suppose que ce processus vrie les hypothses suivantes :
X(0) = 0,
0 t
1
t
k
,, les variables alatoires X(t
1
)X(0), . . . , X(t
k
)X(t
k1
)
sont indpendantes,
Pr(X(t +h) X(t) = 1) =
h0
h +o(h),
Pr(X(t +h) X(t) > 1) =
h0
o(h)
Alors (X(t))
t0
est appel processus de Poisson.
La deuxime hypothse traduit l absence de mmoire du processus, la troisime
que la probabilit que X saccroisse de 1 pendant un petit intervalle de temps est propor-
tionnelle la longueur de cet intervalle (coefcient ), et la quatrime que la probabilit
pour que X saccroisse de plus de 1 pendant un petit intervalle de temps est ngligeable.
Le paramtre est un taux darrive (nombre par unit de temps).
On dmontre :
Thorme 3.3 Un processus de Poisson (X(t))
t0
vrie :
1. t, X(t) suit une loi de Poisson de paramtre t :
k 0, Pr(X(t) = k) = e
t
(t)
k
k!
2. le temps T
arr
entre deux arrives suit une loi exponentielle :
t 0, Pr(T
arr
= t) = e
t
On dit que X(t) est un processus de Poisson.
Dmonstration. Pour le point 1 : soit t 0. On va montrer par rcurrence sur k que :
Pr(X(t) = k) = e
t
(t)
k
k!
.
Dune part si X(t + h) = 0, cest que X(t) = 0 et quaucune arrive na eu lieu entre t
et t +h. Avec lhypothse dindpendance de la dnition :
Pr(X(t+h) = 0) = Pr(X(t) = 0)Pr(X(t+h)X(t) = 0) = Pr(X(t) = 0)(1h)+o(h).
F. Sur 2011-2012
33 3.4. PROCESSUS DE POISSON
Donc
_
Pr(X(t +h) = 0) Pr(X(t) = 0)
_
/h = Pr(X(t) = 0) +o(1).
En passant la limite (h 0), on obtient une quation diffrentielle qui se rsout en
Pr(X(t) = exp(t) (rappelons que Pr(X(0) = 0) = 1).
Dautre part si X(t + h) = k > 0, cest que X(t) = k

k et quil y a eu k k

arrives
entre t et t +h. Avec lhypothse dindpendance de la dnition :
Pr(X(t +h) = k) = Pr(X(t) = k) Pr(X(t +h) X(t) = 0) +
Pr(X(t) = k 1) Pr(X(t +h) X(t) = 1) +
k2

=0
Pr(X(t) = k

) Pr(X(t +h) X(t) = k k

)
= Pr(X(t) = k)(1 h) + Pr(X(t) = k 1)h +o(h) +
k2

=0
Pr(X(t) = k

)o(h)
Donc :
(Pr(X(t +h) = k) Pr(X(t) = k)) /h = Pr(X(t) = k) +Pr(X(t) = k 1) +o(1)
En passant la limite et avec lhypothse de rcurrence :
d
dx
Pr(X(t) = k) = Pr(X(t) = k 1) +
k
t
k1
(k 1)!
e
t
qui est une quation diffrentielle linaire du premier ordre avec second membre .
Lquation sans second membre se rsout en : Pr(X(t) = k) = Ae
t
, et on rsout lqua-
tion initiale par la mthode de la variation de la constante :
_
A

(t) A(t)
_
e
t
= A(t)e
t
+
k
t
k1
(k 1)!
e
t
se simpliant en :
A

(t) =
k
t
k1
(k 1)!
do :
A(t) = A(0) +
k
t
k
k!
.
Conclusion :
Pr(X(t) = k) =
k
t
k
k!
e
t
.
(la constante A(0) est xe par Pr(X(0) = k) = 0 si k > 0.)
Pour le point 2 du thorme, soit T
1
la dure entre t = 0 et la premire arrive. Alors :
Pr(T
1
> s) = Pr(X(s) = 0) = e
s
Recherche Oprationnelle
CHAPITRE 3. LES FILES DATTENTES 34
car si T
1
> s, cest quaucune arrive na encore eu lieu la date s.
Soit T
k
la dure entre la k-me arrive ( la date t
k
) et la k + 1-me arrive. Alors
Pr(T
k
> s) = Pr(X(t
k
+s) X(t
k
) = 0).
Nanmoins :
X(t +s) X(t) = lim
n+
n

k=1
_
X(t +ks/n) X(t + (k 1)s/n)
_
Comme les (X(t +ks/n) X(t + (k 1)s/n)) sont indpendants, on dduit
2
:
Pr (X(t +s) X(t) = 0) = lim
n+
n

k=1
Pr(X(t +ks/n) X(t + (k 1)s/n) = 0)
= lim
n+
(1 s/n)
n
= exp(s).
Do Pr(T
k
> s) = exp(s).
La fonction de rpartition de T
k
est donc : Pr(T
k
< s) = 1 exp(s), les T
k
sont
indpendants identiquement distribus de loi : Pr(T
k
= s) = s exp(s) (obtenue en drivant
la fonction de rpartition).

Exemple 2.
Voici ci-dessous un exemple de ralisation dun processus de Poisson (avec = 0.2),
not ici A(t) (courbe bleue). En abscisse sont reprs les instants des sauts (en
rouge).
0 10 20 30 40 50 60 70 80 90
0
2
4
6
8
10
12
14
16
18
20
t
A
(
t
)
2
cette justication nest pas trs rigoureuse mais on sen contentera. . .
F. Sur 2011-2012
35 3.5. MODLISATION DANS LE CADRE MARKOVIEN
t x, A(t) suit donc une loi de Poisson de paramtre t. Dautre part, les temps
inter-arrives suivent une loi exponentielle de paramtre .
Remarque 1 : de lexpression de lesprance de variables alatoires suivant des lois de
Poisson et exponentielle, on dduit : t 0, E(A(t)) = t et : E(T
arr
) = 1/. Dans
lexemple prcdent, la moyenne du nombre darrives (par exemple) t = 50 est
donc 10, et le temps moyen entre deux arrives est 5.
Remarque 2 : les hypothses pour arriver un processus de Poisson semblent restric-
tives, mais en fait le thorme de Palm-Khintchine nous dit que sous certaines condi-
tions, le cumul de processus darrive non-Poissonniens tend vers un processus de
Poisson.
3.5 Modlisation dans le cadre Markovien
3.5.1 La proprit PASTA
Avant de spcier davantage le type de les sur lequel nous allons travailler, nous
commenons par un rsultat assez gnral.
Thorme 3.4 Supposons que les arrives se font selon un processus de Poisson. Alors
en rgime permanent, chaque client entrant verra une distribution de clients dj pr-
sents dans le systme gale celle vue en rgime permanent.
Avec le thorme ergodique, cela signie quen rgime permanent un nouveau client
verra n clients devant lui avec une probabilit gale la proportion du temps pendant
laquelle le systme est occup par n clients.
Cest ce qui est appel la proprit PASTA (Wolff 1982) : Poisson Arrivals See Time
Averages. Notons quon ne fait aucune hypothse sur la loi des services.
Dmonstration. (heuristique) Soit N
t
le nombre de clients dans le systme linstant t > 0,
et t un intervalle de temps petit . Notons aussi A
t
t
,t
le nombre darrives entre t t
et t. Par la formule de Bays :
Pr(N
tt
= n| A
tt,t
1) = Pr(A
tt,t
1 | N
tt
= n)
Pr(N
tt
= n)/ Pr(A
t,t
1)
Comme un Processus de Poisson est sans mmoire (indpendance des nombres darrives sur
des intervalles disjoints), Pr(A
tt,t
1 | N
tt
= n) = Pr(A
tt,t
1).
Maintenant lorsque t tend vers 0, Pr(N
tt
= n| A
tt,t
) est la probabilit que le n
clients soient dans le systme lorsquun nouveau client arrive (on ne compte pas ce nouveau
client). Daprs ce qui prcde, cette probabilit est gale
lim
t+
Pr(N
tt
= n) = Pr(N
t
= n).
Recherche Oprationnelle
CHAPITRE 3. LES FILES DATTENTES 36
Cela signie que la probabilit pour quil y ait n clients dans la le linstant t est indpen-
dante du fait que t soit un moment darrive.
En passant la limite (t +), en rgime permanent, cela signie quun nouveau client
voit n clients devant lui avec une probabilit gale la proportion de temps pendant laquelle le
systme est occup par n clients.
En effet, la premire probabilit est :
lim
t+
lim
t0
Pr(N
tt
= n| A
tt,t
1)
et la seconde :
lim
t+
Pr(N
t
= n).

Remarque : Ce rsultat peut sembler intuitif. Nanmoins, lhypothse darrives selon


un processus de Poisson est primordiale : la proprit PASTA est fausse dans le cas
contraire. Considrons un systme D/D/1 initialement vide, avec des arrives aux temps
1,3,5. . .et un temps de service de 1. La longueur de la queue vue par un nouvel arrivant
est toujours 0, alors que le systme nest occup par 0 client que dans 50% du temps.
Exemple 3.
Considrons un serveur informatique. En faisant des statistiques sur son utilisation, on
se rend compte quil est indisponible pendant 80% du temps.
Si lon suppose que les requtes sont distribues selon un processus de Poisson, la
proprit PASTA nous permet de dire quune nouvelle requte a aussi 80% de chances
de trouver le serveur indisponible.
3.5.2 Les clients et les serveurs sont sans mmoire
Nous allons nous placer dans le cadre des les dattente pour lesquelles les arrives
effectives des clients dans le systme suivent un processus de Poisson et que lorsquau
moins une place est occupe dans le centre de service les clients sortent de la le selon
un processus de Poisson.
Par dnition des lois de Poisson, cela signie que les clients nont pas de mmoire,
et que les serveurs non plus.
Daprs le thorme sur les processus de Poisson, ces hypothses impliquent que :
les arrives Poissonniennes se font au taux de arrives par unit de temps,
chaque service a une dure exponentielle de moyenne 1/ units de temps ( est
le taux de service).
F. Sur 2011-2012
37 3.5. MODLISATION DANS LE CADRE MARKOVIEN
Remarque : la loi des dparts du systme na pas de raison dtre la loi des services.
Cest le cas si les serveurs sont occups en permanence, sinon le taux de dpart est
infrieur au taux de service.
Avant dillustrer cette remarque dans lexemple suivant (et dans la discussion sur les
processus de Markov), on aura besoin de la proprit suivante.
Proposition 3.4 Soit X une variable alatoire suivant une loi exponentielle de para-
mtre et Y une variable alatoire suivant une loi exponentielle de paramtre , alors
la variable alatoire min(X, Y ) suit une loi exponentielle de paramtre + .
Dautre part, si N est la variable alatoire qui vaut 1 si min(X, Y ) = X et 2 sinon,
alors :
P(N = 1) = 1 P(N = 2) =

+
.
Dmonstration. Soit t > 0. Successivement :
Pr(min(X, Y ) t) = Pr(X t et Y t)
= Pr(X t) Pr(Y t) (indpendance)
= exp(t) exp(t)
= exp(( +)t)
Pour la seconde partie :
Pr(N = 1) = Pr(X Y )
=
_
+
x=0
Pr(Y X| X = x) Pr(X = x)dx
=
_
+
x=0
e
x
e
x
dx
=

+

Exemple 4.
Considrons le cas de s serveurs indpendants et sans mmoire (dure de service
selon une loi exponentielle), chacun ayant un taux de service (dure moyenne 1/).
Le centre de service (ensemble des serveurs) suit alors une loi de service sans
mmoire de taux s daprs la proposition prcdente.
Nanmoins, il faut tre faire attention une subtilit : la loi des dparts des clients
hors du systme dattente nest pas la loi des services !
En effet :
Recherche Oprationnelle
CHAPITRE 3. LES FILES DATTENTES 38
si n s clients sont dans le systme, alors s dentre eux sont servis, et ns sont
dans la le dattente. La loi des dparts est gal la loi des services de, et le taux
de dpart est s
si n < s clients dont dans le systme, alors ils sont tous en cours de service et sn
serveurs sont inoccups. La dure inter-dparts suit alors une loi exponentielle de
taux n < s.
La proposition 3.4 correspond lintuition : si n clients sont en service, alors la dure
moyenne de service du premier client partir est : 1/(n) (la dure moyenne de service
dun client, i.e. la dure moyenne pour quun des clients soit servi, est divise par n).
3.5.3 Les les dattente M/M/1
Il sagit dun exemple standard de systme dattente avec un nombre illimit de
places dattente, avec des arrives selon un processus de Poisson (taux darrive ), un
seul serveur avec une dure de service exponentielle (taux de service , i.e. dure de
service moyenne 1/).
On ajoute lhypothse que la probabilit dune arrive et dun service simultan
pendant lintervalle de temps [0, h] est en o(h) lorsque h 0.
volution du nombre de clients dans la le au cours du temps
Notons N
t
le nombre de clients dans le systme dattente linstant t. Nous allons
chercher exprimer la loi de N
t
.
Ce qui suit nest pas ncessairement trs rigoureux mais permet de comprendre les
grandes ides.
Dune part, si m < n :
Pr(N
t+h
= n| N
t
= m) = Pr(A(t +h) A(t) = mn) + o(h)
(si la population passe de m n > m, il y a eu mn arrives car il ny a pas darrives
et dparts simultanes).
Donc (cf processus de Poisson) si m < n 1 :
Pr(N
t+h
= n| N
t
= m) = o(h)
et :
Pr(N
t+h
= n| N
t
= n 1) = h +o(h).
Dautre part, par un raisonnement similaire sur les dparts, si m > n + 1 :
Pr(N
t+h
= n| N
t
= m) = o(h)
F. Sur 2011-2012
39 3.5. MODLISATION DANS LE CADRE MARKOVIEN
et :
Pr(N
t+h
= n| N
t
= n + 1) = h +o(h).
De la formule des probabilits totales, on dduit :
si n 1 :
Pr(N
t+h
= n) = hPr(N
t
= n 1) + (1 h h) Pr(N
t
= n)
+hPr(N
t
= n + 1) + o(h)
et :
Pr(N
t+h
= 0) = hPr(N
t
= 1) + (1 h) Pr(N
t
= 0) +o(h).
Soit
t
le vecteur-ligne (de taille innie mais dnombrable) :

t
=
_
Pr(N
t+h
= 0) Pr(N
t+h
= 1) Pr(N
t+h
= 2) . . .
_
Alors, en notant P(h) la matrice (aussi de taille innie dnombrable) :
P(h) =
_
_
_
_
_
_
_
1 h h 0 0 0 . . .
h 1 h h h 0 0 . . .
0 h 1 h h h 0 . . .
0 0 h 1 h h h . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
_
_
_
_
_
_
_
On a :

t+h
=
t
P(h) + o(h).
Remarquons que P(h) est une matrice stochastique.
Vocabulaire : on dit que N(t) est un processus de Markov temps continu.
Remarque : vu la forme des quations obtenues, un processus de Poisson est un cas
particulier de processus de Markov temps continu. Do le M dans la notation de
Kendall des dparts et arrives.
Reprsentation de la le M/M/1 comme une chane de Markov
Le processus de Markov N
t
saute de valeurs entires en valeurs entires au cours
du temps. Lorsque N
t
= n, une arrive dans le systme le fait passer ltat n +1 alors
quune sortie le fait passer n 1. Comme les arrives sont un processus de Poisson
de paramtre et les dparts sont un processus de Poisson de paramtre , on dduit de
la proposition 3.4 (page 37) : le temps de sjour lorsquon vient darriver dans ltat n
est distribu selon une loi de Poisson de paramtre + , puis on saute ltat n + 1
Recherche Oprationnelle
CHAPITRE 3. LES FILES DATTENTES 40
avec la probabilit /(+) (larrive eu lieu avant le dpart) ou ltat n1 avec la
probabilit /( + ) (dans le cas contraire). Labsence de mmoire des processus fait
qu larrive dans le nouvel tat on recommence .
De cette manire, on peut associer au processus de Markov N
t
le processus temps
discret X
n
o X
n
est la valeur de N
t
aprs le n-me saut.
On se convainc que X
n
est une chane de Markov et quon peut exprimer les proba-
bilits de transition par :
Pr(X
n
= j | X
n1
= i) =
_
_
_

+
si i = j 1

+
si i = j + 1
0 sinon.
La reprsentation graphique de la chane de Markov temps discret (mais ensemble
dtat inni dnombrable) est :
0

+
.

+
.

+
.

. . .

.
Aprs n 0 tapes, notons p
i
(n) la probabilit pour que X
n
soit gal ltat i.
La chane tant apriodique irrductible, elle serait ergodique si lespace dtat tait
ni. . .Ici il faut en plus que la distribution stationnaire ventuelle

=
_
p
0
p
1
p
2
. . .
_
soit de somme 1, donc que la srie

p
n
converge.
Avec la formule des coupes (et la condition

p
n
= 1) on calcule :

+
p
0
=

+
p
1

+
p
1
=

+
p
2
. . .

+
p
n
=

+
p
n+1
. . .
_

_
= n N, p
n
=
_

_
n

_
1

_
. . .sous la condition = / < 1
Le cas / 1 correspondrait au cas o la chane nest pas ergodique. Si > , il
y a trop darrives par rapport aux dparts et N
t
+.
La probabilit p
n
est la probabilit pour que dans longtemps , le nombre de clients
dans le systme soit n. Daprs le thorme ergodique, il sagit aussi de la proportion
moyen de temps pendant lequel n clients sont dans le systme.
F. Sur 2011-2012
41 3.5. MODLISATION DANS LE CADRE MARKOVIEN
Remarque importante : on voit que les dnominateurs + sont limins dans les
calculs. Voil pourquoi on reprsente la chane de Markov dont les tats reprsentent le
nombre de clients dans le systme par :
0

. . .

.
Bien sr, cela simplie les quations obtenues par la formule des coupes.
File M/M/1 vue comme un systme diffrentiel
(peut tre omis en premire lecture.)
La formulation prcdente permet didentier les probabilits p
n
en rgime perma-
nent. Mais comment calculer les probabilits p
n
(t) en rgime transitoire ? (avec p
n
(t) la
probabilit pour que N
t
= n.)
On a tabli plus haut :
Pr(N
t+h
= n) = hPr(N
t
= n 1) + (1 h h) Pr(N
t
= n)
+hPr(N
t
= n + 1) + o(h)
Ainsi :
Pr(N
t+h
= n) Pr(N
t
= n)
h
= Pr(N
t
= n 1) + Pr(N
t
= n + 1)
( + ) Pr(N
t
= n) + o(1)
Do :
d Pr(N
t
= n)
dt
= Pr(N
t
= n 1) + Pr(N
t
= n + 1)
( +) Pr(N
t
= n)
Il sagit dun systme diffrentiel linaire du premier ordre quil est possible de
rsoudre.
Dans ce cours on ne sintressera pas au rgime transitoire.
Remarque : on retrouve en rgime permanent : 0 = p
n1
+ p
n+1
( + )p
n
(formules quivalentes celles obtenues par la formule des coupes).
Recherche Oprationnelle
CHAPITRE 3. LES FILES DATTENTES 42
File M/M/1 : proprits
Avec tout ce qui prcde, on est capable de calculer quelques grandeurs caractris-
tiques des les M/M/1, sous condition : = / < 1 pour lequel un rgime permanent
stablit.
p
n
=
n
(1 )
(daprs ce qui prcde)
Nombre moyen de clients dans le systme :
N =
+

n=0
np
n
=

1
En effet :

+
n=0
np
n
= (1 )

+
n=0
n
n
=

+
n=0
n
n


+
n=0
n
n+1
=

+
n=1
(n (n 1))
n
= 1/(1 ) 1
Nombre moyen de clients dans la le dattente :
N
f
=
+

n=1
(n 1)p
n
=

2
1
(mme calcul)
Temps moyen de sjour dans le systme :
T = N/ =
1

1
(en utilisant la formule de Little)
Temps moyen dattente dans la le :
T
f
= N
f
/ =
1

2
1
(en utilisant la variante de la formule de Little)
Remarquons que le temps dattente et le nombre moyen de clients en attente peuvent
aussi tre obtenus uniquement partir de la formule de Little et de la proprit PASTA.
Daprs la formule de Little :
T = N/
Mais N (nombre moyen de clients dans le systme) est gal au nombre moyen de
clients vus par un nouvel arrivant (daprs PASTA). Le temps de service de chacun est
1/, donc le temps de sjour moyen dans le systme du nouveau client est :
T = N
1

+
1

F. Sur 2011-2012
43 3.5. MODLISATION DANS LE CADRE MARKOVIEN
(somme des temps de service des N clients prcdents et du temps de service propre).
Donc : N/ = N/ + 1/, do :
N =


et :
T =
1

.
(formules identiques aux expressions trouves plus haut.)
3.5.4 Processus de naissance et de mort
Dnition 3.4 Un processus de naissance et de mort est un processus de Markov
temps continu tel que de ltat n 0 on ne puisse aller que vers ltat n 1 ou vers
ltat n + 1.
Dans la discussion sur les processus de Markov (page 38), rien nempche les para-
mtres des lois exponentielles rgissant les arrives ou dparts de dpendre du nombre
de clients dans le systme dattente. Cest le cas ici.
Un processus de naissance et de mort se reprsente par le graphe :
0

1
.

2
.

. . .

3
.

n1
n

n
.

. . .

n+1
.
Pourquoi processus de naissance et mort ? Les tats sinterprtent comme la
taille dune population, une transition n n + 1 correspondant une naissance et une
transition n n 1 une mort.
Avec le thorme des coupes, on tablit en rgime stationnaire
p
n
=
n

i=1

i1

i
p
0
et p
0
est dtermin par la condition

+
n=0
p
n
= 1.
( la condition que les
i
et
i
soient tels que cette srie converge bien.)
Recherche Oprationnelle
CHAPITRE 3. LES FILES DATTENTES 44
Processus de naissance ou de mort purs
(peut tre omis en premire lecture.)
Dnition 3.5 Si n,
n
= 0, on parle de processus de naissance pur, et si n,
n
= 0,
de processus de mort pur.
tudions le cas particulier du processus de naissance pur tel que n,
n
= , et
Pr(N
0
= 0) = 1.
Mais alors (pour n > 0) :
Pr(N
t+h
= n) = hPr(N
t
= n 1) + (1 h) Pr(N
t
= n) + o(h)
do
Pr(N
t
= n)
dt
= (Pr(N
t
= n 1) Pr(N
t
= n))
si n > 0,
et :
Pr(N
t
= 0)
dt
= Pr(N
t
= 0).
Donc : Pr(N
t
= 0) = e
t
, et par rcurrence : Pr(N
t
= n) =
(t)
n
n!
e
t
.
Conclusion : ce type de processus de naissance pur est un processus de Poisson.
Les les M/M
On remarque que tous les systmes M/M sont des processus de naissance et de mort
particulier !
3
Voyons deux exemples :
File M/M/3.
Dans ce systme, la le est de longueur illimite mais trois serveurs travaillent en
parallle. Cest un exemple de processus de Markov o la dure moyenne des services
dpend du nombre de clients dans le systme (cf exemple 4 page 37).
La reprsentation de la le M/M/3 est :
0

2
2
.

3
3
.

4
3
.

. . .
3
.
3
Mais tous les phnomnes dattente ne sont pas des processus de naissance et de mort. . .Voir les
exercices.
F. Sur 2011-2012
45 3.6. FORMULAIRE
et les probabilits p
n
stablissent par la formule des coupes, le nombre moyen de
clients dans le systme ou dans la le par le mme type de calcul que dans le cas M/M/1,
et les temps de sjour moyen et de temps dattente moyen par les formules de Little.
File M/M/2/4.
Il sagit dun systme o deux serveurs travaillent en parallle, mais o le systme ne
peut accueillir quau plus quatre clients (deux en service, et deux dans la le dattente).
Cette fois lensemble des tats possibles est : {0, 1, 2, 3, 4} et la reprsentation de cette
le est :
0

2
2
.

3
2
.

4
2
.
Les p
n
, N et N
f
sobtiennent toujours de la mme manire.
Mais attention, dans la formule de Little (T = N/), est le taux dentre effectif.
Dans le cas o le systme est de taille limite (M/M/n/K), lorsquil est plein (avec une
probabilit p(K)) les clients se prsentant ne peuvent pas entrer.
Le taux darrive des clients est de par heure, or ce nest que dans une proportion
(1 p(K)) quils peuvent entrer dans le systme. Le taux dentre effectif est donc :
(1 p(K)).
Donc il faut adapter les formules de Little en :
T = N/
_
(1 p(K))
_
et :
T
f
= N
f
/
_
(1 p(K))
_
3.6 Formulaire
On donne ici les formules en rgime permanent, avec les notations :
= /
p
k
est la probabilit que le systme soit occup par k clients.
N =

K
k=0
k p
k
est le nombre moyen de clients dans le systme (K ventuelle-
ment inni).
T est le temps de sjour dans le systme (obtenu par la formule de Little).
N
f
=

Ks
k=s
(k s) p
k
est le nombre moyen de clients en attente (K ventuel-
lement inni, s est le nombre de serveurs).
T
f
est le temps dattente dans le systme (obtenu par la formule de Little).
Recherche Oprationnelle
CHAPITRE 3. LES FILES DATTENTES 46
Vous devez tre capable de retrouver les formules comme en page 42, faire en
exercice !
3.6.1 File M/M/1
Cas dun nombre illimit de places dattentes, et un serveur.
p
n
=
n
(1 )
N =
+

n=0
np
n
=

1
T = N/ =
1

1
=

1
N
f
=
+

n=1
(n 1)p
n
=

2
1
T
f
= N
f
/ =
1

2
1
=
1

1
3.6.2 File M/M/1/K
Cas de K places dattentes, un serveur.
Si = :
p
k
=
k
1
1
K+1
N =
1 (K + 1)
K
+K
K+1
(1 )(1
K+1
)
Si = :
p
k
=
1
K + 1
N =
K
2
Dans les deux cas, p
K
est la probabilit pour quun client arrivant soit perdu ou (avec
le thorme ergodique) la proportion du temps o le serveur est occup.
N
f
= N (1 p
0
)
T =
N
(1 p
k
)
T
f
=
N
f
(1 p
K
)
F. Sur 2011-2012
47 3.6. FORMULAIRE
3.6.3 File M/M/m
Cas dun nombre illimit de places dattentes, et m serveur.
si k m :
p
k
=
p
0
k!

k
si k m :
p
k
=
p
0
m!m
km

k
La le est stable si la srie

+
k=0
p
k
converge, i.e. /m < 1 ou < m ou < m.
On calcule alors :
1/p
0
=

m
m!(1 /m)
+
m1

k=0

k
k!
La probabilit pour que tous les serveurs soient occups est donn par la formule
dite dErlang-C :
(m, ) =

m
/(m!(1 /m))

m
/(m!(1 /m)) +

m1
k=0

k
/k!
On a aussi :
N =

m+1
m!(1 /m)
2
p
0
+
T =
N

N
f
=

m+1
m!(1 /m)
2
p
0
T
f
=
N
f

3.6.4 File M/M/m/m


Cas de m places dattentes, m serveur (donc le dattente vide : tout nouveau client
est servi immdiatement ou repart si aucun serveur nest libre).
p
k
=

k
/k!
1 + +
2
/2! + +
m
/m!
La probabilit pour que tous les serveurs soient occups est donn par la formule
dite dErlang-B :
(m, ) = p
m
=

m
/m!

m
k=0

k
/k!
Recherche Oprationnelle
CHAPITRE 3. LES FILES DATTENTES 48
N = (1 p
m
)
T =
1

N
f
= 0
T
f
= 0
3.7 Les les M/G
On va voir dans cette section des rsultats relatifs aux les M/G, cest--dire lorsque
les arrives sont toujours des processus de Poisson, mais les services non.
3.7.1 Processus de Markov
Le cadre des processus de Markov temps continu permet aussi de traiter le cas de
certaines les M/G.
Lexpression gnrale de N
t+h
en fonction de N
t
est au premier ordre en h) (toujours
sous lhypothse dabsence de dpart et arrive simultanes) :
Pr(N
t+h
= n) =
+

k=n1
Pr(N
t+h
= n| N
t
= k) Pr(N
t
= k) + o(h)
= hPr(N
t
= n 1) + Pr(N
t
= n)
+
+

k=n+1
Pr(D(t, t +h) = k n) Pr(N
t
= k) + o(h)
o D(t, t +h) est le nombre de dparts entre t et t + h.
Dans le cas o Pr(D(t, t + h) = k) ne dpend pas de t (cest l quapparat la
principale restriction : le processus de dpart est tout de mme sans mmoire) et scrit
sous la forme
k
h + o(h) (dveloppement au premier ordre), on voit que ces modles
entrent dans le cadre gnral des processus de Markov temps continu (la discussion
de la page 38 sadapte sans mal).
La reprsentation locale (i.e. les arcs issus de ltat n) du graphe associ est :
0 1 2
. . .
n-1
n

1
.

n2
.

n1
.

n
.
n+1
F. Sur 2011-2012
49 3.7. LES FILES M/G
Remarque 1 : ce nest bien sr pas un processus de naissance et de mort.
Remarque 2 : la situation est symtrique pour une le G/M.
Plusieurs exemples rentrant dans ce cadre seront traits en exercice.
3.7.2 File M/G/1 gnrale
Pour nir, nous allons tablir des rsultats gnraux sur les les M/G/1.
Tout dabord, remarquons que le cas M/M/1 et le cas particulier de M/G/1 trait
dans la section prcdente (qui peuvent tous deux donner lieu une modlisation par
un processus de Markov continu) sont bass sur labsence de mmoire de la dure de
service. En effet dans ce cas la probabilit dun (ou plusieurs) dparts entre t et t + h
ne dpend pas de t. Maintenant, en toute gnralit il y a dpendance : dans le cas
limite dune loi de dpart dterministe (disons toutes les minutes minute entire), la
probabilit de dpart entre t et par exemple t + 0, 5 dpend clairement de t.
Nous allons voir dans cette section quil est encore possible dtablir des rsultats
par une analyse en moyenne du phnomne dattente.
Dans la suite on suppose que les dures de services sont indpendants identiquement
distribus, donns par la variable alatoire Y de loi y.
Nous allons commencer par tablir lexpression de la probabilit p
0
pour que le
serveur soit inoccup.
Proposition 3.5 Dans une le M/G/1 avec arrive Poissonnienne de taux et services
indpendants de dure moyenne E(Y ), si p
0
est la probabilit pour que le serveur soit
inoccup, alors :
1 p
0
= E(Y ).
Dmonstration. Notons X
n
le nombre de clients prsents dans le systme aprs le n-me dpart,
A
n
le nombre darrives pendant le service du n-me client (dessinez une frise chronologique
pour vous aider).
Alors :
X
n+1
= X
n
+A
n
+u(X
n
)
o u(X
n
) = 1 si X
n
1 (il y a un dpart car dans ce cas le serveur est effectivement occup)
et u(X
n
) = 0 si X
n
= 0 (serveur inactif)
Or daprs la proprit PASTA le nombre moyen de clients vu par un nouvel arrivant ne
dpend pas de linstant darrive, donc E(X
n
) = E(X
n+1
).
Par suite de quoi : E(A
n
) = E(u(X
n
)).
Recherche Oprationnelle
CHAPITRE 3. LES FILES DATTENTES 50
Or E(u(X
n
)) = 0 Pr(X
n
= 0) + 1 Pr(X
n
1) = 1 p
0
,
et E(A
n
) est le nombre moyen darrives pendant un service, que lon calcule par :
E(A
n
) =
n

k=0
k
_
+
0
Pr(k arrives pendant t)y(t)dt
=
+

k=0
k
_
+
0
e
t
(t)
k
k!
y(t)dt
=
_
+
0
e
t
y(t)t
_
+

k=0
(t)
k
k!
_
dt
=
_
+
t=0
ty(t)dt = E(Y )
(rappelons que

+
k=0
(t)
k
k!
= e
t
)
On a bien : 1 p
0
= E(Y )
Remarquons que pour une le M/M/1, alors E(Y ) = 1/ et le formulaire nous
donne bien la mme expression.
Remarquons aussi que pour que la le ne sallonge pas indniment, le nombre
moyen darrives pendant la dure dun service doit tre strictement infrieur 1, i.e.
E(Y ) < 1.
Nous allons voir maintenant que lon peut dterminer le nombre moyen de clients
dans le systme et le temps moyen dattente.
Dans lexercice 3.9.1 sur le paradoxe de lautobus, on dmontrera de manire d-
tourne la proprit suivante sur la dure rsiduelle de service (dnie comme la dure
restant un serveur pour terminer son service lorsquun nouveau client arrive dans la
le) :
Proposition 3.6 Dans une le M/G/1, le temps moyen rsiduel de service t
r
vrie :
t
r
=
1
2
E(Y ) +
Var(Y )
2E(Y )
o Y est la dure dun service.
Dans la foule nous allons tablir des formules tablissant le temps dattente moyen
et le nombre moyen de clients dans une le M/G/1. Notons = E(Y ). On suppose
que < 1 pour que la le dattente ne sallonge pas indniment.
Daprs la proprit PASTA, un nouveau clients voit N
f
clients dans la le, qui
seront servis avant lui sous hypothse de politique de service FIFO
4
. Chacun de ces
clients aura un temps de service moyen de E(Y ).
4
Cest le seul endroit o nous faisons une hypothse sur la politique de service.
F. Sur 2011-2012
51 3.7. LES FILES M/G
Donc le temps moyen dattente dun nouveau client est : N
f
E(Y ), augment de
son temps rsiduel moyen dattente, le temps rsiduel dattente tant la diffrence entre
linstant de la n du service courant et linstant darrive.
Le temps rsiduel dattente est 0 si le serveur est inoccup lorsque le nouveau client
arrive (avec une probabilit 1 daprs la proposition 3.5 et la proprit PASTA) et
gal au temps rsiduel de service sinon (probabilit ).
Donc : T
f
= N
f
E(Y ) + t
r
.
Avec la loi de Little, N
f
= T
f
, donc :
T
f
=
t
r
1 E(Y )
et :
N
f
=
t
r
1 E(Y )
Comme le temps moyen de sjour T (temps dattente + temps de service) vrie
T = T
f
+ E(Y ) et le nombre moyen de client dans le systme vrie N = T, on
conclut :
Proposition 3.7 (Formules de PollaczekKhinchine).
Le nombre moyen de clients dans une le M/G/1 avec des arrives Poissonniennes
de taux et une dure de service Y de loi quelconque
5
est :
N = +

2
(1 + Var(Y )/E(Y )
2
)
2(1 )
Le temps moyen de sjour dans la le est :
T = E(Y )
_
1 +
(1 + Var(Y )/E(Y )
2
)
2(1 )
_
Remarquons que dans le cas particulier M/M/1, alors Var(Y )/E(Y )
2
= 1 (cf pro-
position 3.2) et on retrouve les formules dj tablies.
Dans le cas particulier M/D/1, alors Var(Y ) = 0.
5
Enn admettant au moins une esprance et une variance.
Recherche Oprationnelle
CHAPITRE 3. LES FILES DATTENTES 52
3.8 Rseaux de les dattente
Nous ne traiterons cette situation que dans le cas dun exemple.
Considrons une situation o les clients entrent dans un premier systme modlis
par une le M/M/1/3 (taux dentre , taux de service
1
), et quune fois quils ont t
servis ils entrent dans une le M/M/1/2 (taux dentre

, taux de service
2
), comme
reprsent sur le schma ci-dessous.
1
S
2

2
S
1

1
2 1
Ici lentre dans le second systme suit bien un processus de Poisson, comme la
sortie du premier systme (ds quun client a t servi dans le premier systme, il entre
sans dlai dans la seconde le). Le taux

dentre dans la seconde le est

= 0
lorsquil ny a pas de client servi en S
1
, sinon

=
1
On ajoute lhypothse que lorsque lune des les est pleine, les clients arrivant sont
perdus (les clients sortant du premier systme repartent sans passer par le deuxime).
Notons (i, j) pour i {0, 1, 2, 3} et j {0, 1, 2} ltat du systme global : i clients
dans le premier systme dattente, j dans le second. Le systme peut tre reprsent par
le graphe de la page suivante.
F. Sur 2011-2012
53 3.8. RSEAUX DE FILES DATTENTE
0,0

1,0

0,1

2
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
2,0

1,1

2
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F

0,2

2
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
3,0

1

2,1

2
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F

1,2

2
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F

3,1

2
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F

2,2

2
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F

3,2

2
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F
F

On est dans la situation dun systme dattente M/G du type de ceux de la sec-
tion 3.7.1 et les calculs se font laide du thorme des coupes, formule de Little, etc.
Recherche Oprationnelle
CHAPITRE 3. LES FILES DATTENTES 54
F. Sur 2011-2012
55 3.9. EXERCICES
3.9 Exercices
3.9.1 Paradoxe de lautobus
La cadence moyenne de passage dun autobus un arrt est approximativement
de 10 minutes.
Quel est le temps moyen dattente dun autobus lorsquon arrive larrt ?
3.9.2 Dimensionnement dun service-client
On veut prvoir le nombre de conseillers affecter un service client tlphonique
(une hotline ) de manire assurer que dans plus de 90% des cas, les appels sont
traits.
On estime que les appels sont rpartis selon un processus de Poisson de taux = 40
appels par heure, et que la dure des appels est rpartie selon une loi exponentielle de
moyenne 1/ = 1/5 heure.
On se placera dans les deux cas limites : 1) la le dattente est illimite (les clients
sont mis en attente au cas o tous les conseillers sont occups et ont la patience dat-
tendre), et 2) il ny a pas de le dattente (lorsque tous les conseillers sont occups, les
clients abandonnent).
Quel est le cot conomique de passer dune qualit de service de 90% 99%?
3.9.3 Vlos en libre service (rattrapage 2010-2011)
On considre une station de vlos en libre service (Vlo Stanlib Nancy).
Cette station a une capacit de stockage de trois vlos.
On suppose que les vlos emprunts reviennent dans cette mme station (une seule
station pour toute la ville). La dure demprunt de chaque vlo est exponentielle, de
dure moyenne 1/ = 30 minutes. Les utilisateurs arrivent selon une loi de Poisson de
taux = 2 utilisateurs/heure : si un vlo est disponible leur arrive ils lempruntent,
sinon ils partent.
1. Dessinez le graphe du processus de naissance et de mort associ. Les quatre tats
correspondront au nombre de vlos disponibles dans la station.
2. Dterminez la probabilit p
k
, en rgime permanent, pour quil y ait k vlos dans
la station (0 k 3).
3. Application numrique : calculez la probabilit pour quil ny ait aucun vlo la
station.
4. On envisage daugmenter la capacit de stockage de la station de trois vlos N
vlos. Avec les valeurs prcdentes de et , comment xer N de manire ce
quun utilisateur trouve au moins un vlo dans plus de 99% des cas ?
Recherche Oprationnelle
CHAPITRE 3. LES FILES DATTENTES 56
3.9.4 Chez le mdecin (examen 2010-2011)
Un mdecin reoit des patients sans rendez-vous. Les arrives sont distribues de
manire Poissonnienne avec un taux = 4 arrives/heure. La dure de consultation suit
une loi exponentielle de moyenne 12 minutes. Bien sr, la salle dattente a une capacit
limite, et lorsquelle est pleine, les patients sont obligs daller ailleurs.
Le mdecin voudrait assurer une qualit de service telle quil soit capable dac-
cueillir plus de 90% des patients se prsentant au cabinet.
1. Quel modle vu en cours (donnez la notation de Kendall) vous semble bien repr-
senter cette situation ?
2. Comment dimensionner la salle dattente de manire atteindre la qualit de ser-
vice cible ?
3. En fait, les patients qui arrivent alors que la salle dattente nest pas pleine nentrent
que sils jugent lattente raisonnable. On note N la capacit du cabinet (places en
consultation et en salle dattente). Si n < N est le nombre de patients dans le cabi-
net, un nouveau patient dcide daller ailleurs avec une probabilit 1 1/(n + 1)
(et donc dentrer dans la salle dattente avec une probabilit 1/(n + 1)). Dans
quelle proportion du temps la salle dattente est-elle pleine ?
Faites le calcul avec la plus petite salle dattente rpondant la question prc-
dente.
3.9.5 Problme de maintenance informatique (examen 2010-2011)
Un serveur informatique monoprocesseur reoit des requtes distribues selon un
processus de Poisson de taux = 800 requtes / seconde. Le temps de traitement dune
requte est distribu selon une loi exponentielle de moyenne 1 milliseconde (taux de
service
1
).
En raison dune programmation dfaillante, lorsque N 1 requtes sont dans le
systme et quune N-me requte arrive, le serveur plante, et doit tre redmarr par
un technicien. Le temps dintervention du technicien est distribu de manire exponen-
tielle, avec une moyenne 10 minutes (taux de service
2
). Aprs redmarrage, toutes les
requtes en attente sont perdues.
On vous demande de ne pas faire dapplication numrique dans cet exercice.
1. Dessinez le graphe du processus associ ce systme. Sagit-il dun processus de
naissance et de mort ?
2. Si 0 k < N, soit p
k
la probabilit pour quen rgime permanent k requtes
soient en attente, et p
N
la probabilit que le serveur soit hors-service. Montrez
que si k > 0 :
p
Nk
=

2

s
k
1
s 1
p
N
F. Sur 2011-2012
57 3.9. EXERCICES
o s =
1
/.
3. Quelle est la probabilit pour que le serveur soit hors-service ?
4. En supposant que vous avez calcul les valeurs numriques des p
k
(on ne vous
demande pas de le faire !), par quelle formule obtiendriez-vous le nombre moyen
de requtes dans le serveur ?
3.9.6 tude dune le M/G/1 (examen 2010-2011)
Daprs le cours phnomnes alatoires de Claudie Chabriac en M2 ISMAG Toulouse 2.
On considre une petite agence, un employ. On suppose quelle peut accueillir
un nombre illimit de clients, qui arrivent selon un processus de Poisson de taux = 3
clients par heure. La dure de service est exponentielle, de moyenne 1/
1
= 10 minutes.
Dans = 80% des cas, le client se satisfait des explications, mais, dans = 20% des
cas, le client demande des explications supplmentaires, de dures rparties selon une
loi exponentielle de moyenne 1/
2
= 20 minutes. On a donc affaire un systme de
type M/G/1. Le but de cet exercice est den faire ltude par la mthode dite des sries
formelles.
1. Dessinez le graphe associ ce phnomne dattente, en prcisant les transitions.
Indication : les sommets correspondant au cas o au moins un client est dans
lagence seront nots (n, i), o n > 0 est le nombre de clients dans lagence, et i
la phase de service du client que lon sert (i = 1 : explications standards ; i = 2 :
explications supplmentaires).
2. Soit p
n,i
les probabilits pour quen rgime stationnaire le systme se trouve dans
ltat (n, i), et p
0
la probabilit pour quil ny ait pas de client dans lagence.
Soit p
n
= p
n,1
+p
n,2
si n > 0. Notons F(x) =

n=0
p
n
x
n
, F
1
(x) =

+
n=1
p
n,1
x
n
,
et F
2
(x) =

+
n=1
p
n,2
x
n
.
tablissez les quations suivantes :
_
_
_
F
1
(x) + F
2
(x) = F(x) p
0

1
F
1
(x) +
2
F
2
(x) = xF(x)
_
(1 x) +
2
_
F
2
(x) =
1
F
1
(x)
3. Soit N le nombre moyen de clients dans lagence. Comment sexprime N en
fonctions des p
n
?
4. Justiez le systme :
_
_
_
F
1
(1) + F
2
(1) = 1 p
0
; N = F

1
(1) + F

2
(1)

1
F
1
(1) +
2
F
2
(1) = ;
1
F

1
(1) +
2
F

2
(1) = (N + 1)

1
F
1
(1) =
2
F
2
(1) ;
1
F

1
(1) =
2
F

2
(1) F
2
(1)
Recherche Oprationnelle
CHAPITRE 3. LES FILES DATTENTES 58
Quelles sont les inconnues ?
5. Dmontrez que :
N =
F
1
(1) + F
2
(1) F
1
(1)F
2
(1) +

F
2
(1)
2
1 F
1
(1) F
2
(1)
et exprimez F
1
(1) en fonction de et
1
, et F
2
(1) en fonction de , , et
2
.
6. Comment trouver le temps moyen de sjour T dans cette agence ?
7. Quel est le taux dactivit de lemploy ?
8. Application numrique : que valent ici N, T, et le taux dactivit ?
F. Sur 2011-2012
Chapitre 4
Correction des exercices
Ces corrections ont pour unique but de permettre le travail en autonomie aprs la
sance de TD.
Comme pour les solutions de mots-croiss, elles ne sont consulter quaprs avoir
rchi lnonc (cest--dire aprs le TD).
59
CHAPITRE 4. CORRECTION DES EXERCICES 60
4.1 La programmation dynamique
4.1.1 La distance ddition
1. Il suft de vrier d(x, y) 0 (vident), d(x, y) = 0 si et seulement si x = y
(vident aussi), d(x, y) = d(y, x) (vrai car insertion et substitution jouent des
rles symtriques et ont le mme cot), et lingalit triangulaire.
Si on peut passer laide de d(x, z) insertions/suppressions de x z et de d(z, y)
insertions/suppressions de z y, alors on peut passer en d(x, z) +d(z, y) de x y.
Donc d(x, y) d(x, z) + d(z, y).
2. Pour passer du plus court des deux mots x et y au plus long, il faut au moins
|mn| insertions. Donc |mn| d(x, y). Il y a dailleurs galit si et seulement
si on obtient le plus long des mots partir du plus court en exactement |m n|
insertions.
On peut passer de x y en m suppressions (de manire arriver au mot vide)
suivies de n insertions. Do d(x, y) m + n. On montre que le cas dgalit
correspond aux mots nayant pas de lettre en commun (raisonnement par lab-
surde).
3. d(x
i
, y
0
) = i et d(x
0
, y
j
) = j (vident, ceci rsulte aussi des ingalits prc-
dentes).
4. crivons x
i
et y
j
sous la forme : x
i
= x
i1
et y
j
= y
j1
.
Il y a trois manires de transformer x
i
en y
j
:
a) en transformant x
i1
en y
j1
, puis,
si = on na plus rien faire (cot total d(x
i1
, y
j1
)) ;
si = , en supprimant la i-me lettre de x et en insrant la j-me lettre
de y (cot total de d(x
i1
, y
j1
) + 2) ;
b) en transformant x
i1
en y
j
, puis en supprimant la i-me lettre de x
i
(cot
de d(x
i1
, y
j
) + 1) ;
c) en transformant x
i
en y
j1
, puis en insrant la j-me lettre de y
j
(cot de d(x
i
, y
j1
)+
1).
Dans le premier cas, les cot des sous-cas = et = se confondent en
d(x
i1
, y
j1
) + 2
i,j
.
Do la relation demande.
5. Si on note C(i, j) le cot pour le calcul rcursif de la distance entre deux mots
de longueur i et j, alors C(i, j) C(i 1, j 1) + C(i 1, j) + C(i, j 1).
En dpliant cette rcurrence sous forme arborescente (faire un dessin), on voit
quil faut un arbre ternaire de profondeur n pour aboutir aux C(i, 0), C(0, j) dont
on connat la valeur par la question 3. En remontant : les cots de la profondeur n
F. Sur 2011-2012
61 4.1. LA PROGRAMMATION DYNAMIQUE
sont (au moins
1
) de 1 (et il y en a 3
n
, ceux la profondeur (n1) sont (au moins)
de 3 (et il y en a 3
n1
), . . ., celui la profondeur 0 est (au moins) de 3
n
(et il y en
a un).
Do une complexit exponentielle : C(n, n) 3
n
.
6. Pour un algorithme de programmation dynamique, il suft dorganiser le calcul
dans un tableau de taille (m+ 1) (n + 1) comme en 7.
7. On applique la formule de rcurrence pour remplir le tableau, on trouve d = 3.
i i n g e n i e u r
j 0 1 2 3 4 5 6 7 8 9
i 1 0 1 2 3 4 5 6 7 8
g 2 1 2 1 2 3 4 5 6 7
n 3 2 1 2 3 2 3 4 5 6
e 4 3 2 3 2 3 4 3 4 5
n 5 4 3 4 3 2 3 4 5 6
e 6 5 4 5 4 3 4 3 4 5
u 7 6 5 6 5 4 5 4 3 4
r 8 7 6 7 6 5 6 5 4 3
On voit que la complexit en espace (pour le calcul de la distance) est en fait en
O(min(m, n)) (on na pas besoin de mmoriser toutes les lignes du tableau, mais
essentiellement la ligne qui prcde la ligne courante). Bien sr, il faut conserver
tout le tableau si on veut remonter les oprations par back-tracking.
8. Par back-tracking on peut retrouver la suite des oprations (insertion/suppression)
effectues pour arriver la distance ddition.
i i n g e n i e u r
j 0 1 2 3 4 5 6 7 8 9
i 1 0 1 2 3 4 5 6 7 8
g 2 1 2 1 2 3 4 5 6 7
n 3 2 1 2 3 2 3 4 5 6
e 4 3 2 3 2 3 4 3 4 5
n 5 4 3 4 3 2 3 4 5 6
e 6 5 4 5 4 3 4 3 4 5
u 7 6 5 6 5 4 5 4 3 4
r 8 7 6 7 6 5 6 5 4 3
En partant de la case en haut gauche, un dplacement en diagonale correspond
au cas a), un dplacement vers la droite au cas b), et vers la gauche au cas c).
Do la suite de transformations :
1
au moins car il ny a pas que des C(i, 0) ou C(0, j) au niveau n de larbre ternaire. . .
Recherche Oprationnelle
CHAPITRE 4. CORRECTION DES EXERCICES 62
ingenieur igngenieur (insertion) ignenieur (suppression)
igneneur (suppression)
Bien sr, il ny a pas unicit de la suite de transformations de longueur minimale.
Question subsidiaire : on autorise prsent les substitutions, avec un cot de 1 (on
change le 2 en 1 dans la formule de rcurrence, lapplication numrique est modie).
4.1.2 Problme de location de skis
1. Comme dans tout problme doptimisation sur un support ni, le minimum existe.
Supposons le minimum ralis par a non croissante. Donc il existe deux skieurs
i
1
et i
2
tels que i
1
< i
2
et l
a(i
1
)
> l
a(i
2
)
. On va montrer quen changeant les paires
de skis de i
1
et i
2
, alors on naugmente jamais la valeur de la fonction objectif.
Donc on peut transformer la fonction daffectation a en une fonction daffectation
croissante tout en diminuant ou conservant la valeur de la fonction objectif.
Comme i
1
< i
2
, alors t
i
1
t
i
2
.
Soit Dla diffrence entre la valeur de lobjectif ralis par a et la valeur ralise en
changeant les deux paires de skis comme prcdemment. Aprs simplication :
D = |t
i
1
l
a(i
1
)
| +|t
i
2
l
a(i
2
)
| |t
i
1
l
a(i
2
)
| |t
i
2
l
a(i
1
)
|.
Alors :
a) si t
i
1
t
i
2
l
a(i
2
)
l
a(i
1
)
: D = 0
b) si t
i
1
l
a(i
2
)
t
i
2
l
a(i
1
)
: D = 2(t
i
2
l
a(i
Z
)
) 0
c) si l
a(i
2
)
t
i
1
t
i
2
l
a(i
1
)
: D = 2(l
a(i
1
)t
i
1
0
d) si l
a(i
2
)
t
i
1
l
a(i
1
)
t
i
2
: D = 2(l
a(i
1
)
l
a(i
2
)
) > 0
e) si l
a(i
2
)
l
a(i
1
)
t
i
1
t
i
2
: D = 0.
2. Considrons le ski j dans laffectation optimale donnant S(i, j). Ou bien ce ski
nest pas affect, et donc S(i, j) = S(i, j 1), ou bien il est affect, et dans ce
cas il sera ncessairement affect au i-me skieur car la fonction daffectation est
croissante.
3. Pour calculer laffectation optimale, on commence par trier les skis et les skieurs.
Puis on remplit un tableau :
t
1
t
2
t
3
. . . t
n1
t
n
l
1
|t
1
l
1
| x x . . . x
l
2
o |t
1
l
1
| +|t
2
l
2
| x . . . x x
l
3
o o |t
1
l
1
| +|t
2
l
2
| +|t
3
l
3
| . . . x x
.
.
.
l
m1
x x x . . . o o
l
m
x x x . . . x SOL
F. Sur 2011-2012
63 4.1. LA PROGRAMMATION DYNAMIQUE
o x dsigne les cases que lon ne calcule pas et o les cases calculer.
En effet : 1) sil ny a quun skieur, on lui attribue le ski le plus proche de sa
taille (initialisation de la colonne de t
1
) ; 2) sil y a autant de skieurs que de skis
laffectation se fait simplement par a(i) = i ; 3) pour calculer la case courante
laide de la formule de rcurrence, on a besoin des valeurs des cases au dessus
gauche et au dessus.
Le but est de calculer la valeur de la case SOL, donc il nest pas ncessaire de
calculer toutes les valeurs du triangle infrieur gauche : dans chacune des n
colonnes, mn cases sont calculer.
4. Complexit des tris : O(mlog(m) +nlog(n)) (admis, cf cours 1A ou page wiki-
pedia), et n(mn) cases calculer. Do une complexit globale en :
O(mlog(m) + nlog(n) + n(mn)).
4.1.3 quilibrage de charge sur deux machines en parallle
1. Lexpression de DT est vidente. Faites un dessin comme celui de la question
suivante.
2. minDT(n, T) = (

n
i=1
t
i
+ T)/2. En effet, tout se passe comme si on avait une
n + 1-me tche de dure T, et des machines exactement quilibres.
On a :
minDT(k, T) = min
_
minDT(k + 1, |T t
k+1
|), minDT(k + 1, T + t
k+1
)
_
.
En effet, la k +1-me tche est soit sur la machine la moins charge avec k tches
(cas 1, deux sous-cas sont possibles selon que la dure de la k + 1-me tche est
infrieure ou suprieure T, do la valeur absolue), soit sur la machine la plus
charge (cas 2).
Ceci est illustr sur le dessin suivant : les k premires tches sont en vert, la k+1-
me en rouge, les n (k + 1) restantes places de manire optimale en noir. Le
schma de gauche correspond au cas 1, celui de droite au cas 2.
T
minDT(k,T)
T
minDT(k,T)
M1
M2 M2
M1
3. On cherche la valeur de minDT(0, 0).
tape 1. T varie a priori entre 0 et 11 pour k = 4 (somme des temps).
Recherche Oprationnelle
CHAPITRE 4. CORRECTION DES EXERCICES 64
On connat les minDT(4, T) et on sait que :
minDT(3, T) = min
_
minDT(4, |T 6|), minDT(4, T + 6)
_
,
o T varie entre 0 et 5 pour k = 3.
On remplit le tableau ci-dessous.
tape 2. T varie entre 0 et 3, la rcurrence scrit :
minDT(2, T) = min
_
minDT(3, |T 2|), minDT(3, T + 2)
_
.
etc.
T 0 1 2 3 4 5 6 7 8 9 10 11
tape 0 minDT(4, T) 5.5 6 6,5 7 7,5 8 8,5 9 9,5 10 10,5 11
tape 1 minDT(3, T) 8,5 8 7,5 7 6,5 6 - - - - - -
tape 2 minDT(2, T) 7,5 7 6,5 6 - - - - - - - -
tape 3 minDT(1, T) 6,5 6 - - - - - - - - - -
tape 4 minDT(0, T) 6 - - - - - - - - - - -
Remarque 1 : comme dans lexercice avec les skieurs, il nest pas ncessaire de
calculer lintgralit du tableau pour arriver minDT(0, 0) qui est la valeur cher-
che. Remarquons quon a intrt ordonner les tches par dure croissante pour
minimiser le nombre doprations. On peut demander quelle est la complexit de
lalgorithme. On voit quil est en :
O
_
1 +
n

i=1
t
i
+ 1 +
n1

i=1
t
i
+ + 1 + t
1
+ 1
_
= O
_
n + 1 +
n

i=1
(n + 1 i) t
i
_
.
Remarque 2 : les dures de n non-entires correspondent des dcalages T non
ralisables puisque les dures des tches sont entires. On pourrait encore simpli-
er les calculs en liminant les cases correspondantes.
Conclusion : lordonnancement optimal a une dure de 6.
On fait une propagation arrire (en gras sur le tableau prcdent). Le cas dgalit
dans lquation de rcurrence permet de dduire si la tche est place sur la ma-
chine la moins charge ou sur la plus charge. On voit quon arrive un dcalage
T = 1 entre les deux machines.
Il est obtenu en plaant : la tche 1 sur la machine la plus charge (machine 1
par exemple, arbitraire cette tape), puis la tche 2 sur la machine la plus char-
ge (donc la machine 1), puis la tche 3 sur la machine la plus charge (donc
machine 1), puis la tche 4 sur la machine la moins charge (qui est alors la ma-
chine 2).
F. Sur 2011-2012
65 4.1. LA PROGRAMMATION DYNAMIQUE
Cest--dire :
- machine 1 : tches 1 - 2 - 3
- machine 2 : tche 4
Sans grande surprise. . . (mais il fallait une application numrique lgre ).
4.1.4 Gestion de stock
On commence par remarquer :
x
k+1
= max(x
k
+ u
k
w
k
, 0),
ce qui justie les expressions des cots.
Le but est de minimiser :
n

k=1
c
k
(u
k
) + r(x
k
, u
k
, w
k
)
Soit :
F(n + 1, x
n+1
) = min
(u
k
)
1kn
_
n

k=1
c
k
(u
k
) + r(x
k
, u
k
, w
k
)
_
.
Les commandes u
k
sont telles que le stock x
k
ne dpasse pas la capacit maxi-
male C, quelque soit k.
On peut crire :
F(n+1, x
n+1
) = min
u
n
{0,...,Cx
n
}
_
c
n
(u
n
) + r(x
n
, u
n
, w
n
) + min
(u
k
)
1kn1
n1

k=1
c
k
(u
k
) + r(x
k
, u
k
, w
k
)
_
Donc :
F(n + 1, x
n+1
) = min
u
n
{0,...,Cx
n
}
c
n
(u
n
) + r(x
n
, u
n
, w
n
) + F(n, x
n+1
u
n
+w
n
).
Lextension scrit :
F(k + 1, x
k+1
) = min
u
k
{0,Cx
k
}
{c
k
(u
k
) + r(x
k
, u
k
, w
k
) + F(k, x
k+1
u
k
+w
k
)) ,
qui est une quation de Bellman.
Le problme initial se rsout par back-tracking connaissant x
n+1
= 0.
Recherche Oprationnelle
CHAPITRE 4. CORRECTION DES EXERCICES 66
4.1.5 Programmation dynamique et plus court chemin
Le but de cet exercice est de voir que la recherche de plus court chemin vue dans les
sances prcdentes peut tre rsolue par la programmation dynamique. Cest dailleurs
un exemple standard doptimisation dune quation de Bellman. Tous les exercices de la
sance GR2.2 peuvent tre rsolus par programmation dynamique plutt que par point
xe.
Soit G le graphe considr et A et B les deux sommets.
Notons C(S
1
, S
2
) lensemble des chemins du sommet S
1
au sommet S
2
, l(C) la
longueur dun chemin (la somme des valuations des arcs parcourus), et c(S
1
, S
2
) la
valuation de larc (S
1
, S
2
).
d(A, B) = min
CC(A,B)
l(C)
= min
SG
1
(B)
min
C

C(A,S)
_
l(C

) + c(S, B)
_
= min
SG
1
(B)
_
c(S, B) + min
C

C(A,S)
l(C

)
_
= min
SG
1
(B)
(c(S, B) + d(A, S)) .
o G
1
(B) dsigne lensemble des antcdents de B.
Do la formule de rcurrence satisfaisant le principe de Bellman :
S

, d(A, S

) = min
SG
1
(S

)
(c(S, S

) + d(A, S))
et linitialisation d(A, A) = 0.
Remarque : cette manire de procder pour tablir lquation de rcurrence est ty-
pique de ce quon ferait avec une quation de Bellman gnrique.
Pour ce qui est de la mise en uvre. . .
Ltape 1 consiste calculer les d(A, S

) pour les S

successeurs de A laide de la
formule de rcurrence.
Ltape 2 consiste calculer les d(A, S

) pour les S

successeurs des successeurs


de Adont on connat la distance des antcdents A(pour pouvoir utiliser la formule
de rcurrence).
etc.
Pour lapplication numrique, dessinez le graphe et appliquez lalgorithme en par-
tant du sommet A. On trouve d(A, B) = 13, et par back-tracking le chemin A, C, E, B.
F. Sur 2011-2012
67 4.2. LES CHANES DE MARKOV
4.2 Les chanes de Markov
4.2.1 Lanatomie dun moteur de recherche
1. Soit M = (m
i,j
) la matrice N N telle que :
_
m
i,j
= 0 sil ny a pas de lien de la page p
i
vers la page p
j
,
m
i,j
= 1/L(p
i
) sinon
o L(p
k
) est le nombre de liens sortant de la page p
k
.
Soit i {1, . . . , N}. On a :
N

j=1
m
i,j
=
N

j=1

i,j
/L(p
i
) = 1/L(p
i
)
N

j=1

i,j
o
i,j
vaut 1 si i pointe vers j et 0 sinon. Ainsi

N
j=1

i,j
est le nombre de liens
sortant de p
i
(et est gal L(p
i
)), donc

N
j=1
m
i,j
= 1.
Dans le cadre de lindication :
M =
_
_
1/3 1/3 1/3
1/2 1/2 0
0 1/2 1/2
_
_
2. Le systme se rsout en : (PR1, PR2, PR3) = (3/9, 4/9, 2/9).
Ce rsultat est conforme lexplication intuitive : la page p
2
a le plus fort Pa-
geRank car elle est la page avec le plus de liens vers elle ; p
1
et p
3
ont le mme
nombre de liens vers elles mais p
1
hrite en partie du fort PageRank de p
2
.
3. Certaines pages (ou sites web) nont pas de liens vers lextrieur et forment donc
des classes nales. Donc la chane de Markov est rductible, donc nest pas ergo-
dique. La chane tant rductible, il ny a pas unicit de la distribution stationnaire,
donc le PageRank nest pas dni de manire unique.
4. On dnit M = (m
i,j
) par :
_
m
i,j
=
1d
N
sil ny a pas de lien de la page p
i
vers la page p
j
,
m
i,j
= (1 d)/N +d/L(p
i
) sinon
Soit i {1, . . . , N}. On a :
N

j=1
m
i,j
= 1 d + d
N

j=1

i,j
/L(p
i
) = 1 d +d = 1.
Recherche Oprationnelle
CHAPITRE 4. CORRECTION DES EXERCICES 68
Cette matrice stochastique M vrie bien :
PR M =
_
_
1 d
N
N

i=1
PR(i) + d

p
j
P(p
i
)
PR(p
j
)
L(p
j
)
_
_
i{1,...,N}
= PR
Daprs la dnition de Brin et Page car

N
i=1
PR(i) = 1.
5. La chane associe cette matrice de transition est apriodique et irrductible (le
graphe est complet), donc la chane est ergodique.
Ainsi le PageRank est correctement dni (unicit de la distribution stationnaire).
6. La suite de la citation est :
The probability that the random surfer visits a page is its PageRank.
And, the d damping factor is the probability at each page the "random
surfer" will get bored and request another random page.
Le PageRank est la distribution stationnaire atteinte par le surfer qui parcourt le
web ; chaque page il a une alternative : soit il demande une page au hasard (avec
la probabilit 1 d), soit il clique au hasard sur un des liens de la page courante.
Le cas d = 0 correspond une succession de page web alatoire. Toutes les pages
ont alors le mme PageRank de 1/N.
Le cas d = 1 correspond la premire formulation, qui ne permet pas de dnir
correctement le PageRank.
F. Sur 2011-2012
69 4.3. LES FILES DATTENTE
4.3 Les les dattente
4.3.1 Paradoxe de lautobus
La dure entre deux arrives suit un processus alatoire de moyenne 10 minutes.
Soit X
i
(i > 0) la variable alatoire reprsentant la dure entre la i 1-me arrive
et la i-me arrive. On suppose les X
i
indpendants et identiquement distribus.
Voici le graphe du temps dattente T
a
(t) en fonction du temps t darrive larrt :
T
a
X
1
X
2
X
3
X
4
X
6
X
5
t
En effet, le temps dattente scrit sous la forme : T
a
(t) = t
n(t)
t, o n(t) est le
numro dordre du premier autobus arrivant aprs la date t, et t
n(t)
son horaire darrive.
Le temps moyen dattente sur lintervalle [0, t] est donc :
1
t
_
t
0
T
a
()d =
1
t
_
_
n(t)

i=1
1
2
X
2
i
R(t)
_
_
o R(t) est un reste positif (born).
Comme t/n(t) X (dure moyenne entre deux passage) et R(t)/t 0 :
T
a

1
n(t)X
n(t)

i=1
1
2
X
2
i
.
Donc :
T
a
=
X
2
2X
avec X
2
la moyenne des X
2
i
.
Recherche Oprationnelle
CHAPITRE 4. CORRECTION DES EXERCICES 70
Comme Var(X) = X
2
X
2
(algbre de la variance), on dduit :
T
a
=
1
2
X +
Var(X)
2X
.
Conclusion(s) :
Le temps moyen dattente du bus est toujours suprieur la moiti du temps
moyen entre deux passages. . .(contrairement lintuition)
Il ne peut tre exactement gal la moiti du temps de passage que dans le cas
o la variance est nulle (cas dgalit), donc dans le cas dintervalles de passages
dterministes.
Dans le cas o les dures sont distribues selon une loi de Poisson de paramtre ,
alors Var(X) = 1/
2
= X
2
. Donc dans ce cas : W = X.
Le temps moyen dattente est alors gal au temps moyen entre deux passages !
(cest une manifestation de leffet PASTA : le temps moyen dattente ne dpend
pas de linstant darrive, et est gal en particulier au temps dattente lorsquon
arrive juste au dpart dun bus.)
Plus la variance des temps de passage est grande, plus le temps dattente lest
aussi. Il peut mme tre arbitrairement grand. Une explication intuitive est que
plus la variance est grande, plus on a de chance darriver dans un grand intervalle
de temps entre deux passages.
Par le mme raisonnement on peut dire que dans une le M/G/1, le temps moyen
que dure la n dun service lorsquun nouveau client trouve le serveur occup est :
T
a
=
1
2
X +
Var(X)
2X
.
En effet, ici le serveur (le bus) est toujours occup linstant o un nouveau client (un
passager) arrive.
Par dnition, T
a
est la dure rsiduelle de service.
4.3.2 Dimensionnement dun service-client
Notons m le nombre de conseillers employer, et = / = 8.
Dans le cas 1) il sagit dune le M/M/m, et dans le cas 2) dune le M/M/m/m.
Dans le cas 1), il doit y avoir au moins 8 conseillers, sinon la le dattente sallonge
indniment (pas de rgime permanent)
Avec la proprit PASTA, un client qui appelle a une probabilit
m
=

+
k=m
p
k
(cas 1) ou
m
= p
m
(cas 2) de voir la le pleine.
Avec le formulaire :
F. Sur 2011-2012
71 4.3. LES FILES DATTENTE
Cas 1)

m
=
+

k=m
p
k
=
+

k=m

k
m!m
km
p
0
=

m
m!(1 /m)
p
0
=

m
/(m!(1 /m))

m
/(m!(1 /m)) +

m1
k=0

k
/k!
Cette dernire formule est appele formule dErlang C.
Cas 2)

m
=
1
m!

m
p
0
=

m
/m!

m
k=0

k
/k!
Il sagit de la formule dErlang B.
Pour dimensionner le centre dappel, on peut programmer la formule donnant p
m
(et calculer p
m
pour diffrentes valeurs de m ou programmer une stratgie type dicho-
tomie) ou utiliser un des nombreux calculateurs en ligne existant (recherche Google
erlang calculator).
On trouve dans le cas 1) m = 13 conseillers ncessaires (et p
13
= 0, 059)
Si on exige une qualit de service suprieure 99%, il faut alors m = 16 conseillers,
(p
16
= 0, 009) ce qui reste un surcot envisageable.
On trouve dans le cas 2) m = 11 conseillers ncessaires (p
11
= 0, 0813).
Si on exige une qualit de service suprieure 99%, il faut alors m = 15 conseillers
(p
15
= 0.0091), ce qui semble encore une fois raisonnable .
La comparaison des cas 1) et 2) peut sembler paradoxal : en supprimant la le dat-
tente, on a besoin de moins de conseillers. . .En fait, sans le dattente (et nombre de
conseillers gal), un client a plus de chance quun conseiller soit libre et puisse prendre
son appel immdiatement. Ce rsultat est bien sr contrebalancer par linsatisfaction
provoque chez le client qui doit rappeler. . .
Recherche Oprationnelle
CHAPITRE 4. CORRECTION DES EXERCICES 72
4.3.3 Vlos en libre service
1. Les tats sont 0, 1, 2, 3, selon le nombre de vlos en attente dans la station. Les
dparts de vlo (3 2, 2 1, 1 0) se font avec un taux de gal
au taux darrive des clients. Les arrives de vlo dans la station se font avec un
taux 3 lorsquaucun vlo nest dans la station (i.e. trois vlos en promenade), 2
lorsquun vlo est dans la station, et lorsque deux vlos sont dans la station.
Le graphe est donc :
3

.
1

2
.
0
3
.
2. Avec le thorme des coupes on dduit : p
3
= p
2
, p
2
= 2p
1
, p
1
= 3p
0
.
Donc :
_

_
p
1
=
3

p
0
p
2
=
6
2

2
p
0
p
3
=
6
3

3
p
0
Avec p
0
+p
1
+ p
2
+p
3
= 1 :
p
1
0
=
3

_
1 +
2

+
2
2

2
_
3. Ici = , donc : p
0
= 1/15.
4. Cette fois la chane de Markov a N + 1 tats. On se convainc que la formule des
coupes fournit :
0 k N 1, p
k+1
= (N k)p
k
.
Donc :
0 k N, p
k
=
N!
(N k)!
_

_
k
p
0
Comme

k
p
k
= 1, et = :
p
1
0
=
N

k=0
N!
(N k)!
= N!
N

k=0
1
k!
On veut p
1
0
100. Or, si N = 3, p
1
0
= 15 (question prcdente), si N = 4
p
1
0
= 65, et si N = 5 p
1
0
= 326.
Conclusion : il faut une capacit de stockage de cinq vlos.
F. Sur 2011-2012
73 4.3. LES FILES DATTENTE
4.3.4 Chez le mdecin
1. Il sagit dun systme M/M/1/N, avec N 1 places dans la salle dattente.
2. Notons = /. Daprs le formulaire du cours, p
N
= p
0

N
(o p
0
= (1
)/(1
N+1
) ) est la probabilit que la salle dattente soit pleine.
On cherche donc N tel que (1)/(
N
) < 0.1. Do (10.9)/0.1 <
N
,
soit :
N >
log(1 0.9) log(0.1)
log()
Application numrique : = 4/5, N > 4.61, donc N 5, do une salle dat-
tente avec au moins 4 places.
3. Le graphe du processus de naissance et mort associ est :
0

.
/2

.
/3

. . .

. . .
/(N1)

.
N-1

.
/N

.
Avec le thorme des coupes et

p
k
= 1 :
p
N
=

N
/N!

N
k=0

k
/k!
Avec N = 5, p
5
= 0.0012 : la salle dattente est pleine dans 0, 1% des cas. (
comparer avec 10% dans la question prcdente.)
4.3.5 Problme de maintenance informatique
1. Le graphe du processus associ est :
0

1
.

1
.

. . .

1
.

. . .

.
N-1

1
.

2
.
Ce nest pas un processus de naissance et de mort.
2. Par le thorme des coupes :
_

_
p
0
=
1
p
1
+
2
p
N
p
1
=
1
p
2
+
2
p
N
. . .
p
N2
=
1
p
N1
+
2
p
N
p
N1
=
2
p
N
Recherche Oprationnelle
CHAPITRE 4. CORRECTION DES EXERCICES 74
Donc successivement :
_

_
p
N1
= (
2
/)p
N
p
N2
= (
1

2
/
2
+
2
/) p
N
. . .
p
Nk
=
_

k1
1

2
/
k
+ +
1

2
/
2
+
2
/
_
p
N
Do :
p
Nk
=
2
/
k1

i=0
s
i
p
N
do la formule demande.
3. Comme

N
k=0
p
k
= 1, on a :
p
1
N
= 1 +

2

k=1
_
s
k
1
_
Donc :
p
1
N
= 1 +

2

_
s
s
N
1
s 1
N
_
Conclusion : la probabilit p
N
pour que le serveur soit hors-service est donne
par :
p
1
N
= 1 +

2

1
(
1
/)
N
1

N
_
.
Remarque (non demand) : en faisant lhypothse que N est assez grand, on peut
simplier la formule en tablissant un quivalent de p
N
:
si
1
< , alors p
N


1

2
N
= O(1/N) ;
si <
1
, alors p
N

(
1
)
2

2
_

1
_
N
= O(1/K
N
). (la situation est plus rare,
comme on sy attendait.)
4. N =

N1
n=0
np
N
(la somme sarrte N 1 car p
N
correspond la probabilit
pour que le serveur soit plant).
F. Sur 2011-2012
75 4.3. LES FILES DATTENTE
4.3.6 tude dune le M/G/1
1. Le graphe associ ce phnomne dattente sans mmoire est :
0

1,1

1
.

2,1

1
.

3,1

1
.

. . .

1
.
1,2

2
J
J
J
J
J
J
J
J
J
J
J
J
J
J
J
J
J
J
J
J
J

2,2

2
_K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K

3,2

2
_K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K

. . .

2
_J
J
J
J
J
J
J
J
J
J
J
J
J
J
J
J
J
J
J
J
J
J
2. On utilise dans cette question lunicit du dveloppement en srie formelle pour
identier les coefcients des x
n
.
Daprs la dnition de F, F
1
, F
2
, il est immdiat que : F
1
(x)+F
2
(x) = F(x)p
0
.
Daprs la formule des coupes (en utilisant des coupes verticales sur le graphe
prcdent) :
_

_
p
0
=
1
p
1,1
+
2
p
1,2
p
1,1
+p
1,2
=
1
p
2,1
+
2
p
2,2
p
2,1
+p
2,2
=
1
p
3,1
+
2
p
3,2
. . .
Ce qui permet dcrire : F
1
(x) +
2
F
2
(x) = xF(x).
Daprs la formule des coupes (en utilisant des coupes isolant les tats i, 2) :
_

_
( +
2
)p
1,2
=
1
p
1,1
( +
2
)p
2,2
=
1
p
2,1
+p
1,2
( +
2
)p
3,2
=
1
p
3,1
+p
2,2
. . .
Ce qui permet dcrire :
_
(1 x) +
2
_
F
2
(x) =
1
F
1
(x).
3. N est lesprance du nombre de clients dans lagence :
N =
+

n=1
np
n
4. On obtient le systme avec les quations de la question 2, en prenant leur valeur
en x = 1 ou la valeur de leur drive par rapport x en x = 1.
On utilise aussi le rsultat de la question 3, et

+
n=0
p
n
= 1.
Les inconnues sont bien sr : F
1
(1), F

1
(1), F
2
(1), F

2
(1), N, p
0
.
Recherche Oprationnelle
CHAPITRE 4. CORRECTION DES EXERCICES 76
5. Du systme :
_

1
F
1
(1) +
2
F
2
(1) =

1
F
1
(1) =
2
F
2
(1)
On dduit :
F
1
(1) =

1
F
2
(1) =

2
Du systme :
_
(
1
)F

1
(1) + (
2
)F

2
(1) =

1
F

1
(1)
2
F

2
(1) = F
2
(1)
on dduit dune part (par limination de F

2
(1)) :
(
1
+
1
(
2
)/
2
)F

1
(1) = F
2
(1)(
2
)/
2
do ( + = 1) :
(
1

1
/2)F

1
(1) = + (
2
/
2
)F
2
(1)
donc :
(1 F
1
(1) F
2
(1))F

1
(1) = F
1
(1) +
2
/(
1

2
)F
2
(1) F
1
(1)F
2
(1) ()
Dautre part (par limination de F

1
(1)) :
(
2
+
2
(
1
)/(
1
))F

2
(1) = (
1
)/(
1
)F
2
(1)
do :
(
2
/
2
/(
1
))F

2
(1) = F
2
(1)/ +
2
/(
1
)F
2
(1)
donc :
(1 F
1
(1) F
2
(1))F

2
(1) = F
2
(1) + /F
2
(1)
2

2
/(
1

2
)F
2
(1) ()
Finalement, comme N = F

1
(1) + F

2
(1), on trouve bien lexpression cherche
avec () et ().
6. Daprs la formule de Little : T = N/.
7. Le taux dactivit de lemploy est : 1 p
0
= F
1
(1) +F
2
(1) =
_
1/
1
+/
2
_
.
F
1
(1) est la proportion du temps consacre rpondre des questions standards,
F
2
(1) aux questions supplmentaires.
8. Application numrique : = 3, = 0.8, = 0.2,
1
= 6,
2
= 3.
Donc N = 2.5333, T = 0.844h 50min, et le taux dactivit est : 1 p
0
= 70%.
F. Sur 2011-2012
Index
Chane de Markov, 11
absorbante, 15, 21
apriodique, 15
ergodique, 19
homogne, 11
irrductible, 14
matrice de transition, 11
priodique, 15, 18
rductible, 14, 18
reprsentation graphique, 12
Composante nale, 14
Discipline de service, 29, 50
Distance ddition, 5
Distance de Levenshtein, 5
Distribution stationnaire, 19
Dure rsiduelle dattente, 51
Dure rsiduelle de service, 50
quations de Chapman-Kolmogorov, 11
Erlang, 47, 71
tat transient/transitoire, 14, 23
FIFO, 29, 50
File dattente, 27
de type G/M, 49
de type M/G, 48
de type M/G/1, 49
de type M/M/1, 38
de type M/M/1 (proprits), 42
de type M/M/n, 44
de type M/M/n/S, 45
Formule de Little, 31, 42, 45
Google, 25
LIFO, 29
Loi
de Poisson, 27
exponentielle, 27
Matrice
fondamentale, 22
rgulire, 17
stochastique, 11, 17, 39
Matrice de transition, 10, 11
forme canonique pour les chanes de
Markov absorbantes, 15, 21
forme canonique pour les chanes de
Markov priodiques, 16
forme canonique pour les chanes de
Markov rductibles, 14
Nombre de passages par un tat transitoire,
22
Notations de Kendall, 29, 39, 46, 47, 49
PageRank, 25
Paradoxe de lautobus, 50, 55
PASTA, 35, 42
Probabilit dabsorption, 23
Probabilit de transition, 10, 11
Processus
de Markov, 39, 48
de mort pur, 44
de naissance et de mort, 43
de naissance pur, 44
de Poisson, 32, 44
sans mmoire, 28
Programmation dynamique, 5
77
INDEX 78
Rayon spectral, 18
Rseaux de les dattente, 52
Round Robin, 29
Thorme
de Palm-Khintchine, 35
de Perron-Frobenius, 18
des coupes, 20, 40, 43
ergodique, 19, 35
F. Sur 2011-2012