Vous êtes sur la page 1sur 55

Modelisation des syst`emes complexes

M. Petitot
maitrise dinformatique
U.S.T.L.
14 fevrier 2008

Table des mati`


eres
1 Initiation aux chanes de Markov
1.1

1.2

1.3

Chane de Markov en temps discret . . . . . . . . . . . . . . . . . . . .

1.1.1

Definitions de base . . . . . . . . . . . . . . . . . . . . . . . . .

1.1.2

Evolution dans le temps du vecteur stochastique . . . . . . . . .

1.1.3

Distribution limite . . . . . . . . . . . . . . . . . . . . . . . . .

10

1.1.4

Distribution stationnaire . . . . . . . . . . . . . . . . . . . . . .

10

1.1.5

Temps de sejour dans un etat . . . . . . . . . . . . . . . . . . .

12

Chanes de Markov en temps continu . . . . . . . . . . . . . . . . . . .

14

1.2.1

Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

14

1.2.2

Resolution de lequation detat . . . . . . . . . . . . . . . . . . .

16

Processus de naissance et de mort . . . . . . . . . . . . . . . . . . . . .

18

1.3.1

Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

18

1.3.2

Generateur infinitesimal . . . . . . . . . . . . . . . . . . . . . .

19

1.3.3

Distribution stationnaire . . . . . . . . . . . . . . . . . . . . . .

19

2 Files dattente
2.1

Processus darrivee des clients dans une file . . . . . . . . . . . . . . . .

21

2.1.1

Le processus de Poisson . . . . . . . . . . . . . . . . . . . . . .

21

2.1.2

Utilisation de la loi de Poisson P() . . . . . . . . . . . . . . . .

22

2.1.3
2.2

2.3

21

La loi exponentielle comme chane de Markov . . . . . . . . . .

23

Generalites sur les syst`emes dattente . . . . . . . . . . . . . . . . . . .

23

2.2.1

Classification des syst`emes dattente . . . . . . . . . . . . . . .

24

2.2.2

Formules de Little . . . . . . . . . . . . . . . . . . . . . . . . .

24

2.2.3

Trafic offert . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

25

Le syst`eme M/M/1/ . . . . . . . . . . . . . . . . . . . . . . . . . . .

25

2.3.1

26

Distribution stationnaire . . . . . . . . . . . . . . . . . . . . . .
2

2.4
2.5

2.6

2.3.2

Caracteristiques de la file M/M/1/ . . . . . . . . . . . . . . .

28

2.3.3

Introduction dun facteur dimpatience . . . . . . . . . . . . . .

28

Le syst`eme M/M/ . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29

2.4.1

Distribution stationnaire . . . . . . . . . . . . . . . . . . . . . .

29

Le syst`eme M/M/s/s . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29

2.5.1

Distribution stationnaire . . . . . . . . . . . . . . . . . . . . . .

30

2.5.2

Premi`ere formule de Erlang (B) . . . . . . . . . . . . . . . . . .

30

2.5.3

Nombre moyen de clients dans le syst`eme . . . . . . . . . . . . .

31

Le syst`eme M/M/s/ . . . . . . . . . . . . . . . . . . . . . . . . . . .

31

2.6.1

Distribution stationnaire . . . . . . . . . . . . . . . . . . . . . .

31

2.6.2

Deuxi`eme formule de Erlang (C)

32

. . . . . . . . . . . . . . . . .

3 Suret
e de fonctionnement

35

A Variables al
eatoires

38

A.1 Brefs rappels sur les espaces probabilises . . . . . . . . . . . . . . . . .

38

A.1.1 Probabilites conditionnelles . . . . . . . . . . . . . . . . . . . .

39

A.2 Variables aleatoires discr`etes . . . . . . . . . . . . . . . . . . . . . . . .

40

A.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

40

A.2.2 Somme et produit de deux variables aleatoires . . . . . . . . . .

40

A.2.3 Moyenne, variance et covariance . . . . . . . . . . . . . . . . . .

40

A.2.4 Fonction generatrice dune variable aleatoire . . . . . . . . . . .

41

A.2.5 Lois discr`etes usuelles . . . . . . . . . . . . . . . . . . . . . . . .

43

A.3 Variables aleatoires continues . . . . . . . . . . . . . . . . . . . . . . .

45

A.3.1 Definitions de base . . . . . . . . . . . . . . . . . . . . . . . . .

45

A.3.2 Changement de variable . . . . . . . . . . . . . . . . . . . . . .

46

A.3.3 La transformee de Laplace . . . . . . . . . . . . . . . . . . . . .

46

A.3.4 Lois continues usuelles . . . . . . . . . . . . . . . . . . . . . . .

49

Introduction
Les deux premiers chaptres de ce cours dintroduction `
a la mod`elisation des reseaux
sont dedies `a letude du rendement des architectures clientsserveurs. On etudie,
en particulier, les lois de probabilite qui gouvernent larrivee des clients, le temps de
service, le nombre de clients en attente dans le syst`eme, le nombre de clients servis
etc. Une application classique est le dimensionnement des composants dun reseau de
communication : les decisions sont prises sur la base de la qualite de service obtenue
(temps moyen de service dun client, nombre moyen de clients en attente etc) en fonction
de la puissance des materiels utilises. Cette etude de rentabilite dun inverstissement est
menee, soit par le calcul, soit par la simulation mais dans tous les cas, il est illusoire de
comprendre les resultats dun logiciel sans un minimum de comprehension des concepts
theoriques `a mettre en oeuvre.
La formule B (respectivement C) de Erlang est particuli`erement utile en telephonie
car elle permet de calculer le pourcentage de clients perdus (respectivement qui doivent
attendre) en fonction des resources materielles disponibles et des lois de probabilites
gouvernant les processus darrivee et de service des clients.
Pour en comprendre la signification, on introduit dans le premier chapitre, le formalisme des chanes de Markov, en insistant particuli`erement sur le calcul matriciel
necessaire pour obtenir sur ordinateur les caracteristiques du regime stationnaire. Le
point cle de ce chapitre est letude du processus de naissance et de mort ainsi nomme
parce quil permet danalyser levolution dune population 1 .
Dans le deuxi`eme chapitre, on etudie les syst`emes dattente pour lesquels lentree des
clients est un processus de Poisson et le temps de service suit une loi exponentielle. On
montre que le nombre des clients qui demandent un service suit naturellement la loi
de Poisson. Par contre, le choix dun temps de service distribue selon la loi exponentielle
tient en grande partie `a la simplicite que ce choix introduit dans les formules obtenues.
Il est grandement conseille aux etudiants de programmer sur ordinateur les principales
formules rencontrees.
Je nai pas encore redige le chapitre portant sur la s
urete de fonctionnement des
syst`emes complexes. Cette s
urete de fonctionnement dun syst`eme est principalement
caracterisee par
1. sa disponibilite `a linstant t, i.e. la probabilite que ce syst`eme fonctionne correc1

Cest bien connu, les gens naissent et meurent, le cote aleatoire de cet aspect des choses nayant
toujours pas disparu malgre dintenses activites de recherche dans le domaine.

tement `a linstant t.
2. sa fiabilite i.e. la loi de probabilite qui gouverne la duree de bon fonctionnement
du syst`eme. Un syst`eme est dautant plus fiable que sa duree moyenne de bon
fonctionnement est grande.
3. sa maintenabilite i.e. la loi de probabilite qui gouverne la duree de la remise en
etat du syst`eme en cas de panne. Un syst`eme est dautant plus maintenable que
cette duree moyenne de remise en etat est faible.
Un syst`eme complexe est vu comme un assemblage de composants elementaires. Il est
remarquable que la theorie des chanes de Markov permette de mettre en place le calcul
des indicateurs de s
urete de fonctionnement (disponibilite, fiabilite, maintenabilite) dun
syst`eme complexe en fonction des indicateurs de securite caracterisant chacun des composants elementaires utilises. Ce calcul, qui peut etre programme, depend evidemment
de lagencement de ces divers composants.
Jai mis en annexe un certain nombre de resultats classiques sur les variables aleatoires,
la transformee en z, la transformee de Laplace etc. Ces outils theoriques qui sont sont
au coeur des sciences de lingenieur sont utilises dans des domaines tr`es varies : traitement du signal, automatique, analyse et compression dimage. Ils ne font pas partie
du programme du module MSC. On pourra simplement sy reporter en cas de besoin.

Chapitre 1
Initiation aux chanes de Markov
1.1

Chane de Markov en temps discret

1.1.1

D
efinitions de base

1.1.1.1

Vecteur et matrice stochastique

Un vecteur (ligne) forme de nombres reels = (0 , 1 , . . . , n ) est appele stochastique


si et seulement si
toutes ses composantes sont positives ou nulles i.e. i 0 pour 0 i n.
la somme de ses composantes est egale `a un i.e. 0 + 1 + + n = 1.
Une matrice carree P = (Pij )0i,jn est appelee stochastique si chacune de ses lignes
est un vecteur stochastique.
Exemple 1.1

1/2

P = 1/3
0

1/2
1/3
1/2

0
1/3
1/2

(1.1)

Proposition 1.1 Le produit dun vecteur (ligne) stochastique par une matrice stochastique est un vecteur (ligne) stochastique. Le produit de deux matrices stochastiques est
une matrice stochastique.
Exercice 1.1 Verifier sur un exemple puis faire la preuve.
1.1.1.2

D
efinition dun processus al
eatoire

Informellement, un processus aleatoire est un syst`eme dynamique dont letat evolue


au cours du temps de mani`ere aleatoire. Dans la suite, letat de ce syst`eme est un
nombre entier compris entre 0 et n. Le temps t est suppose discret, ce qui signifie que
t est un entier positif ou nul.
Soit X(t) letat du syst`eme `a linstant t. Il faut considerer X(t) comme une variable
6

aleatoire `a valeurs dans lensemble des entiers. On note i (t) la probabilite pour que le
syst`eme considere soit dans letat i `a linstant t, autrement dit i (t) = Prob {X(t) = i}.
A tout instant t, le vecteur
(t) = (0 (t), 1 (t), . . . , n (t))
est donc un vecteur stochastique. Un processus {X(t) | t 0} est une famille de
variables aleatoires indicees par le temps t N. En pratique, un processus est defini
par lapplication t (t).
1.1.1.3

D
efinition dune chane de Markov homog`
ene dans le temps

On supposera que le syst`eme transite de letat i `a letat j avec une probabilite Pij
qui ne depend que des etats i et j. Un tel syst`eme est dit sans memoire ou encore
markovien, ce qui signifie que la probabilite Pij ne depend pas des etats anterieurs `a i
par lesquels le syst`eme est passe au cours de son histoire. Ainsi le futur etat du syst`eme
etudie depend uniquement de son etat present et non des ses etats passes.
Ces nombres Pij sont ranges dans la matrice P = (Pij )0i,jn . Cette matrice est
stochastique car le vecteur (stochastique) en ligne i contient les probabilites de toutes
les transitions possibles en partant de letat i et par suite leur somme est egale `a un.
La suite des vecteurs stochastiques (t) pour t = 0, 1, 2, verifie la formule de
recurrence matricielle :

P0,0 P0,1 P0,n


P1,0 P1,1 P1,n
0 (t+1), 1 (t+1), . . . , n (t+1) = 0 (t), 1 (t), . . . , n (t)
..
..
...
.
.
Pn,0

Pn,1

Pn,n

que lon ecrit sous forme plus compacte :

(t + 1) = (t) P

(t N)

(1.2)

D
efinition 1.1 (chane de Markov) Une chane de Markov homog`ene dans le temps
est la donnee dune suite de vecteurs stochastiques {(t)}tN et dune matrice stochastique P telle que pour tout t N, (t + 1) = (t) P .
La chane est dite homog`ene dans le temps parce que la matrice P ne depend pas du
temps t.
Exemple 1.2 (Deux machines non r
eparables) Soit un dispositif comprenant deux
elements fonctionnant independamment lun de lautre. Chaque element a une fiabilite
egale a` p au cours dune journee, ce qui signifie que la probabilite de tomber en panne
pendant cette periode est 1 p. Il ny a pas de possibilite de reparation. Au depart, les
deux elements du dispositif fonctionnent correctement.
Notre processus sera dans letat 0, 1 ou 2 selon quil y a 0, 1 ou 2 elements en panne
en debut de journee. Les diverses transitions (et leurs probabilites) sont representees
par le graphe de la figure 1.1.
7

(1 p)2

p2

2p(1 p)

1p

Fig. 1.1 Graphe de transition pour lexemple 1.2


A ce graphe est associee

P0,0
P = P1,0
P2,0

la matrice de transition

2
p 2p(1 p) (1 p)2
P0,1 P0,2
p
1p
P1,1 P1,2 = 0
0
0
1
P2,1 P2,2

(1.3)

Exemple 1.3 (Deux machines r


eparables) On modifie les hypoth`eses de lexemple
1.2 comme suit. Dans le cas ou une machine tombe en panne pendant la journee, elle
est reparee dans la nuit et se retrouve donc en etat de marche le lendemain. On ne peut
pas reparer plus dune machine dans la nuit.
Exercice 1.2 En remarquant quil y a 0 ou 1 machine en panne au debut de la journee (etat
du syst`eme), tracer le graphe de transition et montrer que la matrice de transition vaut
P =

p(2 p) (1 p)2
p
1p

1.1.2

Evolution dans le temps du vecteur stochastique

1.1.2.1

equations d
etat

(1.4)

La formule de recurrence (t + 1) = (t) P appliquee aux instants t = 0, 1, 2, ,


donne :
(1) = (0) P
(2) = (1) P = (0) P 2
(3) = (2) P = (0) P 3
..
.
A tout instant t (entier), le vecteur stochastique est donc
(t) = (0) P t

(1.5)

1.1.2.2

Calcul de la puissance dune matrice

Le calcul de la puissance dune matrice peut se faire de mani`ere iterative par la


formule P t = P P t1 pour t > 0. Lorsque la valeur de t est grande, il est plus rapide
t/2
lorsque t est un entier pair. A chaque passage dans
dutiliser la relation P t = P 2
la boucle de calcul, la valeur de lexposant t est divisee par deux. Lorsque t a une valeur
impaire, on se ram`ene au cas pair en decrementant t.
Une deuxi`eme methode est basee sur le calcul des valeurs propres de P . Lorsque P
est une matrice diagonale
D = diag(0 , 1 , 2 , . . . , n ),
lelevation `a la puissance k est facile. La matrice Dk est encore diagonale et lon a pour
tout k N :
Dk = diag(k0 , k1 , k2 , . . . , kn ).
Si ce nest pas le cas, il existe en general une matrice invertible Q (dite matrice de
passage) telle que P = Q D Q1 , o`
u D est une matrice diagonale. On en deduit que
P k = Q Dk Q1 ,
ce qui nous ram`ene au calcul prec`edent. Les nombres complexes 0 , 1 , 2 , . . . , n sont
appelees les valeurs propres de la matrice P .
1.1.2.3

Utilisation de la transform
ee en z

Nous allons appliquer la transformee en z definie en section A.2.4.1 `a chaque composante du vecteur stochastique
def

(t) = (0 (t), 1 (t), , n (t)).


Pour i fixe, la probabilite i (t) est vue comme une suite de nombres indicee par lentier
t dont la transformee en z est notee
bi (z). On pose
def

b(z) = (b
1 (z),
b2 (z), . . . ,
bn (z)).

Lequation detat (t + 1) = (t) P devient

()(t) = (t) P.
En calculant la transformee en z de chacun des deux membres, comptetenu du shift
en partie gauche, on obtient

ce qui donne finalement

1
(b
(z) (0)) =
b(z) P,
z

b(z) = (0) + z
b(z) P,

b(z) (Id zP ) = (0),

b(z) = (0) (Id zP )1 .


9

(1.6)

1.1.3

Distribution limite

On constate souvent que la distribution (t) converge vers une distribution limite
notee () lorsque t tend vers linfini. La recherche des conditions de convergence
constitue une chaptre important de la theorie des chanes de Markov qui depasse de loin
le but de cette modeste introduction. Citons cependant, sans en faire la demonstration,
une condition suffisante pour que distribution limite existe et ne depende pas de la
distribution initiale (0). Il suffit quau moins une puissance de la matrice de transition
P nait que des composantes strictement positives, ce qui signifie que le processus, etudie
pendant un temps suffisamment long, peut transiter, avec une probabilite strictement
positive, entre deux etats quelconques. Plus precisement, on a le theor`eme suivant.
Th
eor`
eme 1.1 Si une certaine puissance de la matrice de transition P na que des
composantes strictement positives, alors
1. il existe une distribution limite () dont toutes les composantes sont strictement
positives et telle que (t) () lorsque t qui est independante du vecteur
stochastique initial (0).
2. la suite des matrices P t lorsque t converge vers la matrice P dont toutes les
lignes sont egales au vecteur (). De plus, la distribution () est stationnaire
i.e. () = () P .
Preuve admise.

Exercice 1.3 En calculant P 2 , demontrer que la matrice P definie par lequation (1.1)
verifie les conditions du theor`eme 1.1. A laide dun ordinateur, calculer la distribution limite
.

Exercice 1.4 On consid`ere la matrice P definie par lequation (1.3) qui est triangulaire
superieure. En remarquant que toutes les puissances de P sont triangulaires superieures,
demontrer que la matrice P ne verifie pas les conditions du theor`eme 1.1. Demontrer que la
distribution limite existe neanmoins. Interpreter les resultats obtenus.

Exercice 1.5 On consid`ere la matrice P definie par lequation (1.4). Cette matrice verifie
telle les conditions du theor`eme 1.1 ? A laide dun ordinateur, calculer la distribution limite
pour quelques valeurs de p convenablement choisies. Interpreter les resultats obtenus.

Exercice 1.6 Soit P =

lorsque t nexiste pas.

1.1.4

0 1
. Montrer que pour (0) 6= (1/2, 1/2), la limite de (t)
1 0

Distribution stationnaire

Une distribution (vecteur stochastique) = (0 , 1 , . . . , n ) est dite stationnaire par


rapport `a la matrice stochastique P si et seulement si elle est constante dans le temps
i.e.
= P
(1.7)
10

Cette condition secrit de mani`ere equivalente (P Id) = 0. Elle traduit le fait que
si la chane de Markov est initilisee avec la distribution (0) = , alors le vecteur
stochastique (t) est constant pour t = 0, 1, 2, . . ..
Exemple 1.4 Soit la matrice stochastique

1/2 0 1/2
0
0
P = 1
1/4 1/4 1/2

(1.8)

Le calcul se fait en resolvant le syst`eme lineaire (1.7). Les equations lineaires de ce


syst`eme ne sont pas lineairement independantes car en les additionnant membre `a
membre, on obtient lidentite triviale 1 = 1. Il faut donc compl`eter ces equations par la
condition 0 + 1 + + n = 1, ce qui donne sur lexemple (1.8) :
1
0 + 1 + 14 2

4 2
1
1
+ 2 2

2 0

0 + 1 + 2

=
=
=
=

0
1
2
1

(1.9)

Les calculs donnent = (4/9, 1/9, 4/9).

Exercice 1.7 Calculer la distribution stationnaire pour la matrice P definie par lequation
(1.1).

1.1.4.1

Equations de la balance

On peut generer les equations verifiees par la distribution stationnaire sans passer par
le formalisme matriciel mais en partant de la description de la chaine par un automate.
On peut imaginer que les noeuds du graphe sont des chateaux deau et que dans les
canalisations (fl`eches) circule de leau dont le debit est proportionnel au niveau deau du
chateau en amont et de la capacite de la canalisation (probabilite inscrite sur la fl`eche).
Il est alors evident que le niveau deau dun chateau est stationnaire si et seulement
si le debit entrant est egal au debit sortant. Ces equations sappellent equations de la
balance et sont equivalentes aux equation (1.7).
Exercice 1.8 Verifier que la distribution stationnaire pour la matrice P definie par lequation
(1.4) est
=

p
(1 p)2
,
2
1 p + p 1 p + p2

(1.10)

Exercice 1.9 Verifier que lunique distribution stationnaire pour la matrice P definie par
lequation (1.3) lorsque 0 < p < 1 est
= (0, 0, 1)

11

(1.11)

1.1.4.2

Existence et unicit
e des distributions stationnaires

Th
eor`
eme 1.2 Une chane de Markov finie admet au moins une distribution stationnaire, ce qui nest plus necessairement vrai si lespace des etats est infini.
Preuve admise.

Th
eor`
eme 1.3 Si la distribution limite () = limt (t) dune chane de Markov
existe et ne depend pas du vecteur stochastique initial, alors () est lunique distribution stationnaire de cette chane.
On peut montrer que dans ce cas, le syst`eme est ergodique, ce qui signifie que le
pourcentage de temps passe par le processus etudie dans un etat donne (sur un longue
periode de temps) est egal `a la probabilite stationnaire de cet etat.

1.1.5

Temps de s
ejour dans un
etat
p
1p

Fig. 1.2 Loi geometrique


Nous allons traiter le cas le plus simple, `a savoir la chane `a deux etats comme dans
la figure 1.2. Soit T le temps aleatoire pendant lequel le processus sejourne dans letat
0. Montrons que ce temps T est une v.a. distribuee selon la loi geometrique (voir A.16).
On a
p1 := Prob {T = 1} =
p2 := Prob {T = 2} =
p3 := Prob {T = 3} =
..
.
pk := Prob {T = k} =

p
(1 p)p
(1 p)2 p
(1 p)k1 p pour tout k 1.

La moyenne de la v.a. T est la moyenne des valeurs k ponderee par les probabilites pk
soit

X
def
E(T ) =
k(1 p)k1 p
k=1

= p

k=1

k(1 p)k1 .

En posant z = 1 p, la somme `a evaluer est de la forme

X
k=1

kz

k1

dX k
=
z
dz k=0

12

d 1
dz 1 z
1
=
(1 z)2

On trouve finalement, en tenant compte que z = 1 p :


E(T ) =

1
p

(1.12)

Cette formule est tres intuitive. Une personne qui a une chance sur quatre de reussir
lexamen du permis de conduire devra en moyenne le passer quatre fois.
Dans le cas dune chaine de Markov quelconque, le calcul du temps de sejour dans
letat i est `a peine plus complique. Il suffit de regrouper
P toutes les fl`eches sortantes
de letat i en une seule affectee de la probabilite p = j6=i Pi,j = 1 Pi,i . On a donc
demontre le
Th
eor`
eme 1.4 Soit p la la probabilite de sortir dun certain etat pendant une unite de
temps. Pour le processus markovien considere, le temps de sejour T dans cet etat est
distribue selon la loi geometrique de moyenne 1/p :
Prob {T = k} = (1 p)k1 p,

(k 1).

Exercice 1.10 Une route comprend 4 pistes. Chacune dentre elles peut etre traversee en
une seconde. La probabilite pour quune automobile arrive pendant une seconde determinee
est 0,8. Quelle est pour un pieton la probabilite de traverser en 4 secondes, 5 secondes, 6
secondes, etc . . .
1. Faire le graphe du syst`eme.
2. Donner la matrice de transition.
3. Calculer le temps moyen pour traverser les 4 pistes.

Exercice 1.11 On etudie le fonctionnement dune imprimante. Celle-ci peut etre dans 3
etats distincts :
Etat 1 attente dun caract`ere `
a imprimer,
Etat 2 impression dun caract`ere,
Etat 3 interruption apr`es avoir recu un caract`ere de controle.
Lorsque limprimante est en attente, elle recoit un caract`ere `a imprimer avec la probabilite
0, 80.
Lorsquelle est en impression elle recoit :
un caract`ere normal avec la probabilite 0, 95 (caract`ere courant du fichier `a imprimer) ;
un caract`ere de fin de fichier avec la probabilite 0, 04 (limprimante retourne dans letat
dattente) ;
un caract`ere dinterruption avec la probabilite 0, 01 (limprimante passe alors dans letat
3).
Lorsque limprimante est dans letat 3, elle retourne dans letat dattente avec la probabilite
0, 3 sinon elle reste dans letat 3.
1. Montrez que ce syst`eme se modelise par un chane de Markov `a 3 etats.

13

2. Dessinez le graphe associe `


a cette chane et donnez sa matrice de transition.
3. Quel est le temps moyen dune interruption ?
4. Ecrivez les equations dequilibre et montrez que cette chane est ergodique. Calculez les
probabilites stationnaires associees.
5. En regime stationnaire, quel est le taux dutilisation de limprimante ?

Exercice 1.12 Un installateur dascenseurs dispose dune seule equipe dont tous les membres
travaillent sur le meme chantier. Les demandes dinstallations des clients qui lui parviennent
peuvent etre reparties en 2 classes :
travaux de moyenne importance, durant une semaine (designes par A).
travaux plus importants durant 2 semaines (designes par B).
Linstallateur ne recoit pas de demandes de travaux qui nentrent pas dans cette classification.
Il ny a pas de liste dattente. Les demandes dinstallation parviennent `a lentrepreneur au
debut de chaque semaine. Une observation statistique a montre que les probabilites pour
recevoir un lundi donne, au moins une demande de travaux du type A, ou au moins une
demande de travaux du type B valent respectivement p = 0, 5 et q = 0, 6. Ces probabilites
sont independantes . Certaines semaines, des travaux sont refuses, lequipe etant dej`
a occupee
sur une installation de type B : dans ce cas le client sadresse `a un concurrent. Dautres
semaines lequipe reste inactive faute de demande dinstallation. Lorsque linstallateur recoit
simultanement 2 demandes : une du type A et une du type B, il donne suite `a celle du type B.
Linstallation du type A procure un benefice de 5000F, celle du type B 12000F, et linactivite
de lequipe pendant une semaine engendre une perte de 2500F.
1. On desire representer par une chane de Markov levolution de lactivite de lequipe
dune semaine sur lautre. Quels sont les 4 etats ?
2. Dessinez le graphe associe `
a cette chane et donnez sa matrice de transition.
3. En supposant que lentreprise fonctionne depuis plusieurs semaines, trouver la probabilite de chacun des etats ; justifier la validite de ce calcul.
4. En deduire lesperance mathematique du gain relatif a` une semaine de fonctionnement.

Exercice 1.13 Chaque annee `a Noel, les mangeurs de chocolat adoptent un type de chocolat, pour une duree de un an renouvelable. Un sondage effectue sur un echantillon representatif
de cette population a donne les chiffres suivants : parmi les mangeurs de chocolat noir, 65%
sont fid`eles `a leur choix, tandis que 35% pref`erent essayer le chocolat au lait. De meme, parmi
les mangeurs de chocolat au lait, 70% restent fid`eles et 30% changent pour le noir. Initialement, il y avait 50% de mangeurs de chocolat noir et 50% de mangeurs de chocolat au lait.
On suppose que le marchand de chocolat dispose de quantites suffisantes.
1. Quelle sera la tendance au bout dun an ?
2. Peuton connatre la tendance au bout de quelques annees, sachant que les resultats
des enquetes ne changent pas ? Si oui, quelles seront les proportions des mangeurs de
chocolat noir et de chocolat au lait ?

14

1.2
1.2.1

Chanes de Markov en temps continu


D
efinitions

Dans cette section, le temps est mesure par un nombre reel positif ou nul. On etudie
les processus aleatoires dont letat est un entier positif on nul (par exemple, le nombre
de clients dans une file dattente). Par commodite, on supposera que le nombre detats
est fini. On designe par i (t), la probabilite que le processus etudie soit dans letat i `a
linstant t et lon pose
(t) = (0 (t), 1 (t), . . . , n (t))
qui est un vecteur stochastique `a tout instant t.
1.2.1.1

G
en
erateur stochastique infinit
esimal

Une matrice reelle carree A est appelee generateur stochastique infinitesimal si


1. la somme des elements dune ligne quelconque est nulle.
2. les elements sur la diagonale sont negatifs ou nuls et les autres sont positifs ou
nuls.
Exemple 1.5

2 2
0
A = 1 3 2
0
1 1

(1.13)

Exercice 1.14 La somme de deux generateurs stochastiques infinitesimaux est-telle un


generateur stochastique infinitesimal ?

Exercice 1.15 Soit A un generateur stochastique infinitesimal. La matrice A pour R

est-telle un generateur stochastique infinitesimal ?

1.2.1.2

D
efinition dune chane de Markov

La fonction t (t) est une chane de Markov si et seulement si le vecteur stochastique (t) verifie, `a tout instant t, une equation differentielle ordinaire de la forme
d
(t) = (t) A(t)
dt

(1.14)

o`
u A(t) est un generateur stochastique infinitesimal. Dans la suite, on suposera que
cette matrice A(t) est independante du temps ; on dira alors que la chane de Markov
est homog`ene dans le temps.
Cettte definition se justifie de la mani`ere suivante. Considerons un syst`eme dynamique
(processus) aleatoire dont levolution est gouvernee par une chaine de Markov en temps
discret, le pas de temps entre deux tops dhorloge etant suppose infiniement petit
(positif). Un tel nombre reel infiniement petit positif est habituellement note en
15

mathematique. La matrice de transition notee P () est proche de lidentite car on


suppose que le syst`eme evolue tres peu pendant ce temps . On suppose donc que
P () = Id + A + o(),

0+ .

(1.15)

Dans le calcul qui va suivre, nous allons appliquer une technique fondamentale en
calcul differentiel : on tue les termes en 2 lorsquils sont additionnes avec des termes
en . Remarquons dabord que la matrice P () est stochastique si et seulement si la
matrice A est un generateur stochastique infinitesimal.
Lequation detat (1.2) devient alors
(t + ) = (t) P ()
= (t) (Id + A)
= (t) + (t)A
(t + ) (t)
= (t) A

Lorsque 0+ , le taux daccroissement dans le membre gauche de la derni`ere equation


tend vers la derivee (t)

et lon retrouve lequation (1.14).

1.2.2

R
esolution de l
equation d
etat

1.2.2.1

R
esolution par le calcul dune exponentielle

Proposition 1.2 Lequation differentielle ordinaire (A est une matrice constante carree
indicee de 0 `
a n)
(t)

= (t) A
(1.16)
admet pour solution le vecteur (t) = (0) exp(tA) avec
1 2 2 1 3 3
t A + t A +
(1.17)
2!
3!
De plus, si la matrice A est un generateur stochastique infinitesimal, alors la matrice
exp(tA) est, `
a tout instant t, une matrice stochastique.
etA = 1 + tA +

Preuve En derivant terme `a terme le developpement de Taylor (1.17), on montre


que dtd exp(tA) = exp(tA) A. On en deduit que
(t)

= (0)

d
exp(tA) = (0) exp(tA)A = (t)A.
dt
def

Donc le vecteur ligne (t) verifie lequation (1.16). Montrons que la matrice P (t) =
exp(tA) est stochastique. La matrice P (t) verifie lequation differentielle P (t) = P (t)A
avec la condition initiale P (0) = Id. Soit u le vecteur colonne dont les n+1 composantes
sont egales `a 1. Chaque ligne de la matrice A a une somme nulle donc Au = 0. On en
deduit que P (t) u = P (t)A u = 0. Le vecteur P (t) u dont la derivee est nulle est donc
constant. Cette constante evaluee `a linstant t = 0 vaut P (0) u = Id u = u. Donc
P (t)u = u quelque soit t et par suite, la somme des elements dune ligne quelconque de
P (t) est egale `a un.

16

1.2.2.2

Utilisation des valeurs propres

Le calcul de lexponentielle exp(tA) est facile lorsque A est une matrice diagonale
D = diag(0 , 1 , . . . , n ). On obtient

tD
0 t
1 t
n t
.
(1.18)
e = diag e , e , . . . , e

En general, la matrice A est diagonalisable sous la forme A = Q D Q1 , la matrice


D etant diagonale. Son exponentielle est alors
etA = Q etD Q1 .

(1.19)

On en deduit que chaque composante de la matrice exp(tA) est une combinaison lineaire
des fonctions exponentielles exp(i t) i.e.

tA

i,j

n
X

ai,j,k ek t .

(1.20)

k=0

o`
u les ai,j,k sont des constantes complexes.
Lorsque plusieurs valeurs propres sont egales (le polynome caracteristique de A admet
au moins une racine double), il se peut que la matrice A ne soit pas diagonalisable. La
decomposition de la matrice A en blocs de Jordan permet de montrer que la matrices
exp(tA) se decompose alors en une combinaison lineaire de polyn
omes exponentiels, ce
qui signifie que dans la formule (1.20), les constantes ai,j,k sont remplacees par des
polynomes en t.
1.2.2.3

Discr
etisation dune chane de Markov en temps continu
def

La matrice stochastique P () = exp(A) calculee pour un temps infiniement petit


admet le developpement limite
P () = Id + A + o(),

0+ .

(1.21)

De la formule (t) = (0) exp(tA), on deduit


(t + 1) = (t) exp(A).

(1.22)

Ainsi la chane de Markov en temps discret dont la matrice de transition est egale `a
P = exp(A) a le meme comportement, pour des valeurs enti`eres du temps, que la chane
de Markov en temps continu dont le generateur infinitesimal est la matrice A.
1.2.2.4

Utilisation de la transform
ee de Laplace

La transformee de Laplace (voir section A.3.3) permet de resoudre les equations detat
en temps continu (1.14)
(t)

= (t) A
(1.23)
17

de la meme mani`ere que la transformee en z permet de resoudre les equations detat


en temps discret (1.2). La transformee de Laplace
b(s) du vecteur stochastique (t) est
calculee composante par composante i.e.
def

b(s) = (b
0 (s),
b1 (s), . . . ,
bn (s)).

Appliquee aux deux membres de lequation detat (1.14), la transformee de Laplace


donne :
s
b(s) (0) =
b(s) A.

On en deduit
b(s)(sId A) = (0) et par suite

b(s) = (0) (s Id A)1 .

(1.24)

On demontre que vecteur


b(s) est un vecteur de fractions rationnelles en s que lon
peut decomposer en elements simples. Des tables comme A.3.3.1 permettent deffectuer
la transformee de Laplace inverse afin de calculer lexpression symbolique du vecteur
stochastique (t). Finalement, on a remplace le calcul de lexponentielle exp(tA) par le
calcul de linverse de la matrice (s Id A), ce qui est plus simple, surtout si le calcul
est effectue `a la main.

1.2.2.5

Calcul dune distribution stationnaire

On part de la formule (t)

= (t)A. Le vecteur stochastique (t) est invariant dans le


temps lorsque (t)

= 0, cest `a dire lorsque (t)A = 0. En conclusion, une distribution


stationnaire sobtient en resolvant le syst`eme lineaire
A = 0

1.3
1.3.1

(1.25)

Processus de naissance et de mort


D
efinition

On consid`ere une file dattente comportant entre 0 et n personnes. Le nombre de


personnes presentes dans la file `a linstant t est letat du processus. On se donne des
nombres positifs quelconques (0 , 1 , . . . n1 ) et (1 , 2 , . . . n ). On suppose que pendant un intervalle de temps infiniment petit , sachant quil y a k personnes presentes
dans la file :
1. la probabilite quune personne arrive dans la file est k + o(),
2. la probabilite quune personne sorte de la file est k + o(),
3. les autres eventualites ont une probabilite en o().
18

Ces hypoth`eses reviennent `a poser que la matrice de transition P (), calculee pour
lintervalle de temps , est de la forme (pour n = 4)

1 0
0
0
0
0
1
1 (1 + 1 )
1
0
0

2
1 (2 + 2 )
2
0
P () = 0
+ o()
0
0
3
1 (3 + 3 )
3
0
0
0
4
1 4

1.3.2

G
en
erateur infinit
esimal

Le generateur stochastique infinitesimal A verifie, par definition, lequation (1.21)


P () = Id + A + o(),

0+

Par exemple, pour n = 4, on trouve

0
0
0
0
0
1 (1 + 1 )
1
0
0

2
(2 + 2 )
2
0
A=

0
0
0
3
(3 + 3 ) 3
0
0
0
4
4

(1.26)

Le processus est represente par le diagramme de la figure 1.3.


0
0

1
1

n1
2

n-1

n
n

Fig. 1.3 Processus de naissance et de mort

1.3.3

Distribution stationnaire

Calculons la distribution stationnaire en resolvant


le syst`eme (n = 4)

0 0 + 1 1

0 0 (1 + 1 )1 + 2 2
1 1 (2 + 2 )2 + 3 3

2 2 (3 + 3 )3 + 4 4

3 3 4 4
19

lequation A = 0. On obtient
=
=
=
=
=

0
0
0
0
0

(1.27)

Les calculs donnent (n quelconque)

1
2 =

2
2
3 =
2

n1

n =
n1
n

(1.28)

et par suite

0 1 k1
0 ,
(k = 1, 2, . . . , n)
(1.29)
1 2 k
Compte-tenu de la relation 0 + 1 + + n = 1, la valeur de 0 est donnee par la
formule
1
0 0 1
0 1 n1
=1+
+
+ +
(1.30)
0
1 1 2
1 2 n
k =

On obtient finalement la distribution stationnaire = (0 , 1 , . . . , n )


0 1 k1
1 2 k
k =
n
X
0 1 i1
1+
1 2 i
i=1

(k = 1, 2, . . . , n)

(1.31)

Exercice 1.16 Ecrire, dans le langage qui vous convient le mieux, un programme permettant de calculer le vecteur (0 , . . . , n ) en fonction des vecteurs (0 , . . . , n1 ) et (1 , . . . , n ).

Exercice 1.17 On consid`ere un routeur qui recoit en moyenne paquets par unite de
temps selon un processus de Poisson. On suppose que le temps de traitement dun paquet par
le routeur est distribue selon une loi exponentielle de moyenne 1/. On ne prevoit pas de file
dattente et lorsquun paquet arrive pendant que le routeur est occupe, il est perdu.
Dans cet exercice, tous les calculs seront effectues en fonction de et de .
1. Modeliser par une chaine de Markov en temps continu en precisant la signification de
chaque etat de la chaine.
2. Calculer la distribution stationnaire.
3. Calculer le pourcentage de paquets perdus.
On decide de prevoir une file dattente pouvant contenir au plus un paquet (0 ou 1).
1. Modeliser par une chaine de Markov en temps continu en precisant la signification de
chaque etat de la chaine.
2. Calculer la distribution stationnaire.
3. Calculer le pourcentage de paquets perdus.
4. Calculer le pourcentage des paquets traites qui ont du attendre.
5. Calculer le nombre moyen de paquets traites pendant une unite de temps.

20

Chapitre 2
Files dattente
2.1
2.1.1

Processus darriv
ee des clients dans une file
Le processus de Poisson

Le processus de Poisson occupe une place privilegiee pour decrire


larrivee des clients vers un guichet
loccurrence daccidents dans une entreprise
lapparition de pannes dans un parc de machines
larrivee de taches dans lunite centrale dun ordinateur etc.
Il y a principalement deux variables aleatoires `a considerer :
1. Le nombre de clients N (t) arrivant dans la file pendant le temps t ; cette variable
est un entier positif ou nul.
2. Le temps T qui secoule entre deux arrivees consecutives ; cette variable est un
nombre reel positif ou nul.
Ces deux variables aleatoires sont liees car si le nombre de clients N (t) qui arrivent
dans la file est eleve, cest que le temps entre deux arrivees successives est faible. De
mani`ere plus precise,
Th
eor`
eme 2.1 Les trois conditions suivantes sont equivalentes :
1. La probabilite quun client arrive dans la file pendant un intervalle de temps infiniement petit > 0 vaut + o() avec constant (voir processus de naissance
et de mort 18).
2. Le nombre de clients N (t) arrivant dans la file pendant un intervalle de temps
quelconque t suit une loi de Poisson de moyenne t, autrement dit,
Prob {N (t) = k} = et
21

(t)k
k!

(2.1)

3. Le temps T qui secoule entre deux arrivees consecutives obet a` une loi exponentielle de param`etre (moyenne 1/), autrement dit,
Prob {T > t} = et

(2.2)

Preuve Montrons que la condition 1 implique la condition 2. Lev`enement T t


est equivalent `a lev`enement N (t) 1. La probabilite de voir celui-ci se realiser est
Prob {N (t) 1} = 1 Prob {N (t) = 0}
= 1 et
donc Prob {T > t} = 1 Prob {T t} = et .

Le fait que la condition 2 implique la condition 1 est admis.

2.1.2

Utilisation de la loi de Poisson P()

On dit que la variable aleatoire enti`ere N suit une loi de Poisson de param`etre
lorsque
Prob {N = k} = e

k
k!

(2.3)

Il reste `a justifier pourquoi le nombre de clients entrant dans une file dattente pendant un temps t obet raisonnablement `a une loi de Poisson. Cette loi est appelee loi des
ev`enements rares, en raison du fait quelle sobtient comme la limite dune loi de Bernoulli quand le nombre depreuves tend vers linfini en meme temps que la probabilite
de succ`es dune epreuve tend vers zero.
Soit une population de n personnes susceptibles de rejoindre independamment la file
pendant une unite de temps, chacune avec une probabilite p. Le nombre N de personnes
qui arrivent dans la file suit une loi de Bernoulli B(n, p)

n
pk (1 p)nk
Prob {N = k} =
k

Le theoreme A.1 dit que


P() = lim B(n, /n).
n

Ainsi le choix dune loi de Poisson pour compter le nombre de clients qui arrivent
dans une file dattente pendant un intervalle de temps donne est justifie par le fait que la
population susceptible dalimenter cette file est nombreuse et que les choix individuels
sont pris de mani`ere independante.
Exercice 2.1 Une compagnie dassurance estime que le nombre annuel de ses clients victimes dun incendie est une variable aleatoire qui suit une loi de Poisson. Estce raisonnable ?

22

Fig. 2.1 Graphe de transition

2.1.3

Fig. 2.2 Generateur infinitesimal

La loi exponentielle comme chane de Markov

Prenons lexemple dune machine dont la probabilite de tomber en panne pendant un


intervalle de temps infiniement petit est + o(). La figure 2.1 represente le graphe
de transition entre les instants t et t + . La matrice de transition correspondante est

1
+ o()
(2.4)
P () =
0
1
En posant P () = Id + A + o(), on obtient le generateur infinitesimal correspondant


(2.5)
A=
0 1
Au depart, la machine est en bon etat (etat 0), donc la distribution initiale est (0) =
(1, 0). Lequation differentielle (t)

= (t) A secrit alors

0 (t) = 0 (t)

1 (t) = 0 (t)
(2.6)

0 (0) = 1

1 (0) = 0
dont la solution est

0 (t) = et
1 (t) = 1 et

(2.7)

La probabilite que cette machine soit en bon etat au temps t est donc et . On en
deduit que la duree de vie T de cette machine suit une loi exponentielle de param`etre
.

2.2

G
en
eralit
es sur les syst`
emes dattente

Le mod`ele general dun syst`eme dattente (et de service) peut etre resume comme
suit : des clients arrivent `a un certain endroit et reclament un certain service. Les
instants darrivee et les durees de service sont generalement des quantites aleatoires. Si
un poste de service est libre, le client qui arrive se dirige immediatement vers ce poste
o`
u il est servi, sinon il prend sa place dans la file dattente dans laquelle les clients se
rangent suivant leur ordre darrivee.
Un syst`eme dattente comprend donc un espace de service avec une ou plusieurs
stations de service montees en parall`ele, et un espace dattente dans lequel se forme
une eventuelle file dattente.
23

2.2.1

Classification des syst`


emes dattente

Pour identifier un syst`eme dattente, on a besoin des specifications suivantes.


La nature stochastique du processus des arrivees (flux dentree) qui est defini par
la distribution des intervalles separant deux arrivees consecutives.
La distribution du temps aleatoire de service.
Le nombre s des stations de service qui sont montees en parall`ele.
La capacite N du syst`eme. Si N < , la file dattente ne peut depasser une
longueur de N s unites. Dans ce cas, certains clients qui arrivent vers le syst`eme
nont pas la possibilite dy entrer.
Pour la classification des syst`emes dattente, on recourt `a une notation symbolique
comprenant quatre symboles dans lordre suivant : A/B/s/N ,
o`
u

A
B
s
N

= distribution du temps entre deux arrivees successives,


= distribution des durees de service,
= nombre de stations de service montees en parall`ele,
= capacite du syst`eme (serveurs + file dattente).

Pour specifier les distributions A et B, on adopte la convention suivante :


M
Ek
G
D

distribution qui verifie la propriete de Markov, i.e. processus


de Poisson pour les arrivees, loi exponentielle pour le temps de service,
= distribution dErlang dordre k,
= distribution generale (on ne sait rien sur ses caracteristiques),
= cas deterministe (la variable ne prend quune seule valeur admise).

Exemple La notation M/D/1/4 definit un syst`eme dattente comprenant une station


service et pour lequel la longueur maximale de la file dattente vaut 4 1 = 3. Le
processus darrivee est un processus de Poisson (voir section 2.1.1) et la duree du service
est constante.

Exercice 2.2 Expliciter les notations M/M/1/1, M/G/5/ et M/M//.

2.2.2

Formules de Little

On consid`ere un syst`eme dattente quelconque (G/G/s/N ) et on adopte les conventions de notation suivantes :
L
Lq
T
Tq

=
=
=
=
=

nombre de clients dans le syst`eme (file dattente + service)


nombre de clients dans la file dattente
temps de sejour dun client dans le syst`eme
temps de sejour dun client dans la file dattente
inverse du temps moyen separant deux clients consecutifs
desirant entrer dans le syst`eme
= inverse du temps moyen separant deux clients consecutifs
entrant effectivement dans le syst`eme
= inverse de la duree moyenne de service
24

Lorsque la capacite du syst`eme est illimitee, on a e = et dans tous les cas e .

On consid`ere les moyennes E(L), E(Lq ), E(T ), E(Tq ) calculees pour la distribution
stationnaire (on suppose quelle existe). On a alors, E(T ) = E(Tq ) + 1/ car on suppose
que le temps de service dun client (en moyenne 1/) est independant de son temps
dattente dans la file.
Th
eor`
eme 2.2 (Little) En adoptant les notations prec`edentes, on a :

E(L) = e E(T )
E(Lq ) = e E(Tq )

(2.8)

Preuve (intuitive) Considerons un client qui reste un temps T dans le syst`eme. A


linstant o`
u ce meme client quitte le syst`eme, il a, en moyenne, e T clients derri`ere lui.

Exercice 2.3 Demontrer la formule E(L) = E(Lq ) + e /.

2.2.3

Trafic offert

Le pourcentage de temps pendant lequel une ressource est occupee est appele trafic
offert. Lunite de mesure est le Erlang. Par exemple, une ligne telephonique occupee `a
100% a un trafic de 1 Erlang. Typiquement, une ligne residentielle fixe a un trafic de
70 mE, une ligne industrielle 150 mE et un telephone mobile 25 mE.
Considerons une ligne telephonique avec
T
tk
t
N
a

duree de la periode dobservation


duree du kieme appel
duree moyenne dun appel
nombre dappels pendant la periode dobservation T
trafic en Erlang

Le trafic offert est alors

N
1 X
N t
a=
tk =
T
T
k=1

(2.9)

Exercice 2.4 On suppose que nombre dappels, par unite de temps, suit une loi de Poisson
de param`etre et que la duree dun appel suit la loi exponentielle de param`etre . Montrer
que le trafic offert est egal `
a /.

2.3

Le syst`
eme M/M/1/

Par hypoth`ese :
les clients arrivent selon un processus de Poisson de param`etre > 0,
le temps de service est une loi exponentielle de param`etre > 0,
25

il y a un seul serveur,
la file dattente peut accueillir un nombre quelconque de clients.
Dans la section 2.1.3, on a vu quune loi exponentielle est une chane de Markov
particuli`ere. On en deduit que cette file M/M/1/ est un cas particulier du processus
de naissance et de mort vu en section 1.3. Les k et les k sont independants de k,
autrement dit, on peut poser

k =
(k 0)
(2.10)
k =
(k 1)

2.3.1

Distribution stationnaire

Nous allons demontrer que la distribution stationnaire est un vecteur ayant une infinite de composantes formant une progression geometrique (voir (A.16) 44. Les formules
(1.29) et (1.30) deviennent
k

k =
0
(k = 1, 2, . . .)

k
X

1
1
=
=

k=0
1

et par suite
k =

(k = 0, 1, 2, . . .).

(2.11)

Dans le cas o`
u le rapport / > 1, il arrive en moyenne clients par unite de temps,
alors que pendant ce meme temps, le serveur, `a plein regime, ne peut traiter que
clients. Donc le nombre de clients en attente va, `a coup s
ur, tendre vers linfini. Lorsque
/ = 1, la formule (2.11) montre que tous les k sont nuls, ce qui est impossible ; la
distribution stationnaire nexiste donc pas dans ce cas.
Lorsque / < 1, la formule (2.11) definit un vecteur ayant toutes ses composantes
(en nombre infini) strictement positives. On a demontre le theor`eme
Th
eor`
eme 2.3 Soit un syst`eme M/M/1/ de param`etres > 0 et > 0 tels que
< . Alors le nombre de clients presents dans le syst`eme, en regime stationnaire, suit
une loi geometrique de raison /
k =

(k = 0, 1, 2, . . .).

En particulier, la probabilite que le serveur soit occupe est 1 0 = /.


Dapr`es le theor`eme ergodique (dont la preuve depasse lobjectif de cette modeste
introduction), la probabilite k correspond au pourcentage de temps pendant lequel le
26

syst`eme contient k clients, lorsque le temps pendant lequel on observe le syst`eme tend
vers linfini. De meme, la fraction du temps pendant lequel le serveur est occupe tend
vers 1 0 = /. Ce taux doccupation du serveur est encore appele trafic offert
voir section 2.2.3. Dans la file M/M/1/, il ny a pas de difference entre le trafic offert
et le trafic ecoule car aucune demande service nest rejetee. Le trafic (offert ou ecoule)
(2.9) du serveur est donc
a=

(2.12)

Exercice 2.5 On consid`ere un syst`eme dattente M/M/1/ ; un client arrive en moyenne


toutes les 12 minutes et la duree moyenne de service est 8 minutes. Calculer la probabilite p
pour que deux clients au moins attendent detre servis. Calculer laugmentation relative de p
lorsque le taux dentree augmente de 20%.

Solution Si lon prend lheure comme unite de temps, on obtient = 5, = 7, 5


et par suite / = 2/3. Lorsque deux clients attendent, il y a forcement au moins trois
clients dans le syst`eme. On trouve donc
p = 3 + 4 + 5 + = (2/3)3 = 0, 296.
Lorsque = 6, on a / = 4/5 et p = (4/5)3 = 0, 512, ce qui correspond `a une
augmentation relative de p de 73%.

Exercice 2.6 On consid`ere un syst`eme dattente M/M/1/ ; chaque heure, 20 clients arrivent en moyenne et la probabilite quun client attende est 0, 5.
(a) Calculer le temps de service moyen.
(b) Calculer la probabilite quun client qui arrive, trouve devant lui une file dattente de n
personnes.

Solution
(a) On a 1 0 = / = 0, 5 donc
1
0, 5
0, 5
=
=
h = 1, 5 min.

20
(b) A larrivee du client, il y a n+1 personnes presentes dans le syst`eme. La probabilite
cherchee est donc
n+1 = (1 a)an+1 = 0, 5n+2 .

27

2.3.2

Caract
eristiques de la file M/M/1/

La longueur L (nombre de clients presents dans le syst`eme) a pour moyenne et variance (voir loi geometrique en section (A.16) page 44)

E(L) =

Var(L) =

(2.13)

Une question importante, `a savoir le calcul du temps passe par un client dans le
syst`eme, est resolue par le theor`eme suivant.
Th
eor`
eme 2.4 Soit une file M/M/1/ de param`etres et avec < . En regime
stationnaire, la variable aleatoire T (temps dattente + service) suit une loi exponentielle
de param`etre , autrement dit
Prob {T > t} = e()t .
Le temps moyen passe par un client dans le syst`eme est donc E(T ) =
Preuve admise.

1
.

Exercice 2.7 En utilisant la formule de Little (thm. 2.2), retrouver le temps moyen passe
par un client dans le syst`eme.

Exercice 2.8 Dans une station de taxis, les arrivees de voitures et de clients sont des processus poissonniens de taux respectifs = 1 et = 1, 25 par minute. Un taxi attend quelque
soit le nombre de taxis dans la file (potentiellement illimitee). Par contre, un client arrivant
dans la station nattend pas de taxi si le nombre de clients en attente est dej`
a egal `a trois.
1. Modeliser par une chaine de Markov en temps continu en precisant la signification de
chaque etat de la chaine.
2. Calculer la distribution stationnaire.
3. Quel est le pourcentage de clients qui sont servis.
4. Calculer le nombre moyen de clients qui attendent un taxi.
5. Calculer le nombre moyen de taxis qui attendent un client.
6. Calculer le temps moyen dattente dun client et dun taxi.

2.3.3

Introduction dun facteur dimpatience

On suppose quun client qui arrive dans la file a le choix de quitter le syst`eme
immediatement sans se faire servir. Ce choix est fait en fonction du nombre de clients
presents devant lui dans la file.
On peut, par exemple, supposer que cette probabilite dimpatience vaut k/k + 1
lorsque k clients sont presents dans le syst`eme (0 si le serveur est libre, 1/2 si le serveur
28

est occupe et la file est vide etc.). Tout se passe comme si

k
=
,
(k 0).
k = 1
k+1
k+1
Comptetenu de ces hypoth`eses, les formules (1.29) et (1.30) donnent la distribution
stationnaire (loi de Poisson de param`etre a)
k = ea

ak
avec a = ,
k!

(k 0).

(2.14)

Exercice 2.9 Faire la preuve de la formule (2.14).

2.4

Le syst`
eme M/M/

Par hypoth`ese :
les clients arrivent selon un processus de Poisson de param`etre > 0,
le temps de service est une loi exponentielle de param`etre > 0,
il y a une infinite de serveurs.
Il est evident quaucune file dattente ne se forme puisque chaque client est servi d`es
son arrivee. Ce syst`eme a un interet theorique car il permet une etude approximative
dun syst`eme dattente comportant un grand nombre de serveurs.
Ce syst`eme est modelise par un processus de naissance et de mort (section 1.3) tel
que

k =
(k 0)
(2.15)
k = k
(k 1)

2.4.1

Distribution stationnaire

Th
eor`
eme 2.5 Le nombre de clients presents dans le syst`eme M/M/ en regime
stationnaire suit une loi de Poisson de param`etre /, autrement dit
k = e/

(/)k
k!

(k = 0, 1, 2, . . .)

Preuve On utilise principalement la formule (1.31).

(2.16)

On en deduit que le nombre L de clients en cours de service a pour moyenne et


variance (loi de Poisson)
E(L) = Var(L) = /.
(2.17)

2.5

Le syst`
eme M/M/s/s

Par hypoth`ese :
29

les clients arrivent selon un processus de Poisson de param`etre > 0,


le temps de service est une loi exponentielle de param`etre > 0,
il y a s serveurs montes en parall`ele,
il ny a pas de file dattente.
Ce syst`eme est modelise par un processus de naissance et de mort (section 1.3) tel
que

k =
(0 k s)
(2.18)
k = k
(0 < k s)

2.5.1

Distribution stationnaire
def

Les formules (1.29) et (1.30) donnent (a = /)


k1
0 1

0
1 2
k

ak
=
0 =
0
2
k
k!

k =

Comptetenu de la condition 0 + 1 + + s = 1, on obtient finalement


ak
k = sk! n
Xa
n!
n=0

2.5.2

(0 k s)

(2.19)

Premi`
ere formule de Erlang (B)

En se souvenant du theor`eme ergodique, s est la fraction du temps pendant laquelle


les s serveurs sont occupes. Ceci est donc la probabilite de perte particuli`erement importante en telephonie. En notant s par B(s, a), on obtient la formule de perte de
Erlang
as
B(s, a) = s s! n
Xa
n!
n=0

(2.20)

Exercice 2.10 Est-ce que B(s, a) represente la probabilite pour quun client qui arrive dans
le syst`eme soit rejete ? Est-ce que B(s, a) represente le pourcentage de clients rejetes ? A quelle
condition pourrait-il y avoir une difference entre ces deux notions ?
30

2.5.3

Nombre moyen de clients dans le syst`


eme

Proposition 2.1 En regime stationnaire, le nombre L de clients dans le syst`eme a


pour moyenne
E(L) = a(1 B(s, a))
(2.21)
Preuve
E(L) =
=

s
X

k=0
s
X

kk =

s
X

kk

k=1

ak1

k=1
s1
X

= a

car k =

ak
0
k!

k=0

= a(1 s ).

2.6

Le syst`
eme M/M/s/

Par hypoth`ese :
les clients arrivent selon un processus de Poisson de param`etre > 0,
le temps de service est une loi exponentielle de param`etre > 0,
il y a s serveurs montes en parall`ele,
la file dattente peut accueilir un nombre quelconque de clients.
Ce syst`eme est modelise par un processus de naissance et de mort (section 1.3) tel
que

(k = 0, 1, 2, . . .)
k =
k = k
(0 < k s)
(2.22)

= s
(k s)

2.6.1

Distribution stationnaire

def

Les formules (1.29) et (1.30) donnent (a = /)


0 1
k1


0
1 2
k

ak
=


0 =
0
2
k
k!
ks
ak
as
0 =
0
=
s! s
s! sks

k =

31

(k s)
(k s)

Comptetenu de la condition 0 + 1 + + s = 1, on obtient apr`es quelques calculs


s1

X an
s
as

+
1/0 =
s! s a n=0 n!

2.6.2

(2.23)

Deuxi`
eme formule de Erlang (C)

En se souvenant du theor`eme ergodique, la probabilite


def

C(s, a) = s + s+1 + s+2 +

(2.24)

est la fraction du temps pendant laquelle les s serveurs sont occupes. Pendant cette
periode, les clients arrivant dans le syst`eme doivent attendre. Elle est connue sous le
nom de deuxi`eme formule de Erlang. Les calculs donnent :
s
as

s! s a
C(s, a) =
s1 n
X
as
s
a

+
s! s a n=0 n!

(2.25)

Exercice 2.11 Un organisme public est ouvert, chaque jour ouvrable, de 9h a` 17h sans
interruption. Il accueille, en moyenne, 64 usagers par jour ; un guichet unique sert `a traiter le
dossier de chaque usager, ceci en un temps moyen de 2,5 minutes. Les usagers si necessaire,
font la queue dans lordre de leur arrivee ; meme si la queue est importante, on ne refuse aucun
usager. Une etude statistique a permis de conclure que la duree aleatoire des services suit une
loi exponentielle et que le regime les arrivees des usagers forment un processus de Poisson.
1. Donner la notation de Kendall de cette file.
2. Donner lexpression de la probabilite invariante k , donner la justification de son existence.
3. Quel sont les temps moyens passes : `a attendre ? dans lorganisme par chaque usager ?
4. Quelles sont les probabilites quil narrive aucun client entre 15H et 16H ? Que 6 clients
arrivent entre 16H et 17H ?
5. Quelle est, en moyenne et par heure, la duree pendant laquelle lemploye du guichet ne
soccupe pas des usagers ?
6. Quelle est la probabilite dobserver une file dattente de 4 usagers, derri`ere celui en
cours de service ?

Exercice 2.12 Une clinique dispose dun service durgence tenu par un seul medecin. Les
malades se presentent selon un processus de Poisson de taux egal `a 96 malades par jour (24
heures), et les durees des soins sont independantes, et suivent une loi exponentielle de moyenne
egale `a 12 minutes pour chaque malade. Les malades sont soignes dans le cabinet du medecin
suivant lordre darrivee et il ny a pas de limitation de place dans le service durgence.
1. Pour le syst`eme dattente represente par le nombre de malades presents `a linstant t,
montrer que la condition dergodicite est verifiee et calculer la probabilite quil y ait n
malades dans le syst`eme (file + service) en regime stationnaire.

32

2. Determiner les param`etres suivants :


(a) le nombre moyen de malades dans le syst`eme,
(b) le nombre moyen de malades en attente,
(c) le temps moyen de presence dans le syst`eme,
(d) le temps moyen dattente.
3. On souhaite que le nombre moyen de malades en attente dans la salle dattente soit
1/2. A partir de quelle duree moyenne des soins cette condition est-elle verifiee ?

Exercice 2.13 Les clients de la banque Picsou arrivent au hasard `a raison dun client toutes
les 4 minutes. La duree de service demande par ces clients est une v.a de loi exponentielle de
duree moyenne de duree 3 mn (il ny a quun serveur).
Le directeur de la banque Picsou veut connatre :
1. la probabilite pour que la duree de service reclame, par un client quelconque qui arrive
exc`ede 20 minutes,
2. le nombre moyen de clients qui attendent (effectivement) dans la file.

Exercice 2.14 Une importante maternite accueille des femmes enceintes qui sont arrivees
a` terme et viennent accoucher et donner naissance `a leur bebe. Loccupation moyenne dune
salle de travail est de 6 heures pour un accouchement. Un statisticien a determine que la loi
darrivee des futures mamans dans une maternite pour y accoucher, peut etre approximee de
facon satisfaisante, par une loi de Poisson, (il se presente en moyenne 24 femmes par jour) et
que celle de loccupation de la salle de travail peut letre par une loi exponentielle. Leurs taux
respectifs valent et .
Le but est de determiner le nombre N de salles de travail (et, par consequent le nombre
minimal de sages-femmes devant se trouver dans la maternite), de telle sorte que la probabilite
pour que toute les salles soient occupees soit inferieure `a un centi`eme : une femme qui arriverait
dans ce cas serait dirigee vers une autre maternite, ce que lon desire eviter `a lextreme.
1. Donner la valeur numerique de et .
2. Montrer que le syst`eme dattente est un processus de naissance et de mort, comportant
N + 1 etats, numerotes de0 `
a N . A quoi correspondent, ici une naissance et une mort ?
Donner la signification de letat k, exprimer k en fonction de et k en fonction de .
Tracer le graphe associe et evaluer les arcs par les probabilites de transition.
3. La probabilite pour que le syst`eme soit, en regime permanent, dans letat k est notee
k . Calculer k en fonction de 0 , puis0 .
4. Quel est letat pour lequel toutes les salles sont occupees ; quelle est sa probabilite ?
Trouver le nombre de salles de travail que devra comporter la clinique, de sorte que la
probabilite pour quelles soient toutes occupees soit inferieure `a 0,01.

Exercice 2.15 Le parking dun supermarche peut contenir N automobiles. Le processus


darrivee des automobiles est poissonnien de param`etre . Le temps moyen de presence dun
vehicule est T (loi exponentielle negative). Quand les N places du parking sont occupees les
vehicules vont se garer ailleurs.
1. Modeliser par une chane de Markov.
2. Indiquer la formule donnant la proportion du temps pendant laquelle le parking est
sature.

33

3. Indiquer la formule donnant le nombre moyen de vehicules parques.

Exercice 2.16 Un grand cabinet davocats propose un service gratuit de conseils. Chaque
jour un avocat est detache dans ce service. Un conseil demande en moyenne un quart dheure
et sa duree suit une loi exponentielle negative. Une etude statistique a montre que les clients
arrivent au rythme de 8 par heure, ces arrivees sont poissonniennes. On ne souhaite pas avoir
une file dattente importante qui perturberait le fonctionnement du cabinet, aussi on naccepte
que deux personnes en attente.
1. Modeliser le probl`eme.
2. Determiner la probabilite invariante (stationnaire) en justifiant son existence.
3. Quel est le nombre moyen de clients presents dans le syst`eme ?
4. Quelle est la probabilite pour un client detre servi sans attendre ?
5. Au bout de quelques mois de fonctionnement de ce service, on sest apercu que ces
clients precedents reviennent ensuite (en clients payants evidemment). On decide donc
de modifier le service et on y affecte 3 avocats, et on supprime la file dattente (un
client qui arrive lorsque les trois avocats sont occupes doit partir). Quel doit etre alors
le temps du conseil pour que les trois avocats soient occupes simultanement 40% du
temps ?

Exercice 2.17 A linfirmerie dun internat, 2 etudiants se presentent chaque jour, en moyenne,
pour y recevoir des soins (les arrivees se font suivant un processus de Poisson). Ces etudiants
recoivent un traitement qui leur impose de rester en moyenne 3 jours alites (on suppose que
les durees de sejour sont des variables aleatoires distribuees exponentiellement).
1. Quelle est en regime stationnaire (vous determinerez la condition dergodicite) la loi
de probabilite du nombre detudiants alites ? En deduire le nombre moyen detudiants
alites.
2. A linfirmerie, il y a s lits confortables et un nombre illimite de lits non confortables.
Sachant que les s plus anciens malades ont un lit confortable, quelle est la probabilite
pour un etudiant arrivant `
a linfirmerie de ne pas trouver de lit confortable ?
3. En fait, le nombre de lits nest pas illimite, et le responsable de linfirmerie ne desire
utiliser au maximum, que les s lits confortables. Quel mod`ele doiton utiliser ? Donner
lexpression et la valeur de la probabilite de refuser des malades `a linfirmerie avec
s = 14 ?

Exercice 2.18 Le temps passe par un client `a une caisse de grand magasin est suppose de
loi exponentielle de moyenne 2 minutes. Il y a 10 caisses sont ouvertes en permanence et lon
suppose que le flot darrivees des clients aux caisses est poissonnien de moyenne ; on suppose
aussi que les caisses sont utilisees au maximum par les clients, cest `a dire quune caisse ne
peut pas etre inoccupee alors que des clients attendent `a une autre (en fait, il ny a quune
seule file dattente).
1. Quel est le nombre maximum de clients par heure pouvant se presenter aux caisses tel
quil y ait un regime dequilibre dans ce syst`eme (ergodicite) ?
2. On mesure lefficacite du syst`eme `a la probabilite quun client trouve une caisse dinoccupee. Quel est le nombre maximum de clients par heure pouvant se presenter aux
caisses tel que cette efficacite soit 0, 9 ?
3. En fait on observe, en moyenne, 10 clients par minute se presentant aux caisses. Combien
doit-on ouvrir de caisses pour garder une efficacite de 0, 8 ?

34

Chapitre 3
Suret
e de fonctionnement
Exercice 3.1 On consid`ere un syst`eme `a redondance active forme de 4 elements en parall`ele, chacun deux ayant des caracteristiques identiques, en particulier un taux de defaillance
constant egal `
a . Les elements sont vendus par groupe de deux elements mis en parall`ele. Le
syst`eme est donc forme de deux groupes. Il ny a quun seul reparateur qui a pour consigne
de ne commencer une reparation que lorsque des deux elements dun meme groupe sont
defaillants. Dans ce cas, la remise en service du groupe defaillant est effectuee lorsque la
reparation les deux elements est terminee. Le temps de la reparation (remise en service comprise) dun groupe suit une loi exponentielle de param`etre /2.
1. Dessiner lautomate correspondant au syst`eme, en indiquant clairement la signification
de chaque etat.
2. Ecrire les equations de balance permettant de calculer la distribution stationnaire.
Verifier que lorsque = , la distribution stationnaire est
= (1/65, 4/65, 4/65, 8/65, 16/65, 32/65)
3. Calculer la limite de la disponibilite A(t) lorsque t . Comparer cette disponibilite
avec la disponibilite dun syst`eme de quatre elements mis en parall`ele et reparables
separement selon un taux = .
4. Calculer les temps moyens MTTR, MUT et MTBF lorsque = .

Exercice 3.2 On consid`ere un syst`eme `a redondance passive forme de 2 elements en parall`ele, chacun deux ayant des caracteristiques identiques. La duree de bon fonctionnement
dun element suit une loi exponentielle de param`etre . Deux types de panne peuvent se
produire :
panne benigne avec probabilite p,
panne grave avec probabilite 1 p.
Dans ce cas, la theorie nous dit que larrivee des pannes benignes pour un element seul est
gouvernee par un processus de Poisson de param`etre p et celle des pannes graves par un
processus de Poisson de param`etre (1 p).
Les temps de reparation suivent une distribution exponentielle dont le param`etre depend
du type de panne :
si la panne est benigne,
si la panne est grave ( < ).

35

Il y a un reparateur disponible pour chaque type de panne, une panne de chaque type pouvant
etre reparee `
a la fois.
1. Definir les etats du syst`eme et dessiner le graphe des transitions.
2. Calculer la disponibilite stationnaire du syst`eme si p = q = 1/2 et = 2 = 2.
3. Calculer en fonction de la distribution stationnaire les nombres MTTR, MUT et
MTBF. Que deviennent les formules trouvees dans le cas particulier etudie `a la question
precedente ?
4. Calculer le MTTF toujours dans le meme cas particulier.

Exercice 3.3 On consid`ere un syst`eme comportant 2 composants identiques en redondance


passive. Ce syst`eme est observe reguli`erement au debut de chaque heure. On suppose qu`a
linstant t = 0, les deux composants fonctionnent correctement. Il ny a quun seul reparateur.
Dans la suite, le temps t est un entier positif ou nul. Pour tout t N, la probabilite quun
composant tombe en panne entre les instants t et t + 1 est notee a. De meme, la probabilite
que la reparation dun composant se termine entre les instants t et t + 1 est notee b. On posera
q = a/b.
1. Mod`eliser par une chaine de Markov.
2. Calculer la distribution stationnaire en fonction de q.
3. Calculer A(), MTTR, MTTF, MUT, MTBF en fonction de a et b. Donner les resultats
1
1
et b = 10
.
numeriques lorsque a = 40
Indication Soit P la matrice de transition dune chaine de Markov en temps discret comportant n etats notes 1, 2, . . . , n. On suppose que seul letat n est absorbant. Soit ti le temps
moyen pour atteindre letat absorbant en partant de letat i. Alors

t1
t1
1
t2 1
t2
. .

.. = .. + P ... .

t
t
1

n1
n1
0
0
0
On consid`ere le syst`eme en temps continu, obtenu `a partir du syst`eme prec`edent, en prenant
pour nouveau pas de temps une duree infiniement petite > 0 et en posant a = et b = .
1. Mod`eliser par une chaine de Markov.
2. Calculer la distribution stationnaire en fonction de q.
3. Calculer A(), MTTR, MTTF, MUT, MTBF en fonction de et . Donner les resultats
1
1
et = 10
.
numeriques lorsque = 40
Indication Un bonus sera donne aux candidats qui savent eviter les calculs inutiles.

Exercice 3.4 On consid`ere un syst`eme comportant 2 composants identiques en redondance


passive. On suppose que la detection de la panne dun composant, realisee automatiquement
par un logiciel de surveillance, prend un temps aleatoire distribue selon la loi exponentielle
de param`etre = 100. Lorsquune panne est detectee sur un composant, on active instantannement lautre composant des que ce dernier est en etat de marche.
Il ny a quun seul reparateur et le temps de remise en service est compte dans le temps de
reparation. Le taux de defaillance dun composant est = 1/10 et le taux de reparation est
= 1, le temps etant mesure en heures.

36

1. Quel est le temps moyen pour detecter une panne ?


2. Mod`eliser par une chaine de Markov et dessiner lautomate sans que les fl`eches se
croisent. On indiquera clairement dans un tableau annexe le codage et la signification
des etats utilises.
3. Calculer A(), MDT, MUT, MTBF en fonction de la distribution stationnaire =
(0 , 1 , ) et des taux , et . Le MDT (mean Down Time) est la duree moyenne
dindisponibilite du syst`eme (detection de la panne + reparation eventuelle dun composant).
4. Calculer numeriquement la distribution stationnaire. En deduire les valeurs numeriques
des grandeurs calculees `
a la question prec`edente.

37

Annexe A
Variables al
eatoires
Intuitivement, une variable aleatoire est une variable dont les valeurs sont aleatoires
(liees au hasard). Lensemble de ces valeurs possibles est un sousensemble de Rn . Ce
sousensemble peut etre soit discret, soit continu. Par exemple, le nombre daccidents
pendant un an dans une entreprise est une variable discr`ete `a valeurs dans lensemble
des entiers N. Dun autre cote, lintervalle de temps entre deux accidents consecutifs est
une variable aleatoire continue `a valeurs dans lensemble des nombres reels positifs R0 .
Dans ce cours, nous nutiliserons pratiquement que des variables aleatoires `a valeurs
dans N ou dans R0 ; dans chaque cas, n = 1.

A.1

Brefs rappels sur les espaces probabilis


es

Un espace probabilise est un triplet (, A, p) pour lequel


est lensemble des ev`enements elementaires.
A est lensemble des ev`enements pour lesquels la probabilite est definie. Un ev`enement est un sousensemble quelconque de mais il peut arriver que pour certains
dentre eux, la probabilite ne soit pas definie. On suppose que lensemble A est une
alg`ebre de Boole, cest `a dire que lunion 1 et lintersection de deux elements de
A est encore dans A. On suposera de plus que A et que pour tout E A, le
complementaire de E dans est un ev`enement (appele ev`enement contraire de E)
qui appartient aussi `a A. Soient A, B A. On ecrira souvent (A et B) `a la place
de (A B) ainsi que (A ou B) `a la place de (A B).
p : A [0, 1] est une mesure des ev`enements qui est un nombre reel compris entre
0 et 1. On suppose que

p() = 0,

p() = P
1,
(A.1)
S
p( i Ai ) =
p(A
)
A

A
tels
que
A

A
=

(i
=
6
j).
i
i
i
j
i

Exemple On jette un de. Le resultat est un ev`enement elementaire. On a donc =


{1, 2, 3, 4, 5, 6}. On pose A = P(). Lev`enement tirer un nombre pair est represente
1

la theorie de la mesure exige que lorsque Ai A pour tout i N alors i Ai A

38

par lensemble E = {2, 4, 6}. Si lon suppose que chaque ev`enement elementaire a la
meme probabilite de se realiser, il faut poser p(E) = 1/6 card(E) pour tout E A.
Ainsi p(E) = 3/6 lorsque E = {2, 4, 6}.

Exemple On jette deux des. Le resultat dun lance est un couple de deux nombres
entiers compris entre 1 et 6, ce qui represente 36 cas possibles. On a donc = {(x, y) |
1 x, y 6}. On pose A = P(). Si lon suppose que chaque ev`enement elementaire
a la meme probabilite de se realiser, il faut poser p(E) = 1/36 card(E) pour tout
E A. Lev`enement tirer une somme egale `a trois correspond `a lensemble E =
{(1, 3), (2, 2), (3, 1)} dont la probabilite est 3/36.

Exemple On jette un fl`echette sur une cible de dimension finie. Chaque point de la
cible est un ev`enement elementaire. Un ensemble de points est un ev`enement. Prenons
comme unite de surface, la surface totale de la cible. Lapplication p : E p(E)
en prenant pour p(E) laire de lensemble E, verifie les axiomes des probabilites. Il
existe evidemment bien dautres lois de probabilites possibles. La theorie de la mesure
nous dit que la surface de certains sousensembles de (existant dans limaginaire des
mathematiciens) nest pas bien definie. A priori, les rectangles ont une surface bien
definie : on dira quils sont mesurables. Par suite, tout ensemble forme dune reunion
denombrable de rectangles disjoints est mesurable. On prendra pour A lensemble des
parties de la cible qui sont mesurables.

Une variable aleatoire (v.a.) est une application de dans Rn . Par exemple, `a tout
point de la cible de coordonnees x et y, on associe le couple (x, y) R2 . On a ainsi
2
construit
p une v.a. continue `a valeurs dans R . On aurait pu choisir la distance au
2
2
centre x + y et obtenir ainsi une v.a. continue `a valeurs dans R0 . Enfin, on aurait
pu partitionner la cible en un nombre fini de sousensembles disjoints que lon aurait
numerotes. Lapplication qui, `a tout point de la cible, associe son numero est une v.a.
(discr`ete) `a valeurs dans un sousensemble de N.

A.1.1

Probabilit
es conditionnelles

Soit (, A, p) un espace probabilise et un ev`enement A A. Alors, lapplication pA :


def

pA : X A pA (X) =

p(X A)
p(A)

(A.2)

verifie les axiomes des probabilites. On a alors pA (A) = 1, autrement dit lev`enement
A est certain pour cette nouvelle loi.
Cette probabilite dite probabilite conditionnelle represente la probabilite que lev`enement X se realise sachant que lev`enement A est certain (deja realise), ce qui est traditionnellement note p(X | A).
Deux ev`enements A et B sont dits independants lorsque p(A | B) = p(A). On en
deduit alors la relation equivalente
p(A et B) = p(A) p(B).
39

(A.3)

A.2
A.2.1

Variables al
eatoires discr`
etes
D
efinition

Dans cette section, on ne consid`erera que des variables aleatoires `a valeurs dans N.
Une telle variable aleatoire X est donc la donnee dune loi de probabilit
P e sur N, cest `a
dire dune suite de nombres reels positifs ou nuls (pn )nN telle que n pn = 1. Il faut
comprendre Prob {X = n} = pn .

A.2.2

Somme et produit de deux variables al


eatoires

La somme de deux variables aleatoires X et Y est une variables aleatoire dont la


distribution est donnee par la formule

Prob {X + Y = n} =

Prob {X = i} Prob {Y = j | X = i} ,

i+j=n

Prob
{X

Y
=
n}
=
Prob {X = i} Prob {Y = j | X = i} .

(A.4)

ij=n

Lorsque les deux variables aleatoires X et Y sont independantes, la condition devient


superflue. Examinons la formule donnant Prob {X + Y = n}. Soient pi = Prob {X = i},
qj = Prob {Y = j} et rn = Prob {X + Y = n}. Le nombre rn est donne par une formule,
dite de convolution additive, identique `a celle que lon
en calculant
P obtient
P lej coefficient
n
i
de x dans le produit de deux polynomes P (x) = i pi x et Q(x) = j qj x , `a savoir
rn =

p i qj .

(A.5)

i+j=n

A.2.3

Moyenne, variance et covariance

On pose par definition

E(X) =

X
n=0

n Prob {X = n} ,

2 = Var(X) = E((X m)2 )


avec m = E(X),

Cov(X, Y ) = E([X E(X)][Y E(Y )]).

(A.6)

Le nombre reel E(X) est appele moyenne ou encore esperance de X. Lecarttype est
par definition egal `a la racine carree de la variance.
40

A.2.3.1

Propri
et
es (admises)

E(X + Y )
Cov(X, Y )
Var(X)
E(aX + b)
Var(aX + b)
Var(X + Y )
Cov(X, Y )

=
=
=
=
=
=
=

E(X) + E(Y )
E(XY ) E(X)E(Y )
Cov(X, X) = E(X 2 ) E(X)2
aE(X) + b
pour tout a, b R
2
a Var(X)
pour tout a, b R
Var(X) + Var(Y ) + 2Cov(X, Y )
0
si X et Y sont independantes

(A.7)

Soit X une variable aleatoire de moyenne m et decarttype . Il est facile dutiliser


une transformation affine X aX + b pour ramener la moyenne `a zero et lecarttype
def
`a un. On pose U = (X m)/. Alors E(U ) = 0 et Var(U ) = 1. La variable U est
appelee variable centree reduite.
A.2.3.2

G
eom
etrie des variables al
eatoires

Les variables aleatoires `a valeurs dans R forment un espace vectoriel car une combinaison lineaire aX + bY (pour a, b R) de deux variables aleatoires est encore une
variable aleatoire. La covariance est une forme bilineaire symetrique qui joue le role
du produit scalaire de deux vecteurs. Lorsque deux variables aleatoires X et Y sont
independantes, Cov(X, Y ) = 0, ce quon interprete comme une condition dorthogonalite. La reciproque est fausse : la nullite de la covariance nentraine par lindependance.

A.2.4

Fonction g
en
eratrice dune variable al
eatoire

A.2.4.1

Transform
ee en z dune suite de nombres

La transformee en z est utilisee pour calculer la moyenne et la variance dune variable


aleatoire discr`ete. Elle nous servira aussi `a resoudre les equations detat des chaines de
Markov en temps discret.
Soit u = (u0 , u1 , u2 , . . .) une suite quelconque de nombres. Par definition, la transformee en z de la suite u est la fonction de la variable complexe z,
u
b(z) =

X
n=0

un z n = u0 + u 1 z + u 2 z 2 +

En particulier si la suite un est constante, alors u


b(z) = u0 + u0 z + u0 z 2 =

(A.8)
u0
.
1z

La principale operation sur les suites est loperation de decalage (shift en anglais).
Cette operation est notee . Par definition, on pose
(u)n = un+1

(A.9)

Ainsi la suite u = (u1 , u2 , u3 . . .). Remarquons que le premier element de la suite u est
perdu.
41

Examinons comment cette operation de decalage sur une suite u se traduit sur sa
transformee en z. On pose

X
cu(z) = u1 + u2 z + u3 z + =
un+1 z n
def

n=0

1
(u1 z + u2 z 2 + u3 z 3 + ).
z

Finalement

1
u
b(z) u0 .
cu(z) =
z

(A.10)

Cette formule est fondamentale car elle permet de calculer la transformee en z


dune suite definie par une relation de recurrence lineaire quelconque. Examinons, par
exemple, la suite de Fibonacci qui est definie comme suit

un+2 = un+1 + un pour tout n N


(A.11)
u0 = 0; u1 = 1
Cette suite u verifie donc la relation 2 u = u + u. Le calcul du shift sur sa transformee
2 u(z) = 1 ( 1 u
d
en z grace `a la formule (A.10) donne cu(z) = z1 u
b(z) et
b(z) 1). La
z z
relation de recurrence (A.11) impose lequation

1
11
u
b(z) 1 =
u
b(z) + u
b(z)
z z
z

permettant de calculer u
b(z) en fonction de z. On trouve
A.2.4.2

u
b(z) =

z
.
1 z z2

D
efinition des fonctions g
eneratrices

Soit X une variable aleatoire `a valeurs enti`eres (positives ou nulles). On pose pk =


Prob {X = k} pour tout k N. La fonction generatrice de X est definie par la serie
enti`ere fX (z) = E(z X ). Cest la transformee en z de la suite pk :
def

fX (z) =

X
k=0

pk z k = p0 + p1 z + p2 z 2 +

(A.12)

On verifie immediatement que fX (0) = p0 et fX (1) = 1. Comme les pk sont tous


inferieurs ou egaux `a un, la serie est convergente pour |z| < 1.

Dautre part, on peut retrouver la loi de probabilite de X en partant de sa fonction


generatrice fX (z) par la formule de Taylor
pk = f (k) (0)/k!

(k = 0, 1, 2, . . .)
42

A.2.4.3

Propri
et
es
el
ementaires

Proposition A.1 (moyenne et variance) Soit une variable aleatoire X enti`ere dont
def
la fonction generatrice est f (z). Posons X n = X(X 1) (X n+1). Alors E(X n ) =
f (n) (1). En particulier, E(X) = f (1) et E(X(X 1)) = f (1) sachant que les derivees
premi`ere et seconde de la fonction f sont designees par f et f .
Preuve laissee en exercice.

Proposition A.2 Si X et Y sont deux variables aleatoires enti`eres independantes,


alors la fonction generatrice de X + Y est egale au produit des fonctions generatrices
de X et Y .
Preuve Soient fX (z) =

X
i=0

X
X
j
pi z , fY (z) =
qj z et fX+Y (z) =
rk z k . On obtient
i

j=0

k=0

dapr`P
es (A.5) la loi de probabilitePde X + Y en effectuant le produit de convolution
rn = i pi qni . Par suite, la serie n rn z n correspond exactement au produit des series
fX (z) et fY (z). Donc fX+Y (z) = fX (z) fY (z) pour tout z.

A.2.5

Lois discr`
etes usuelles

Pour une v.a. X distribuee selon une loi de probabilite pk , on donne sa fonction
generatrice E(xX ) qui est definie comme la transformee en z de la suite pk . On en
deduit la moyenne et la variance de X `a laide de la proposition A.1 :
def

Var(X) = E(X 2 ) E(X)2 = f (1) + f (1) (f (1))2 .


A.2.5.1

(A.13)

Epreuve de Bernouilli

La v.a. X prend la valeur 1 avec la probabilite p et prend la valeur 0 avec la probabilite


1 p.

Prob {X = 0} = q, Prob {X = 1} = p avec q = 1 p

E(z X ) = zp + q
(A.14)
E(X) = p

Var(X) = pq

A.2.5.2

Loi binomiale B(n, p)

On effectue n epreuves de Bernouilli independantes. La v.a. X compte le nombre de


succ`es. Ainsi pk est la probabilite dobtenir k succ`es en n tentatives.

pk q nk avec q = 1 p
Prob {X = k} =

E(z X ) = (zp + q)n


(A.15)

E(X)
=
np

Var(X) = npq
43

Exercice A.1 Effectuer le calcul de la moyenne et de la variance en utilisant la proposition


A.1.

A.2.5.3

Loi g
eom
etrique

On effectue des epreuves de Bernouilli independantes jusqu`a ce quon obtienne un


premier succ`es. La v.a. X compte le nombre depreuves quil a fallu effectuer. Ainsi pk
est la probabilite dobtenir un premier succ`es `a la k ieme tentative.

Prob {X = k} = (1 p)k1 p pour k = 1, 2, . . .

pz

E(z X ) =

1 (1 p)z
1
(A.16)
E(X)
=

1p

Var(X) =

p2
Exercice A.2 Effectuer le calcul de la moyenne et de la variance en utilisant la proposition

A.1.

A.2.5.4

Loi de Poisson P()

La loi de Poisson est parfois appelee loi des ev`enements rares car cest la limite de la
loi binomiale B(b, p) lorsque le nombre n depreuves tend vers linfini, que la probabilite
p de succ`es au cours dune epreuve tend vers zero et que le produit np tend vers une
constante . Citons comme exemple possible dapplication :
Loi du nombre de suicides par an dans un pays donne
Loi du nombre dappels telephoniques pendant un temps donne
Loi du nombre de pi`eces defectueuses dans une livraison importante, la production
etant de bonne qualite etc.
La loi est construite `a partir du developpement de Taylor exp() = 1 + +

pour k = 0, 1, 2, . . .
Prob
{X
=
k}
=
e

k!

E(z X ) = e(z1)

E(X) =

Var(X) =

2
2!

(A.17)

Exercice A.3 Effectuer le calcul de la moyenne et de la variance en utilisant la proposition

A.1.

Proposition A.3 La somme de deux variables aleatoires poissonniennes de param`etres


respectifs et est une variable poissonnienne de param`etre + .
Preuve On utilise la proposition A.2. Le calcul donne
e(z1) e(z1) = e(+)(z1)
44


Th
eor`
eme A.1 Soit un reel positif. Notons B(n, p) la loi de Bernouilli (de moyenne
np) correspondant `
a n epreuves independantes, chacune avec une probabilite de succ`es
egale a` p. Notons P() la loi de Poisson de moyenne (param`etre) . Alors,
P() = lim B(n, /n).
n

Preuve Considerons la fonction generatrice de la loi binomiale B(n, /n) (voir


formules (A.15))

n
n

f (z) = (pz + q)n =


z+1
= 1 + (z 1)
n
n
n
n
On sait que exp(x) = limn (1+x/n) . Par suite la fonction f (z) tend vers la fonction
generatrice de la loi de Poisson P() qui vaut exp((z 1)).

A.3

Variables al
eatoires continues

Dans toute cette section, les variables aleatoires sont supposees `a valeurs dans R0 .
La plupart des definitions et proprietes des variables discr`etes restent valables. Les
seules differences viennent du fait que les sommes sont remplacees par des integrales
pour une certaine densite de probabilite. La fonction generatrice E(z X ) dune v.a. X
est remplacee par la transformee de Laplace E(esX ). On fait le lien entre ces deux
definitions en posant z = es .

A.3.1

D
efinitions de base

Une variable aleatoire (v.a) `a valeurs dans R0 est la donnee dun espace probabilise
(, A, p) pour lequel = R0 .
On definit la fonction de repartition de la v.a. X

FX (x) = Prob {X < x}

(A.18)

Les axiomes des probabilites impliquent FX (0) = 0 et limx FX (x) = 1. La derivee


au point x de FX qui est notee fX (x) est appelee densite de probabilite de la v.a. X.
On en deduit pour a, b R0
Z b
fX (x)dx
(A.19)
Prob {a X < b} = FX (b) FX (a) =
a

Pour un intervalle [x, x + dx] infiniement petit, on en deduit que


fX (x)dx = Prob {x X < x + dx} .
La moyenne dune v.a. X est donnee par lintegrale (sous reserve de convergence)
Z
xf (x)dx
(A.20)
E(X) =
0

45

A.3.2

Changement de variable

Soit une fonction croissante de R0 dans R0 et X est une variable aleatoire `a


valeurs dans R0 . Alors Y = (X) est une v.a. telle que Y < (x) X < x. On
en deduit que les fonctions de repartition de X et Y notees ici F et G sont liees par la
relation
F (x) = G((x))
(A.21)
Les densites de probabilite correspondantes notees f et g sobtiennent en derivant cette
relation : f (x) = g((x)). (x). En posant y = (x), on deduit
g(y) =

f (1 (y))
f (x)
=
(x)
(1 (y))

(A.22)

Exemple Soit Y = exp X X = log Y . Alors


g(y) =

f (x)
f (log y)
=
.
x
e
y

Exemple Soit Y = X 2 0 X

Y . Alors

f ( y)
f (x)
g(y) =
= .
2x
2 y

A.3.3

La transform
ee de Laplace

La transformee de Laplace nous servira `a resoudre les equations differentielles lineaires


qui gouvernent les chaines de Markov en temps continu, `a calculer la moyenne et la
variance des variales aleatoires `a valeurs dans R0 . Toutes les fonctions considerees
dans cette section sont supposees des fonctions de R0 dans R0 .
D
efinition A.1 Soit f : R0 R0 . La transformee de Laplace de la fonction f est
la fonction notee fb definie par lintegrale (sous reserve de convergence) :
Z
b
f (x)esx dx
(s 0).
(A.23)
f (s) =
0

La propriete fondamentale de la transformee de Laplace est


f (x) =

d
f (x) = fb (s) = sfb(s) f (0).
dx

(A.24)

La transformee de Laplace permet donc de transformer les equations differentielles


lineaires `a coefficients constants en equations algebriques non differentielles.
Exemple Calculer la transformee de Laplace de y(x) = exp(x). La fonction
y(x) est compl`etement definie par leq. differentielle y (x) = y(x) et par la condition
46

initiale y(0) = 1. Sa transformee de Laplace yb(s) verifie donc sb


y (s) 1 = b
y (s), do`
u
lon tire
1
.
yb(s) =
s+

Exercice A.4 En utilisant la meme methode, calculer la transformee de Laplace de la fonction y(x) = xn en commancant par n = 0.

Citons une propriete interessante de la transformee de Laplace, `a savoir lechange


entre les limites en x = 0 et en s = . On a

lim f (x) = lim s fb(s)

x

s 0

lim f (x) = lim s fb(s)


(A.25)
0
s
Zx

f (x)dx = fb(0)
0

A.3.3.1

Produit de convolution

Soient deux fonctions f et g de R0 dans R0 . Par definition, le produit de convolution


f g est la fonction definie par lintegrale
Z x
f (x t)g(t)dt.
(A.26)
(f g)(x) =
0

On demontre que ce produit est associatif et commutatif.


Th
eor`
eme A.2 La transformee de Laplace du produit de convolution de deux fonctions
est egal au produit (ponctuel) des transformees de Laplace de chacune de ces fonctions,
autrement dit f[
g(s) = fb(s)b
g (s).
Preuve admise

Ce produit de convolution intervient lorsque lon consid`ere la somme de deux v.a.


independantes donnees par leur densite de probabilite.
Th
eor`
eme A.3 Soient deux v.a. independantes X et Y dont les densites sont les fonctions f et g. Alors la densite de X + Y est egale au produit de convolution f g.
Ainsi lassociativite et la commutativite du produit de convolution correspond lassociativite et la commutativite de la somme de deux v.a. independantes.
Soit X une v.a. `a valeurs dans R0 dont la densite de probabilite est la fonction f .
Soit fb la transformee de Laplace de f . On a alors
Z
sX
esx f (x)dx
(A.27)
E(e
)=
0

Le rapprochement des deux theoremes A.2 et A.3 implique le


47

Corollaire A.1 Soient E(exp(sX)) et E(exp(sY )) les transformees de Laplace des


densites de deux v.a. independantes X et Y . Alors

E es(X+Y ) = E esX E esY .


Preuve Donnons un preuve directe de ce corollaire, sans utiliser les deux theor`emes
precedents. Lorsque X et Y sont independantes, il en est de meme pour les v.a. A =
exp(sX) et B = exp(sY ). On applique alors lidentite E(AB) = E(A)E(B).

derivee
derivee k ieme
integrale

Fonctions
d
f (t)
dt
dk
f (t)
dtk
Z t
f (x)dx
0

dilatation ( > 0)

f (t)

translation

f (t t0 )

facteur polynomial

(t)k f (t)

facteur exponentiel exp(t)f (t)


Heaviside
Y (t)
Dirac

(t)

exponentielle

et Y (t)

sinus

t1 et
Y (t)
()
sin(t)Y (t)

cosinus

cos(t)Y (t)

gamma

Transformee de Laplace
sfb(s) f (0)

sk fb(s) sk1 f (0) sk2 f (0) f (k1) (0)


1b
f (s)
s
1b
f (s/)

exp(st0 )fb(s)

dk b
f (s)
dsk
fb(s + )
1/s
1

s+

(s + )

2
s + 2
s
2
s + 2

Tab. A.1 Transformee de Laplace de quelques fonctions et distributions

Exercice A.5 Soit un quadrimoteur tel que chaque moteur a un taux de panne egal `a .
Lavion arrive `
a destination si au moins deux moteurs fonctionnent.
1. Calculer, en fonction de , la fiabilite R(t) du quadrimoteur.
2. Calculer sa duree de vie moyenne .

48

A.3.3.2

Calcul des moments dune variable al


eatoire

Par definition, le moment dordre k dune v.a. dont la densite est f (x) vaut
Z
k
E(X ) =
xk f (x)dx
(A.28)
0

La connaissance des moments dordre 1 et 2 dune v.a. permet de calculer sa moyenne


et sa variance. Nous allons voir que ces moments apparaissent dans le developpement
de Taylor (par rapport `a s) de la transformee de Laplace de f (x).
Z
sX def
Proposition A.4 Soit la transformee de Laplace E(e
)=
esx f (x)dx. Alors
0

E(esX ) =

(1)k E(X k )

k=0

sk
.
k!

(A.29)

On en deduit que E(X k ) = (1)k k! [sk ]E(esX ). La notation [sk ]E(esX ) signifie que
lon prend le coefficient de sk dans le developpement de Taylor en s de la transformee
de Laplace E(esX ).
Preuve On developpe lexponentielle : exp(sX) = 1 sX +

s2
X2
2!

Exemple Soit X une v.a. qui suit la loi exponentielle i.e. Prob {X > x} = exp(x).
On a f (x) = exp(x) dont la transformee de Laplace (voir table A.3.3.1) est
fb(s) =

s
s2

= 1 + 2
s+

La formule (A.29) donne E(X) = 1/ et E(X 2 ) = 2/2 . On en deduit la variance


Var(X) = E(X 2 ) E(X)2 = 2/2 1/2 = 1/2 .

A.3.4

Lois continues usuelles

Pour une v.a. positive X distribuee selon la loi de probabilite dont la densite est notee
f (x), on calcule la transformee de Laplace E(esX ) de cette densite, ce qui permet den
deduire les valeurs de E(X) et de Var(X) conformement `a la formule (A.29).
A.3.4.1

Loi uniforme sur lintervalle [0, a]

Si la v.a. X est uniformement distribuee sur lintervalle [0, a], alors

f (x) = 1/a pour 0 x a et 0 sinon

1 esa

sX

E(e
)
=

sa
a
E(X) =

Var(X) = a
12
49

(A.30)

A.3.4.2

Loi exponentielle E()

On dit que la variable aleatoire reelle positive T suit une loi exponentielle de param`etre lorsque pour tout t 0
Prob {T > t} = et
En resume :

f (t) = et

E(esT ) =

s+
1

E(T ) =

Var(T ) = 1
2

(A.31)

(A.32)

Caract`
ere sans m
emoire de la loi exponentielle : une variable aleatoire T est
dite sans memoire lorsque
t, t0 0,

Prob {T t0 > t | T > t0 } = Prob {T > t} .

(A.33)

Soit T la duree de vie dun individu (mesuree en annees pour fixer les idees). La
condition (A.33) signifie qu`a tout age t0 , le temps quil lui reste `a vivre, `a savoir T t0
est une v.a. qui suit la meme loi que T . Un tel individu demeure donc mortel mais ne
vieillit pas car le nombre dannees quil a vecues ninfluence pas le nombre dannees
quil lui reste `a vivre (le reve !).
Proposition A.5 Une variable aleatoire suit une loi est exponentielle si et seulement
si cette variable est sans memoire.
Preuve Posons Prob {T > t} = (t). On en deduit
Prob {T t0 > t} = Prob {T > t + t0 } = (t + t0 )
(t + t0 )
Prob {T t0 > t | T > t0 } =
.
(t0 )
La condition (A.33) secrit alors
(t + t0 )
= (t) soit (t + t0 ) = (t)(t0 ).
(t0 )
Les seules solutions de cette equation sont les fonctions exponentielles de la forme
(t) = et . On a bien
e(t+t0 ) = et et0 .

50

A.3.4.3

Loi de Erlang Ek ()

Par definition, la loi de Erlang Ek () est la loi suivie par la somme de k v.a. independantes chacune distribuees selon la loi exponentielle de param`etre . Ainsi, si des
ev`enements aleatoires independants arrivent selon un processus de Poisson, alors la
date Tk darrivee du k ieme ev`enement est gouvernee par la loi de Erlang Ek (). En effet, Tk = (T1 T0 ) + (T2 T1 ) + + (Tk Tk1 ) et lon est dans lhypoth`ese o`
u les
intervalles de temps (Ti+1 Ti )iN qui separent larrivee de deux ev`enements successifs
sont independants et suivent une loi exponentielle de param`etre .
Dapr`es le corollaire A.1, la transformee de Laplace de la densite de Ek () sobtient
en elevant `a la puissance k la transformee de Laplace de la loi exponentielle (voir table
A.3.3.1) qui est /( + s). Les formules E(X + Y ) = E(X) + E(Y ) et Var(X + Y ) =
Var(X) + Var(Y ) permettent dobtenir sans calcul la moyenne et la variance de la loi
de Erlang. On trouve

k tk1 et

f
(t)
=

(k 1)!

E(esT ) =
(s + )k
(A.34)

E(T ) =

Var(T ) = k
2
A.3.4.4

Loi gamma (, )

La loi gamma est une generalisation de la loi de Erlang Ek () lorsque k nest plus
un entier mais un nombre reel quelconque note ici . On utilise la fonction () qui se
ram`ene `a ( 1)! lorsque est un entier positif. En resume :

t1 et

f (t) =

()

E(esT ) =
(s + )

E(T ) =

Var(T ) =
2

(A.35)

La loi du 2 qui est tres utilisee dans les tests statistiques est un cas particulier de la
loi gamma. Par definition, la loi 2n `a n degres de liberte (n N) est la loi suivie par la
somme des carres de n v.a. independantes distribuees selon la loi normale N (0, 1). On
demontre que cette loi 2n est egale `a la loi (, ) pour = 1/2 et = n/2.
51

A.3.4.5

Loi normale N (m, )

Attribue et `a Gauss et `a Laplace, la loi normale est la plus connue des lois intervenant
en statistique. Si la v.a. X `a valeurs dans R suit la loi normale N (m, ), alors

1 xm 2
1

e 2 ( )
f (x) =

1
2
sX
(A.36)
E(e
) = ems e 2 (s)

E(X) = m

Var(X) = 2
La variable centree reduite U = (X m)/ suit alors la loi normale N (0, 1). Les formules
donnant la densite et sa transformee de Laplace se simplifient notablement

1 2
1

f (x) = e 2 x

1 2
sX
2
(A.37)
E(e
) = e s

E(X)
=
0

Var(X) = 1
Proposition A.6 La somme de deux v.a. independantes distribuees selon les lois normales N (m1 , 1 ) et N (m2 , 2 ) suit la loi normale N (m, ) telle que m = m1 + m2 et
2 = 12 + 22

Preuve On sait (corollaire A.1) que la transformee de Laplace de la somme de deux


v.a. independantes est egal au produit de deux transformees de Laplace. Par suite, cette
proposition se ram`ene `a lidentite evidente entre exponentielles
1

em1 s e 2 (1 s) em2 s e 2 (2 s) = e(m1 +m2 )s e 2 (1 +2 )s

A.3.4.6

Loi lognormale

Une v.a. X `a valeurs dans ]0, [ est dite suivre une loi lognormale de param`etres
(m, ) si la v.a. Y = log X suit la loi normale N (m, ). Les calculs montrent que

2 !

1 log x m
1 1

exp
f (x) =
pour x > 0

2 x
(A.38)
E(esX ) = integrale non convergente

E(X) = em+ /2

2
2
Var(X) = e2m+ (e 1)
Le produit de deux v.a. independantes suivant une loi lognormale est distribuee selon
une loi lognormale ; ceci est une consequence de la proposition A.6.

La loi lognormale a trouve un domaine dapplication inattendu : la linguistique. En


effet, le nombre de mots par phrase suit approximativement une loi lognormale.
52

A.3.4.7

Loi de Weibull W(t0 , , )

Cette loi depend de trois param`etres reels strictement positifs. Elle est tr`es interessante car elle permet dapproximer un grand nombre de lois experimentales.
0
suit la loi
Une v.a. T est dite suivre une loi de Weibull W(t0 , , ) si la v.a. T t

exponentielle de param`etre = 1. On a donc



!
t t0
Prob {T > t} = exp
pour t > t0 .
(A.39)

Les calculs montrent que


!
1

t
(t

t
)

0
0

exp
f (t) =

1+
E(T ) = t0 +

1
2

2
2

+1 1+
Var(T ) =

(A.40)

Exercice A.6 On consid`ere un syst`eme `a redondance passive forme de n elements en parall`ele, chacun deux ayant des caracteristiques identiques. La duree de bon fonctionnement
dun element suit une loi exponentielle de param`etre .
1. Soit T la duree de bon fonctionnement du syst`eme. Calculer la moyenne et lecarttype
de T .
2. Quelle est la loi de probabilite suivie par T ?
3. Indiquer, lorsque n est grand, une utilisation possible du theor`eme central limite.
4. On suppose que n = 100 et = 1. Calculer la probabilite pour que T > 80.

Exercice A.7 On consid`ere un syst`eme forme de deux elements non reparables, mis en parall`ele. La duree de bon fonctionnement de chaque element est une variable aleatoire distribuee
uniformement sur lintervalle [0, 1].
1. Calculer la fiabilite R(t) et le taux de defaillance (t) du syst`eme lorsque les deux
elements sont en redondance active.
2. Calculer la densite de probabilite de la somme de deux variables aleatoires independantes
distribuees uniformement sur lintervalle [0, 1]. Representer graphiquement cette densite
ainsi que la fonction de repartition correspondante.
3. Calculer la fiabilite R(t) et le taux de defaillance (t) du syst`eme lorsque les deux
elements en redondance passive.

Exercice A.8 Sur un echantillon de 200 habitants dune grande ville, 45% sont favorables
a` linstallation dune entreprise. En raisonnant sur un intervalle de confiance `a 95%, cela
contreditil lhypoth`ese quun habitant sur deux y soit favorable ? Justifiez votre reponse.

Exercice A.9 Pour un syst`eme en parall`ele (redondance active) comportant n composants


identiques non reparables dont la duree de vie suit une loi exponentielle de param`etre ,
montrer que la duree de vie moyenne vaut

1
1 1
1
E(T ) =
1 + + + +
.

2 3
n
53

On fera appel `
a un processus de naissance et/ou de mort.

Exercice A.10 On consid`ere un syst`eme `a redondance passive forme de n elements en


parall`ele non reparables, chacun deux ayant des caracteristiques identiques. La duree de bon
fonctionnement dun element suit une loi uniforme sur lintervalle de temps [0, a] avec a R.
1. Soit T1 , T2 , , Tn les durees de vie respectives de chacun des elements du syst`eme et T
la duree de bon fonctionnement du syst`eme complet. Exprimer la variable aleatoire T
en fonction des v.a. T1 , T2 , . . . , Tn . Calculer la moyenne et lecarttype de T en fonction
de a.

2. Justifier, lorsque n est grand, une approximation de la loi suivie par T par une loi
normale.
3. On effectue une experience pour n = 100 o`
u le syst`eme fonctionne correctement pendant
100 jours. Calculer une estimation du nombre a et donner un encadrement de cette
estimation valable `
a 95%.

Exercice A.11 On consid`ere une variable aleatoire X `a valeurs dans lensemble des entiers
naturels N. On note pk = Prob {X = k}. On suppose que la transformee en z (voir poly) de
la suite pk vaut

X
1
pk z k =
f (z) =
1 + a(1 z)
k=0

o`
u a est un param`etre reel strictement positif.
1. Calculer la moyenne E(X).

2. Montrer que la valeur de la variance est Var(X) = a(a + 1).


1
1
3. Verifier que f (z) =
eduire la valeur de pk en fonction de a et de

az . En d
1 + a 1 1+a
k.

54

Bibliographie
[1] B. Baynat. Theorie des files dattente. Hermes Sciences Publications, Paris, 2000.
[2] T. Rivest, C. Leiserson, and R. Rivest. Introduction `
a lalgorithmique. Dunod, Paris,
1994.
[3] A. Ruegg. Processus stochastiques, volume 6. Presses Polytechniques Romandes,
1989.
[4] G. Saporta. Theories et methodes de la statistique. Institut Francais du Petrole,
1978.
[5] A. Villemeur. S
urete de fonctionnement des syst`emes industriels, volume 67. Eyrolles.

55