Vous êtes sur la page 1sur 86

Universit des Sciences et Technologies de Lille

U.F.R. de Mathmatiques Pures et Appliques

Files dattente
et fiabilit

Michel Roussignol
Daniel Flipo

D.E.S.S. Ingnierie Statistique et Numrique

Table des matires


Introduction

Prsentation gnrale des files dattente


.

File dattente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

..

Description du modle . . . . . . . . . . . . . . . . . . . . . .

..

Comportement de la file dattente . . . . . . . . . . . . . . . .

Rseau de files dattente . . . . . . . . . . . . . . . . . . . . . . . . . .

..

Description du modle . . . . . . . . . . . . . . . . . . . . . .

..

Comportement du rseau . . . . . . . . . . . . . . . . . . . . .

Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Processus markoviens de sauts

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Dfinition dun processus markovien de sauts . . . . . . . . . . . . .

..

Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

..

Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

..

Proprit de Markov . . . . . . . . . . . . . . . . . . . . . . . .

. Matrice gnratrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

..

Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

..

Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

..

quations de Kolmogorov . . . . . . . . . . . . . . . . . . . . .

. Proprits asymptotiques . . . . . . . . . . . . . . . . . . . . . . . . .

..

Mesures invariantes, rversibles . . . . . . . . . . . . . . . . .

..

Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

..

Thorme ergodique . . . . . . . . . . . . . . . . . . . . . . . .

Files dattente

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Files M/M/. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

..

Cas M/M/1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

..

Cas M/M/ . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

..

Cas M/M/s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Files M/G/1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Rseaux de files dattente

Exemples simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

..

Un systme srieparallle . . . . . . . . . . . . . . . . . . . .

..

Un systme avec boucle . . . . . . . . . . . . . . . . . . . . . .

..

Un systme ferm . . . . . . . . . . . . . . . . . . . . . . . . . .

. Rseaux de Jackson . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Fiabilit de systmes simples

Dfinitions gnrales . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Test de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Exemples de lois utiles en fiabilit . . . . . . . . . . . . . . . . . . . .

..

Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . .

..

Loi (, ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

..

Loi de Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . .

..

Loi lognormale . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Systmes un lment . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Systmes simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

..

lments en srie . . . . . . . . . . . . . . . . . . . . . . . . . .

..

lments en parallle . . . . . . . . . . . . . . . . . . . . . . .

Fiabilit de systmes complexes


.

Reprsentation de la logique dun systme . . . . . . . . . . . . . . .

..

Diagramme de fiabilit . . . . . . . . . . . . . . . . . . . . . . .

..

Arbre de dfaillance . . . . . . . . . . . . . . . . . . . . . . . .

..

Coupes minimales . . . . . . . . . . . . . . . . . . . . . . . . .

ii

. Systmes markoviens . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Systmes non markoviens . . . . . . . . . . . . . . . . . . . . . . . . .

..

Mthode des tats fictifs . . . . . . . . . . . . . . . . . . . . . .

..

Mthode des variables complmentaires . . . . . . . . . . . .

Transformation de Laplace

Bibliographie

iii

iv

Introduction
Ce texte correspond un enseignement de heures dans le cadre du D.E.S.S.
dIngnierie Statistique et Numrique de lUniversit des Sciences et Technologies de Lille. Il sadresse des tudiants titulaires dune matrise de mathmatiques appliques ayant reu un cours de base en probabilits.
Le but du cours est de montrer comment on tudie des rseaux de files dattente
ou la fiabilit de certains systmes laide de techniques markoviennes. On prsente dabord les outils fondamentaux : chanes de Markov, processus markoviens de sauts. laide de ces outils on tudie des files dattente et des rseaux
de files dattente dont les lois de service sont exponentielles et dont les flots darrive sont poissonniens. Dans ce cadre on peut donner explicitement les conditions de stabilit et dcrire les tats stationnaires. Une lgre excursion hors de
ce cadre est effectue dans le cas o, soit le service est exponentiel, soit le flot
darrive est poissonnien, car on peut encore utiliser une chane de Markov pour
mener ltude.
On prsente ensuite les notions de base de la fiabilit et quelques outils danalyse des systmes complexes. Mais l aussi, lessentiel du cours concerne les systmes dcrits par des processus de Markov. Il sagit des systmes rparables dont
les taux de dfaillance et de rparation sont constants. Dans ce cas on montre
comment calculer la disponibilit et la fiabilit du systme ainsi que les grandeurs moyennes qui leur sont attaches. Un paragraphe voque des mthodes
qui permettent de ramener dans le cadre markovien des systmes dont le taux
de rparation nest pas constant.
Ce cours a t crit en Word par Michel Roussignol qui a eu la gentillesse de me
laisser ses originaux quand je lui ai succd. Je len remercie bien vivement. Je me
suis content de convertir son texte en LATEX et dy faire quelques modifications
et complments.
Daniel Flipo

vi

Chapitre
Prsentation gnrale
des files dattente
. File dattente
La salle de rservation dans une grande gare SNCF donne une bonne reprsentation dune file dattente. Elle comprend un certain nombre de guichets et des
clients qui sont, soit en train dtre servis, soit en attente. La salle de rservation
forme le systme. Elle peut tre de capacit totale finie ou infinie. Les clients arrivent de manire alatoire selon un flot rgulier. Les temps de service sont galement alatoires. On va chercher savoir si la longueur de la file dattente a un
comportement stationnaire et dans ce cas calculer sa loi. Cela permet doptimiser le nombre de guichets ncessaires pour satisfaire les clients.
On rencontre des files dattente dans de nombreux cas. On vient de voir une file
dattente dans un organisme fournissant un service un certain public. On rencontre une file dattente lentre dune unit dun systme informatique lorsque
les travaux qui arrivent se mettent en attente avant dtre traits par cette unit.
Il en est de mme lentre dun poste de travail dans une usine pour les pices
qui doivent tre traites ce poste. On mesure sur ces exemples lintrt de la
connaissance du mcanisme de formation dune file dattente pour optimiser un
systme informatique ou un atelier de production.

.. Description du modle
Une file dattente est dcrite par plusieurs lments : la loi des temps darrive
des clients, la loi des temps de service, le nombre de serveurs, la longueur maxi-

Chapitre . Prsentation gnrale des files dattente


mum de la file dattente, lordre dans lequel les clients sont servis. Reprenons
chacun de ces lments.
Les instants darrive des clients sont en gnral alatoires. Pour pouvoir calculer
des grandeurs caractristiques de la file dattente, on doit connatre les lois probabilistes de ces temps darrive, ou tout au moins faire certaines hypothses sur
ces lois qui seront vrifies en pratique et qui rendront les calculs possibles. La
premire hypothse faite est quil narrive quun client la fois. La deuxime hypothse est lhomognit dans le temps ; cela se traduit par le fait que les temps
dinterarrive des clients sont des variables alatoires qui ont mme loi. Cette hypothse est vrifie lorsque lon tudie une file dattente durant une priode o
les conditions qui amnent les clients sur la file sont semblables. Une autre hypothse qui sera faite dans ce cours est lindpendance probabiliste des temps
dinterarrive des clients ; cette hypothse simplifie notablement les calculs probabilistes mais elle est moins claire justifier en pratique ; on peut vrifier sa
validit en faisant des tests statistiques. Enfin on supposera connue la loi des
temps dinterarrive. Le cas le plus courant est celui o cette loi est une loi exponentielle. Dans ce cas le modle des temps darrive est appel un processus
de Poisson. Cette hypothse a deux mrites. Dabord elle est souvent vrifie en
pratique. Ensuite elle se prte bien au calcul probabiliste. videmment dautres
cas peuvent se prsenter : temps dinterarrive constants, de loi uniforme, de loi
lognormale, de loi gamma. . .
On suppose que les dures de service sont des variables alatoires indpendantes
de mme loi, indpendantes du processus des arrives. Ces hypothses sont souvent vrifies en pratique. Il est courant de supposer que cette loi est exponentielle. Cette hypothse simplifie les calculs, mais elle nest pas toujours vrifie.
On peut tre amen considrer des temps de services constants, de loi uniforme, de loi gamma, de loi lognormale. . .
Le nombre de serveurs est videmment un paramtre important du modle.
La longueur maximum de la file dattente est galement un paramtre du modle.
On peut supposer que la file dattente peut tre aussi longue que lon veut. Cest
raisonnable dans certains cas. Cependant dans dautres cas la longueur est limite et lorsque la longueur de la file est maximum, un client qui arrive ne peut pas
se mettre en file dattente et repart. Il faut tenir compte de ce phnomne dans
les calculs.
Le plus souvent les clients sont servis dans leur ordre darrive. Cest la discipline
de service FIFO (First In First Out). Mais dautres disciplines peuvent tre utilises.
Par exemple on peut servir en priorit certains types de clients, ou les clients
demandant un service de courte dure.
Pour rsumer les caractristiques dune file dattente, on utilise classiquement

.. File dattente
les notations de Kendall :
loi dinterarrive / loi de service / nombre de serveurs / longueur max. de la file
Les lois dinterarrives et les lois de services sont notes symboliquement : M
pour une loi exponentielle (M pour Markov on verra pourquoi plus tard), D pour
une loi dterministe (variable alatoire constante), U pour une loi uniforme, G
pour une loi quelconque (gnrale). Par exemple une file M/M/s/ signifie que
le flot darrives des clients est poissonnien, la loi de service est exponentielle, il y
a s serveurs et la capacit de la salle dattente est illimite. Lorsquon ne spcifie
pas le dernier paramtre celui-ci est infini. Sauf avis contraire la discipline de
service est FIFO.
Deux grandeurs interviennent pour caractriser le modle : le nombre moyen
darrives par unit de temps et la dure moyenne dun service. Ces nombres se
dduisent des lois dinterarrive et de service. Par exemple si le processus darrive est poissonnien, le temps moyen dinterarrive vaut linverse du paramtre
de la loi exponentielle et le nombre moyen darrives par unit de temps vaut ce
paramtre. Si la loi du temps de service est exponentielle, la dure moyenne de
service vaut linverse du paramtre de la loi exponentielle.

.. Comportement de la file dattente


On cherche tudier lvolution dans le temps de la longueur de la file dattente.
Deux cas peuvent se produire lorsque la longueur de la file nest pas limite. Dans
le premier cas la file peut grandir de plus en plus et sa longueur tendre vers linfini. Dans le deuxime cas la file se stabilise ; il y a des fluctuations mais un tat
stationnaire se met en place. La premier problme rsoudre est de prvoir selon les paramtres de modle dans quel cas on se trouve. Intuitivement on peut
donner une rponse. Si est le nombre moyen darrives par unit de temps, si
est le nombre moyen de clients que chaque serveur peut servir par unit de
temps et si s est le nombre de serveurs, la file dattente se stabilise sil narrive pas
trop de clients pour saturer loffre de service, cest--dire si est plus petit que
s. Il faut donner un sens prcis ces concepts et dmontrer ce rsultat. Lorsque
la longueur de la file est limite, un rgime stationnaire stablit toujours.
Dans le cas o un rgime stationnaire stablit, il est intressant de connatre la
loi de probabilit ou tout au moins la valeur moyenne dun certain nombre de
grandeurs caractristiques. On peut citer la longueur de la file dattente, le temps
pass par un client en attente, le nombre de serveurs occups. Dans le cas dune
file dattente M/M/s, nous calculerons analytiquement ces lois de probabilits
et les valeurs moyennes associes. Dans dautres cas, nous pourrons seulement

Chapitre . Prsentation gnrale des files dattente


calculer les valeurs moyennes. Dans tous les cas il est possible de simuler le fonctionnement de la file dattente pour obtenir des informations sur ces lois de probabilits par des techniques statistiques.

. Rseau de files dattente


Le fonctionnement dun atelier de production peut tre modlis par plusieurs
files dattente en interaction. Chaque poste de travail constitue une entit o un
service est rendu, les lments ncessaires pour ce service tant en attente, les
produits raliss partant vers dautres postes de travail, puis vers lextrieur la
fin de la chane de traitement. Ceci constitue un systme de files dattente en interaction, un rseau de files dattente. Un systme informatique est aussi constitu de plusieurs lments qui traitent plusieurs programmes la fois, chaque
programme attendant avant dtre trait par un lment que son tour arrive, puis
partant vers un autre lment et ainsi de suite jusqu la fin du traitement.

.. Description du modle
La description dun rseau de files dattente comprend la description de chaque
file dattente du rseau (on dira souvent chaque station du rseau) et la description de la circulation des clients entre ces stations et entre lextrieur et le rseau.
La description de chaque station est celle vue au paragraphe prcdent. Chaque
client qui entre dans une station se met en attente et reoit un service selon les
rgles de la station.
Le modle le plus simple de circulation des clients entre les stations est le suivant.
Chaque station est ventuellement alimente de lextrieur par un flot rgulier
darrive de clients et reoit de la sortie dun certain nombre de stations un flot
de clients. la sortie de chaque station, chaque client se dirige soit vers lextrieur, soit vers une autre station du rseau selon un tirage au sort de probabilit
donne.
Un tel rseau de files dattente est donc dcrit par les caractristiques internes de
chaque station (nombre de serveurs, loi de service, longueur maximum de la file,
discipline de service), par la loi des temps darrive de lextrieur en chaque station et par les probabilits de routage la sortie de chaque station vers lextrieur
ou vers chacune des autres stations.
Le modle darrive le plus courant est le processus de Poisson. On suppose que
pour chaque flot darrive de clients de lextrieur vers une station, les temps dinterarrive des clients forment une suite de variables alatoires indpendantes

.. Rseau de files dattente


de mme loi exponentielle. Ce modle est souvent observ en pratique et est
commode pour faire des calculs probabilistes. Mais on peut observer dautres
modles darrive de clients avec des temps dinterarrive constants ou suivant
dautres lois de probabilit. La paramtre le plus important est le nombre moyen
darrives par unit de temps en chaque station.
Le routage la sortie de chaque station est caractris par la probabilit de sortie
vers lextrieur et les probabilits de transit vers les stations du rseau. Certaines
de ces probabilits peuvent tre nulles. Ce sont les probabilits non nulles qui
dterminent les transits pouvant effectivement se raliser.
On distingue deux types de rseaux : les rseaux ferms et les rseaux ouverts. Un
rseau ferm na aucun lien avec lextrieur. Un rseau ouvert a au moins un flux
dentre et un flux de sortie.

.. Comportement du rseau
Comme pour une seule file dattente, la premire tape de ltude dun rseau
consiste savoir si le rseau va saturer, cest--dire si la longueur dau moins une
des files dattente va tendre vers linfini. En gnral il est assez facile de calculer
les flux moyens qui stablissent entre les stations si un rgime stationnaire se
met en place. En effet il suffit dcrire que les flots moyens dentre et de sortie
en chaque station sont gaux pour obtenir un systme linaire qui permet de
calculer le flux moyen de clients sur chaque lien du rseau en rgime stationnaire.
En comparant pour chaque station le flux moyen dentre et loffre moyenne de
service, on peut dterminer sil y a saturation ou non.
Lorsquil ny a pas saturation stablit un rgime stationnaire. Il est alors intressant de connatre les lois de probabilit ou tout au moins les valeurs moyennes
des grandeurs caractristiques en chaque station : longueur de la file dattente,
temps pass par un client en attente, nombre de serveurs occups. Dans le cas
o toutes les files dattente sont M/M/s et o les routages sont suffisamment
simples , on sait calculer ces lois de probabilit. Dans les autres cas, on a la plupart du temps recours aux techniques de simulation.
Cette tude permet de guider des choix pour optimiser le comportement du rseau. Bien sr en pratique les rseaux tudis sont souvent plus complexes que
ceux voqus ci-dessus. Il peut y avoir plusieurs classes de clients. Diverses synchronisations entre les services peuvent exister. Les tudes analytiques donnent
alors des rsultats insuffisants et on utilise les techniques de simulation.
. Ce point sera prcis au chapitre traitant des rseaux de Jackson.

Chapitre . Prsentation gnrale des files dattente

. Simulation
Lorsque le modle tudi est trop compliqu pour faire des calculs analytiques,
on a recours aux techniques de simulation. On simule le modle sur ordinateur
et on traite les rsultats observs par des techniques statistiques.
Pour illustrer ceci on va donner un exemple simple de simulation. Un atelier se
compose de quatre postes dont trois machines dusinage (M, M, M) et un
poste de contrle manuel (C). Il est organis comme indiqu ci-dessous.
Les quatre postes sont prcds de files dattente (stocks tampons) dans lesquels
saccumulent les pices en attente de traitement. Latelier produit deux types de
pices P et P dont les caractristiques sont les suivantes :
P arrive en M sur lequel elle est usine en mn, puis passe en M sur lequel
elle est usine en mn ; ensuite elle passe au poste de contrle manuel C ; le
temps de contrle est variable et peut tre considr comme uniformment
distribu entre et mn ; enfin P sort de latelier.
P arrive en M sur lequel elle est usine en mn ; elle passe en M sur lequel
elle est usine en mn ; puis elle passe au contrle C ; le temps de contrle est
du mme type que pour P.
Les pices arrivent dans latelier de manire alatoire. On a pu estimer quelles
arrivent selon un processus de Poisson, le temps moyen dinterarrive tant de
mn. Il y a % de pices P et % de pices P et on suppose que lorsquune
pice arrive, elle est de type P avec probabilit . et du type P avec probabilit
..
Au poste de contrle, % des pices sont envoyes au rebut. Partout les pices
sont traites par ordre darrive.
Le problme est dvaluer les performances de ce systme de production. On
peut dj faire une analyse des flux moyens travers ce systme si un tat stationnaire stablit. Il arrive en moyenne pices par heure, dont . pices P et
. pices P. Dans la station M la demande moyenne de service pendant une
heure vaut : .x+.c=. mn, soit un taux dutilisation de ./=.. En M
la demande moyenne de service par heure vaut .x=. mn, soit un taux dutilisation de ./=.. En M la demande moyenne de service par heure vaut
.x= mn, soit un taux dutilisation de /=.. En C la demande moyenne
de service par heure vaut x.= mn, soit un taux dutilisation de /=..
Aucun poste nest satur en moyenne. Un rgime stationnaire doit stablir. On
veut connatre pour ce rgime les tailles moyennes des stocks intermdiaires et
les temps de sjour moyens des pices dans le systme.
Plusieurs logiciels existent sur le march pour effectuer ce genre de simulation,
par exemple Qnap distribu par la socit Simulog, filiale de lInria, ou Witness
distribu par le groupe Lanner.

.. Simulation
Malheureusement, les tarifs proposs par les diteurs aux tablissements denseignement nous ont fait renoncer les prsenter dans le cadre de ce cours.
Les rsultats de la simulation sous Qnap sont donns dans le tableau suivant o
les quantits suivantes interviennent :
SERVICE temps moyen de service dans la station pour un type de client,
BUSY PCT taux dutilisation de la station,
CUST NB nombre moyen de clients dans la station,
RESPONSE temps moyen pass dans la station pour un type de client,
SERV NB nombre total de clients ayant transit dans la station.
TIME = .
NAME
C
(P)
(P)
M
(P)
(P)
M
(P)
M
(P)

SERVICE
.
.
.
.
.
.
.
.
.
.

BUSY PCT
.
.
.
.
.
.
.
.
.
.

CUST NB
.
.
.
.
.
.
.
.
.
.

RESPONSE
.
.
.
.
.
.
.
.
.
.

SERV NB

Chapitre . Prsentation gnrale des files dattente

Chapitre
Processus markoviens de sauts
. Introduction
Dans ce chapitre nous allons tudier des processus de Markov qui permettent
de modliser et dtudier des files dattente. Nous commencerons par donner
des proprits du processus de Poisson qui modlise les arrives de clients dans
une file. Puis nous dfinirons les processus markoviens de sauts et tudierons
certaines de leurs proprits.
Un processus stochastique est une famille (X t )t 0 de variables alatoires indexes
par le temps t . Les variables alatoires X t que nous tudierons dans ce cours
prennent leurs valeurs dans une espace E dnombrable. Par exemple E est gal
N lorsque X t reprsente le nombre de clients prsents dans une file dattente
au temps t . Dans un rseau de quatre stations, E est gal N4 lorsque le processus X t vaut (X 1 (t ), X 2 (t ), X 3 (t ), X 4 (t )) o X i (t ) reprsente le nombre de clients
prsents dans la station i , (i = 1, 2, 3, 4) au temps t .
Nous allons tudier des processus de Markov. Il sagit de processus X t tels que la
loi du processus aprs un instant t dpend du pass du processus uniquement
travers la connaissance de X t . Lorsque X t reprsente le nombre de clients prsents dans une file dattente, la proprit de Markov est vrifie si le flux dentre
est Poissonnien et si les temps de service ont des lois exponentielles. Lintrt des
processus de Markov est que lon peut obtenir une description complte de ltat
stationnaire quand il existe.

Chapitre . Processus markoviens de sauts

. Processus de Poisson
Nous allons tudier un modle appel processus de Poisson. Ce processus reprsente par exemple les instants darrives successifs de clients dans une file
dattente.
On note T1 linstant darrive du premier client, T2 le deuxime, Tk le k-me et
ainsi de suite. La suite (Tk )k1 est une suite croissante de variables alatoires
valeurs dans R+ .
On note i les dures des intervalles interarrives : pour i 2, i = Ti Ti 1 et
1 = T1 . La suite (i )i 1 est donc galement une suite de variables alatoires
valeurs dans R+ .
Dfinition .. Si les variables alatoires (i )i 1 sont indpendantes et de mme
P
loi exponentielle de paramtre a (a > 0), on dit que la suite (Tk = ki=1 i )k1 est
la suite des instants de saut dun processus de Poisson de paramtre a.
Rappelons la densit de la loi exponentielle : f (x) = aeax 1x>0 . Lesprance et la
variance dune variable exponentielle de paramtre a sont donnes par
E() =

1
,
a

Var() =

a2

Les proprits suivantes des variables exponentielles, absence de mmoire, minimum et somme de variables indpendantes, joueront un rle crucial dans la
suite.
Proposition .. (absence de mmoire) Une variable alatoire densit est
exponentielle si et seulement si
s > 0, t > 0,

P( > t + s | > t ) = P( > s).

Cette proprit permet de poser T0 = 0, cest--dire de supposer quun client arrive linstant 0.
Dmonstration. faire en exercice.
Proposition .. Si 1 et 2 sont deux variables exponentielles indpendantes
de paramtres a 1 et a 2 , alors la variable inf(1 , 2 ) suit une loi exponentielle de
paramtre a 1 + a 2 . De plus,
P(1 < 2 ) =
Dmonstration. faire en exercice.

a1

a1 + a2

.. Processus de Poisson
Proposition .. La somme de n variables alatoires indpendantes de loi exponentielle de paramtre a suit une loi (appele loi Gamma de paramtres n et a)
dont la densit est
(ax)n1 ax
e
1x0 .
f n (x) = a
(n 1)!
En particulier, pour tout n 1, la variable alatoire Tn a la densit f n ci-dessus.
Dmonstration. f n (x) est la convolue n-fois de la densit exponentielle f 1 (x).
La dmonstration est facile par rcurrence sur n.
Pour un temps t fix, on va sintresser la variable alatoire Nt gale au nombre
de clients arrivs dans lintervalle ]0, t ] :
Nt =

1Tm t .

m1

Nt est une variable alatoire discrte valeurs dans N. On lappelle fonction de


comptage du processus au temps t .
Proposition .. La variable alatoire Nt , fonction de comptage dun processus
de Poisson de paramtre a, suit une loi de Poisson de paramtre at .
Dmonstration. Lvnement {Nt n} est gal {Tn t } et on connat la densit
de Tn . On a donc :
P(Nt n) = P(Tn t )
Z t n n1 ax
a x
e
dx
=
(n 1)!
0
n1

x
et en intgrant par parties en posant d u = (n1)!
dx et v = a n eax :

a n t n eat
+ P(Tn+1 t )
n!
a n t n eat
=
+ P(Nt n + 1).
n!
=

Finalement
a n t n at
P(Nt = n) = P(Nt n) P(Nt n + 1) =
e .
n!
La loi des instants de saut T1 , T2 , . . . , Tk dun processus de Poisson se dduit facilement de celle des (i )1i k :

Chapitre . Processus markoviens de sauts


Proposition .. La loi du vecteur (T1 , T2 , . . . , Tk ) des k premiers instants de saut
dun processus de Poisson a pour densit
f (t 1 , t 2 , . . . , t k ) = a k eatk 10<t1 <t2 <<tk .
Dmonstration. La loi de (T1 , T2 , . . . , Tk ) se dduit de celle de (1 , 2 , . . . , k ) par le changement de
variables (u 1 , u 2 , . . . , u k ) (t 1 , t 2 , . . . , t k ) dfini par

t1

t2

t
k

=
=
..
.
=

u1
u1 + u2

u1

u2

u1 + u2 + + uk

u
k

=
=
..
.
=

t1
t2 t1
t k t k1

Cest un diffomorphisme de classe C 1 de D = {0 < t 1 < t 2 < . . . < t k } dans = (R+ )k . Son jacobien
vaut 1 (systme linaire triangulaire), le thorme de changement de variables donne pour h
fonction borlienne positive
E[h(T1 , T2 , . . . , Tk )] = E[h(1 , 1 + 2 , . . . , 1 + + k )]
Z
k
Y
h(u 1 , u 1 + u 2 , . . . , u 1 + + u k )
aeaui du 1 . . . du k
=
k
(R
+)

Z
=

h(t 1 , t 2 , . . . , t k ) eatk a k dt 1 . . . dt k

Z
=

i =1

k
(R
+)

h(t 1 , t 2 , . . . , t k ) 10<t1 <t2 <<tk eatk a k dt 1 . . . dt k .

Les instants de saut dun processus de Poisson vrifient la proprit intressante


suivante : lorsquon sait quexactement n sauts ont eu lieu dans lintervalle [0, t ],
la distribution de ces sauts dans [0, t ] est celle de n points tirs uniformment au
hasard dans cet intervalle :
Thorme .. Conditionnellement en {Nt = n}, la loi du vecteur (T1 , T2 , . . . , Tn )
des n premiers instants de saut dun processus de Poisson est la mme que celle
du rordonnement par ordre croissant dune suite de variables alatoires indpendantes de mme loi uniforme sur [0, t ].
Autrement dit : si on tire des variables alatoires X 1 , X 2 , . . . , X n indpendantes de
loi uniforme sur [0, t ] et si on les rordonne en posant
Y1 = min X i < Y2 < < Yn = max X i ,
1i n

1i n

alors la loi conditionnelle de (T1 , T2 , . . . , Tn ) sachant Nt = n est la mme que celle


de (Y1 , Y2 , . . . , Yn ).
Dmonstration. La densit de probabilit du vecteur alatoire (T1 , T2 , . . . , Tk ) tant donne par la

.. Processus de Poisson
proposition .., on calcule pour h fonction borlienne positive
E[h(T1 , T2 , . . . , Tn ) 1Nt =n ] = E[h(T1 , T2 , . . . , Tn ) 1Tn t <Tn+1 ]
Z
=
h(t 1 , t 2 , . . . , t n ) 1tn t <tn+1
(R+ )n+1
at n+1

a n+1 10<t1 <t2 <...<tn+1 dt 1 dt 2 . . . dt n+1 .

En intgrant en t n+1 on obtient


Z
E[h(T1 , T2 , . . . , Tn ) 1Nt =n ] =

(R+ )n

h(t 1 , t 2 , . . . , t n ) 10<t1 <t2 <...<tn t dt 1 dt 2 . . . dt n


Z
eatn+1 a n+1 dt n+1
t

Z
=

(R+ )n

h(t 1 , t 2 , . . . , t n ) 10<t1 <t2 <...<tn t


eat a n dt 1 dt 2 . . . dt n .

On divise cette expression par P(Nt = n) = eat (at )n /n!, do lesprance conditionnelle
Z
E[h(T1 , T2 , . . . , Tn ) | Nt = n] =

Rn

h(t 1 , t 2 , . . . , t n )

n!
10<t1 <t2 <...<tn <t dt 1 . . . dt n .
tn

La densit du vecteur (T1 , T2 , . . . , Tn ) conditionnellement en Nt = n est donc


g (t 1 , t 2 , . . . , t n ) =

n!
10<t1 <t2 <...<tn <t .
tn

Il reste vrifier que g est aussi la densit du rordonnement de n points tirs uniformment
au hasard sur [0, t ]. La densit du vecteur (X 1 , X 2 , . . . , X n ) est t n sur le pav [0, t ]n , on subdivise
celui-ci en n! secteurs (S k )1kn! correspondant aux diffrentes permutations des (x i ) et on fait
sur chaque secteur le changement de variable (x 1 , . . . , x n ) 7 (y 1 , . . . , y n ) (rordonnement par ordre
croissant), dont le jacobien vaut 1 :
E[h(Y1 , . . . , Yn )] =

X Z
1kn! S k

h(x (1) , . . . , x (n) )

Z
= n!

0<y 1 <...<y n

h(y 1 , . . . , y n )

1
dx 1 . . . dx n
tn

1
dy 1 . . . dy n ,
tn

do le rsultat.

Le rsultat prcdent est la base du test de Laplace utilis en fiabilit (voir chapitre ). On lutilise galement pour calculer les probabilits P(Nu = k | Nt = n)
avec 0 k n et 0 < u < t . Les X i tant tires uniformment au hasard sur [0, t ],
chacune delles a probabilit u/t de tomber dans [0, u]. La loi du nombre dentre
elles qui tombe dans [0, u] est donc binomiale de taille n et de paramtre u/t .
P(Nu = k | Nt = n) = Cnk

u k
u nk
.
1
t
t

Chapitre . Processus markoviens de sauts


Plus gnralement, conditionnellement en {Nt = n}, la rpartition des n instants
de saut dans les k intervalles ]t i 1 , t i ]1i k , o t 0 = 0 < t 1 < < t k = t , suit une
loi multinomiale :
(.)

P(Nt1 = n 1 , Nt2 Nt1 = n 2 , . . . , Ntk N(t k1 ) = n k | Nt = n)

k t t
Y
n!
i
i 1 n i
avec n = n 1 + n 2 + + n k .
=
n 1 ! n 2 ! . . . n k ! i =1
t

Nous allons maintenant nous intresser Nt en tant quapplication de R+ dans


lensemble des variables alatoires valeurs dans N. chaque temps t on associe une variable alatoire discrte valeurs dans N. On dit que (Nt )t 0 est
une processus temps continu dont lespace dtats est N. Pour chaque exprience , la fonction de R+ dans N qui t associe Nt () est une fonction croissante, constante par morceaux, qui part de 0 et qui saute de +1 en chaque instant
darrive Tn ().
Voici une deuxime caractrisation du processus de Poisson faisant intervenir la
fonction de comptage au lieu des intervalles interarrives :
Thorme .. La fonction de comptage (Nt )t R+ dun processus de Poisson de
paramtre a est accroissements indpendants :
k 2, t 0 < t 1 < . . . < t k , les v.a. (Nti Nti 1 )1i k sont indpendantes
et pour tous t > 0 et s > 0 la variable Nt +s Ns suit une loi de Poisson de paramtre at .
Rciproquement toute fonction de comptage ayant ces deux proprits dfinit
un processus de Poisson de paramtre a : les intervalles interarrives sont des
variables indpendantes exponentielles de paramtre a.
Un processus de Poisson de paramtre a peut donc tre dfini
soit partir de ses instants de sauts, en disant que la suite des i = Ti Ti 1 est
une suite de variables alatoires indpendantes de mme loi exponentielle de
paramtre a,
soit partir de sa fonction de comptage N(t ), en disant que N(t ) est accroissements indpendants et que pour tout couple (t , s) de rels (t 0, s > 0) laccroissement N(t + s) N(t ) suit une loi de Poisson de paramtre as.
Dmonstration. On veut montrer que k 1 pour toute suite croissante de rels 0 = t 0 < t 1 <
t 2 < . . . < t k et pour toute suite (n 1 , n 2 , . . . , n k ) dentiers 0,
P(Nt1 = n 1 Nt2 Nt1 = n 2 . . . Ntk Ntk1 = n k )
=

[a(t k t k1 )]nk a(tk tk1 )


(at 1 )n1 at1 [a(t 2 t 1 )]n2 a(t2 t1 )
e

e
.
n1 !
n2 !
nk !

.. Processus de Poisson
Posons n = n 1 + n 2 + + n k et conditionnons par {Ntk = n} pour utiliser lgalit (.) :
P(Nt1 = n 1 Nt2 Nt1 = n 2 . . . Ntk Ntk1 = n k )
= P(Nt1 = n 1 Nt2 Nt1 = n 2 . . . Ntk Ntk1 = n k | Ntk = n) P(Ntk = n)

(at )n
k t t
Y
n!
i
i 1 n i
k
eatk
(en posant t 0 = 0)
=
n 1 ! n 2 ! . . . n k ! i =1
tk
n!
k ni

ni
k a n i (t t
Y a (t i t i 1 )ni at
Y
i
i 1 )
=
e k=
ea(ti ti 1 ) .
ni !
ni !
i =1
i =1
Rciproque : on suppose la fonction de comptage N accroissements indpendants et on calcule
pour 0 < t 1 < t 2 < . . . < t k , la fonction
G(t 1 , t 2 , . . . , t k ) = P(0 < T1 t 1 < T2 t 2 < . . . < t k2 Tk1 < t k1 < Tk t k )
= P(Nt1 N0 = 1 Nt2 Nt1 = 1 . . .
Ntk1 Ntk2 = 1 Ntk Ntk1 1)
= at 1 e

at 1

a(t 2 t 1 ) ea(t2 t1 )
a(t k1 t k2 ) ea(tk1 tk2 ) (1 ea(tk tk1 ) )

= a k1 t 1 (t 2 t 1 ) (t k1 t k2 )(eatk1 eatk ).
La suite des (T j ) tant p.s. strictement croissante, la loi du vecteur T1 , T2 , . . . , Tk est porte par le
sous-ensemble {0 < t 1 < t 2 < . . . < t k } de Rk+ . Sur cette partie, G est de classe C en t 1 , t 2 , . . . , t k et
reprsente essentiellement la fonction de rpartition F du vecteur T1 , T2 , . . . , Tk , prcisons les
choses dans le cas k = 3 :
G(t 1 , t 2 , t 3 ) = P(0 < T1 t 1 < T2 t 2 < T3 t 3 )
= P(T1 t 1 T2 t 2 T3 t 3 (T2 > t 1 T3 > t 2 ))
= P(T1 t 1 T2 t 2 T3 t 3 )
P((T1 t 1 T2 t 2 T3 t 3 ) (T2 t 1 T3 t 2 ))
= F(t 1 , t 2 , t 3 ) P((T2 t 1 T3 t 3 ) (T1 t 1 T3 t 2 ))
= F(t 1 , t 2 , t 3 )
P(T2 t 1 T3 t 3 ) P(T1 t 1 T3 t 2 ) + P(T2 t 1 T3 t 2 )
ce qui tablit, dans le cas k = 3, que G et F ont donc mme drive par rapport t 3 , t 2 , t 1 . Il en est
de mme dans le cas gnral :
k F(t 1 , t 2 , . . . , t k ) k G(t 1 , t 2 , . . . , t k )
=
= a k eatk .
t 1 t 2 . . . t k
t 1 t 2 . . . t k
La loi du vecteur T1 , T2 , . . . , Tk admet donc une densit sur Rk+ de la forme
f (t 1 , t 2 , . . . , t k ) = a k eatk 10<t1 <t2 <...<tk ,
on reconnat la loi trouve la proposition .., ce qui tablit la rciproque.

En reformulant le rsultat de la proposition prcdente on montre que pour toute


suite strictement dcroissante dinstants s, t , t 1 , t 2 , . . ., t k et toute suite dcroissante dentiers j , i , i 1 , i 2 ,. . ., i k :
P(Ns = j | Nt = i , Nt1 = i 1 , . . . , Ntk = i k ) = P(Ns = j | Nt = i ) = P(Nst = j i )

Chapitre . Processus markoviens de sauts


Le processus temps continu (Nt )t 0 vrifie une proprit de perte de mmoire
identique celle vue pour les chanes de Markov. Il sagit de la proprit de dfinition des processus de Markov homognes en temps continu que nous retrouverons dans le paragraphe suivant. Ceci constitue une troisime caractrisation
du processus de Poisson :
Thorme .. Une fonction de comptage (Nt )t R+ est celle dun processus de
Poisson si et seulement si elle vrifie
(.)
k N , s > 0, t 1 < t 2 < < t k (rels > 0), j , i 1 i 2 i k i (entiers),
P(Nt +s = i + j | Nt = i , Ntk = i k , . . . , Nt1 = i 1 ) = P(Nt +s = i + j | Nt = i )
=

(as) j as
e .
j!

Dmonstration. Pour toute suite strictement dcroissante dinstants t 1 , t 2 , . . ., t k , t et toute suite


croissante dentiers i 1 , i 2 ,. . ., i k , i , calculons la probabilit :
P(Nt +s = i + j | Nt = i , Ntk = i k , . . . , Nt1 = i 1 )
= P(Nt +s Nt = j | Nt Ntk = i i k , . . . , Nt2 Nt1 = i 2 i 1 , Nt1 N0 = i 1 )
N tant accroissements indpendants :
= P(Nt +s Nt = j ) = P(Nt +s Nt = j | Nt N0 = i ) = P(Nt +s = i + j | Nt = i ).
Enfin, les accroissements suivant des lois de Poisson, on a
P(Nt +s Nt = j ) =

(as) j as
e .
j!

Rciproquement, si N vrifie la proprit de Markov ci-dessus, en utilisant lgalit P(An An1


A1 ) = P(A1 ) P(A2 | A1 ) . . . P(An | An1 A1 ) on obtient :
P(Ntk Ntk1 = n k . . . Nt2 Nt1 = n 2 Nt1 = n 1 )
= P(Nt1 = n 1 ) P(Nt2 Nt1 = n 2 | Nt1 = n 1 )
P(Ntk Ntk1 = n k | Ntk1 Ntk2 = n k1 . . . Nt1 = n 1 )
= P(Nt1 = n 1 ) P(Nt2 = n 1 + n 2 | Nt1 = n 1 )
P(Ntk = n k + + n 1 | Ntk1 = n k1 + + n 1 . . . Nt1 = n 1 )
soit, en utilisant (.) :
=

[a(t k t k1 )]nk a(tk tk1 )


[at 1 ]n1 at1 [a(t 2 t 1 )]n2 a(t2 t1 )
e

e
n1 !
n2 !
nk !

donc N est bien un processus de Poisson (cf. thorme ..).

.. Processus de Poisson
Le processus de Poisson se retrouve dans de nombreuses applications. On a dj
parl des flots darrive de clients dans les files dattente. Le processus de Poisson modlise galement les temps de dsintgration dune particule radioactive.
Ce modle se retrouve dans les appareils de radiographie en mdecine nuclaire.
Les temps de passage de voitures sur une route grande circulation non embouteille constituent galement un processus de Poisson.
Terminons en donnant deux rsultats sur la superposition de processus de Poisson indpendants et sur lopration inverse de dcomposition.
Thorme .. Soient (N1t ) et (N2t ) deux processus de Poisson indpendants ( i.e.
tout vnement li lun est indpendant de tout vnement li lautre), de
paramtres respectifs a 1 et a 2 , on appelle superposition de ces deux processus le
processus somme :
t R+ , Nt = N1t + N2t .
Alors (Nt ) est un processus de Poisson de paramtre a = a 1 + a 2 .
Inversement, si (Nt ) est un processus de Poisson de paramtre a, on associe
aux instants de saut (Tn )nN) de ce processus une suite de variables de Bernoulli
(Yn )nN) indpendantes, indpendantes du processus (Nt ) et de mme loi :
n N,

P(Yn = 1) = p,

P(Yn = 0) = 1 p.

Soit (N1t ) (resp. (N2t )) le processus dont les instants de saut sont les (Tn ) tels que
Yn = 1 (resp. Yn = 0), alors (N1t ) et (N2t ) sont des processus de Poisson de paramtres a 1 = ap et a 2 = a(1 p) respectivement.
Exemples dapplication :
sur une voie double sens, si les flux de vhicules venant de droite et de gauche
sont deux processus de Poisson de paramtres a 1 et a 2 respectivement, le flux
global de vhicules est un processus de Poisson de paramtre a 1 + a 2 ;
si le flux total de voitures est un processus de Poisson de paramtre a et que
% des voitures sont rouges, le flux de voitures rouges est aussi un processus
de Poisson (de paramtre 0, 05a).
Dmonstration. ) Superposition : il est clair que le processus somme (Nt ) est accroissements
indpendants. Dautre part la somme de deux variables de Poisson indpendantes, de paramtres
et est une variable de Poisson de paramtre + ( vrifier directement ou en utilisant les
fonctions gnratrices), donc pour tous t , s > 0, N3t +s N3t somme de deux variables de Poisson de
paramtres a 1 s et a 2 s, suit une loi de Poisson de paramtre (a 1 + a 2 )s et daprs le thorme ..
(N3t ) est un processus de Poisson de paramtre a 1 + a 2 .
) Dcomposition : il est facile de voir que la suite des intervalles interarrives du processus (N1t )
(ou (N2t )) est une suite de variables indpendantes. Il reste vrifier que ces intervalles interarrives suivent des lois exponentielles de mme paramtre. Supposons que Yn = 1 et plaons nous

Chapitre . Processus markoviens de sauts


linstant Tn , notons lintervalle interarrive suivant pour le processus (N1t ), sa loi est donne
par :
P( > t ) =
=
=

X
k=1

X
k=1

P( > t Yn+1 = 0 Yn+k1 = 0 Yn+k = 1)


P(1 + + k > t Yn+1 = 0 Yn+k1 = 0 Yn+k = 1)
P(1 + + k > t )(1 p)k1 p

(indpendance)

k=1

(1 p)k1 p

k=1

Z
=

Z
=

a
t

(au)k1 au
e
du
(k 1)!

(a(1 p)u)k1
X
du
(k 1)!
k=1

(loi gamma)
(Tonelli-Fubini)

ap eau ea(1p)u du

Z
=

ap eau

ap eapu du.

Donc est bien exponentielle de paramtre ap et (N1t ) est un processus de Poisson de paramtre ap.

. Dfinition dun processus markovien de sauts


Nous allons chercher modliser un systme qui est valeurs dans un espace E
fini ou dnombrable et qui volue dans le temps. chaque instant, le systme
est dcrit par une variable alatoire valeurs dans E. Alors que pour une chane
de Markov le temps est suppos discret, pour un processus markovien de sauts
le temps est continu. On note X t la variable alatoire reprsentant le systme au
temps t (t R+ ). On appelle processus alatoire la famille de variables alatoires
(X t )t R+ . Un processus de sauts est un processus qui volue par sauts successifs
des instants alatoires. Un processus de Markov est un processus alatoire dont
la loi du processus aprs un instant t dpend du pass du processus uniquement
travers la connaissance de X t .

.. Dfinitions
Dfinition .. La famille (X t )t 0 de variables alatoires valeurs dans un espace fini ou dnombrable E est appele un processus de sauts si pour tout
de lespace de probabilit, la fonction de R+ dans E qui t associe X t () est
constante par morceaux, continue droite, limite gauche et la suite des instants de saut de cette fonction est une suite infinie qui tend vers linfini.

.. Dfinition dun processus markovien de sauts


Lhypothse de continuit droite et de limite gauche est assez naturelle. On
exclut de notre tude des processus dont les temps de sauts saccumuleraient
sur un temps fini.
Notons (Tn )n0 la suite des instants de saut du processus (X t )t 0 . Nous allons
nous intresser une classe de processus de sauts appels processus markoviens
de sauts. Ces processus voluent de la manire suivante. Si le processus se trouve
dans ltat x lissue du saut intervenant linstant Tn , le temps de sjour dans
ltat x (Tn+1 Tn ) suit une loi exponentielle de paramtre (x). Le paramtre de
cette loi dpend de ltat x o le processus se trouve. part cette dpendance
de ltat x, Tn+1 Tn est indpendante du pass du processus. linstant Tn+1 , le
processus saute de ltat x ltat y (x 6= y) avec une probabilit Q(x, y) indpendante de Tn+1 Tn et du pass. Lvolution du processus est donc dtermine par
une suite de rels ((x)), (x E) et une matrice markovienne (Q(x, y), (x, y) E2 ),
telle que Q(x, x) = 0 pour tout tat x. On supposera toujours que la suite ((x))xE
est borne et forme de nombres strictement positifs. De manire plus formelle,
on peut donner la dfinition suivante :
Dfinition .. Soit (X t )t 0 un processus de sauts valeurs dans un espace E,
dinstants de sauts (Tn )nN . (X t )t 0 est un processus markovien de sauts sil existe
une suite borne de nombres rels ((x), x E) strictement positifs,
une matrice markovienne (Q(x, y), (x, y) E2 ) de diagonale nulle,
tels que pour tout entier n, pour tous x n+1 , x n , x n1 . . . , x 0 E et pour tous
u n+1 , u n , u n1 . . . , u 0 R+ :
P(X Tn+1 = x n+1 , Tn+1 Tn > u n+1 | X Tn = x n , Tn Tn1 > u n ,
X Tn1 = x n1 , Tn1 Tn2 > u n2 , . . . , X T1 = x 1 , T1 T0 > u 0 , X T0 = x 0 )
= exp((x n )u n+1 )Q(x n , x n+1 ).

.. Exemples
Processus de Poisson
Nous avons tudi au chapitre prcdent le processus de Poisson. Nous avons vu
que le processus de comptage (Nt )t 0 est un processus alatoire valeurs dans N,
qui vaut 0 au temps 0 et qui saute de 1 chacun des instants alatoires Ti qui
caractrisent le modle. Quand le processus est dans ltat i , il saute en i + 1 au
bout dun temps alatoire de loi exponentielle de paramtre .

Chapitre . Processus markoviens de sauts


Processus deux tats
Considrons une machine qui peut tre soit en tat de marche, soit en panne. On
note X t la variable alatoire gale 0 si la machine est en panne linstant t et
gale 1 si elle est en tat de marche linstant t .
Nous faisons lhypothse que les temps de fonctionnement de cette machine
sont des variables alatoires de loi exponentielle de paramtre et que les temps
de rparation sont des variables alatoires de loi exponentielle de paramtre .
Nous supposons galement toutes ces variables alatoires indpendantes.
Le processus (X t )t 0 est un processus markovien de sauts valeurs dans {0, 1}.
Les paramtres qui interviennent sont : (0) = , (1) = , Q(0, 1) = 1, Q(1, 0) = 1.

File dattente un serveur


Considrons un guichet o un serveur rend un service. Les clients arrivent des
instants successifs selon un processus de Poisson de paramtre . Ils se mettent
en file dattente et sont servis selon leur ordre darrive. Le temps de service
pour chaque client est une variable alatoire de loi exponentielle de paramtre .
Toutes les variables alatoires qui interviennent sont indpendantes.
Considrons le processus (X t )t 0 qui reprsente le nombre de clients en attente
(y compris le client en train dtre servi) au temps t . Cest un processus de sauts
valeurs dans N. Quand un client arrive, le processus saute de +1 et quand un
client sen va la fin de son service, le processus saute de 1.
Si un certain instant le processus saute et prend la valeur i (i > 0), il va rester
en i un temps alatoire qui vaut inf(U1 , U2 ) o U1 est le temps ncessaire pour
larrive du prochain client et U2 est le temps ncessaire pour la fin du service
en cours. Or ces variables alatoires sont indpendantes de lois exponentielles
de paramtre et (cf. Prop. ..). Le temps de sjour dans ltat i sera donc
une variable alatoire de loi exponentielle de paramtre + (cf. Prop. ..). La
probabilit que le saut suivant soit de +1 est la probabilit que U1 soit plus petite
que U2 , cest--dire /(+), tandis que la probabilit pour que le saut soit de 1
vaut de la mme manire /( + ) (cf. Prop. ..).
Si un certain instant le processus saute et prend la valeur 0, il va rester en 0 un
temps alatoire qui vaut U1 o U1 est le temps ncessaire pour larrive du prochain client, cest--dire un temps alatoire de loi exponentielle de paramtre .
Le saut lissue de ce temps est ncessairement de +1.
On a bien la description dun processus markovien de sauts.

.. Dfinition dun processus markovien de sauts

.. Proprit de Markov
La dfinition dun processus markovien de sauts implique la proprit de Markov
suivante.
Proposition .. Si (X t )t 0 est un processus markovien de sauts valeurs dans E,
il satisfait la proprit de Markov suivante : pour tout n 0, pour toute suite croissante dinstants 0 < t 1 < t 2 < . . . , t n < t n+1 R+ et toute suite x 1 , x 2 , . . . , x n , x n+1
dtats de E,
P(X tn+1 = x n+1 | X tn = x n , . . . , X t1 = x 1 , X 0 = x 0 ) = P(X tn+1 = x n+1 | X tn = x n )
= P(X tn+1 tn = x n+1 | X 0 = x n ).
Nous allons juste donner une justification heuristique de cette proposition. Si Tk
est linstant de saut du processus qui prcde linstant t n , daprs la dfinition, le
processus perd la mmoire de ce qui sest pass avant Tk , sachant quil se trouve
dans ltat x n cet instant. Donc la seule influence ventuelle du pass de t n est
le temps alatoire dj pass dans ltat x n . Mais la loi de Tk+1 Tk est une loi
exponentielle de paramtre (x n ). On sait que le processus na pas saut entre Tk
et t n , donc la loi de Tk+1 t n est la loi de (Tk+1 Tk t n +Tk ) sachant que Tk+1 Tk
est plus grande que t n Tk . On sait que cest encore une loi exponentielle de
paramtre (x n ). Donc partir de t n , sachant que le processus est dans ltat x n ,
le processus oublie tout le pass.
Les quantits P(X s = y | X t = x) ne dpendent que de x, y et t s. On note alors :
P(X s = y | X t = x) = P(X st = y | X 0 = x) = Pst (x, y).
Dfinition .. On appelle probabilits de transition la famille (Pt )t R+ de matrices markoviennes dfinies par
(x, y) E2 ,

Pt (x, y) = P(X t = y | X 0 = x).

Pour tout rel positif t , la matrice Pt (., .) est une matrice markovienne (on dit
aussi matrice stochastique). Lhypothse de continuit droite sur les trajectoires
entrane que, pour tous x et y, les fonctions qui t associent Pt (x, y) sont continues droite. En particulier, si on dsigne par I la matrice identit sur E E, on a
pour tous x et y de E :
lim Pt (x, y) = I(x, y).
t 0+

Les probabilits de transition satisfont lquation de Chapman-Kolmogorov suivante.

Chapitre . Processus markoviens de sauts


Proposition .. Si (Pt (., .))t 0 est la famille des matrices de transition dun processus de Markov homogne, pour tous temps s et t et pour tous tats x et y, on
a la relation :
X
Pt +s (x, y) =
Pt (x, z)Ps (z, y).
zE

Matriciellement cette galit scrit : Pt +s = Pt Ps .


Dmonstration.
Pt +s (x, y) = P(X t +s = y | X 0 = x)
X
=
P(X t +s = y X t = z | X 0 = x)
zE

P(X t +s = y | X t = z, X 0 = x) P(X t = z | X 0 = x)

zE

P(X s = y | X 0 = z) P(X t = z | X 0 = x).

zE

. Matrice gnratrice
On va dfinir une nouvelle matrice, la matrice gnratrice, qui caractrise le processus.

.. Dfinitions
Proposition .. Considrons un processus markovien de sauts (X t )t 0 associ
la famille borne de paramtres strictement positifs ((x), x E) et la matrice
markovienne de diagonale nulle (Q(x, y), (x, y) E2 ). Les probabilits de transition t Pt (x, y) de ce processus sont drivables droite en 0 et on a :
(x, y) E E, (x 6= y)
x E,

1
Pt (x, y)
= (x)Q(x, y),
t 0+ t
1
lim (Pt (x, x) 1) = (x).
t 0+ t
lim

Dmonstration. Soient x et y deux tats diffrents. On note Px (.) la probabilit


conditionnelle P(. | X 0 = x) et on considre les deux premiers instants de saut T1
(T1 t car x 6= y) et T2 :
Px (X t = y) = Px (X t = y, T1 t )
= Px (T1 t , X T1 = y, T2 > t ) + Px (T1 t , X t = y, T2 t )
= Px (1 t , X T1 = y, 1 + 2 > t ) + Px (1 t , X t = y, 1 + 2 t ).

.. Matrice gnratrice
valuons le premier terme en utilisant le fait que 1 et 2 sont deux variables
exponentielles indpendantes :
Z
Px (1 t , X T1 = y, 1 + 2 > t ) = Q(x, y)
(x)e(x)u (y)e(y)v dudv
{ut , u+v>t }
(x)
(e(y) t
(x)(y)
(x) t

(
= Q(x, y)

e(x) t ) si (x) 6= (y)

(x)t e

si (x) = (y)

= Q(x, y) (x)t + o(t ).


De mme montrons que le second terme est infiniment petit devant t :
Px (1 t , X t = y, 1 + 2 t ) Px (1 t , 2 t )
X

Px (1 t , X T1 = z, 2 t )
zE

(1 e(x)t ) Q(x, z) (1 e(z)t )

zE

(x) Q(x, z) (z)t 2

zE

(x)Mt 2

avec M majorant des ((z), z E).

En dfinitive on trouve :
P(X t = y | X 0 = x) = (x)Q(x, y)t + o(t ).
Dautre part dans le cas y = x :
Px (X t = x) = Px (T1 > t ) + Px (T1 t , T2 t , X t = x).
Le premier terme vaut Px (T1 > t ) = e(x)t = 1 (x)t + o(t ) et le second est infiniment petit devant t :
Px (T1 t , T2 t , X t = x) Px (T1 t , T2 t )
Px (1 t , 2 t )
(x)Mt 2 .
On en dduit que :
P(X t = x | X 0 = x) 1 = (x)t + o(t ).
Dfinition .. On appelle gnrateur (ou matrice gnratrice) dun processus
markovien de sauts de probabilits de transition (Pt )t 0 la matrice A drive
droite en 0 de (Pt ) :
(
(x)Q(x, y) si x 6= y,
Pt (x, y) I(x, y)
2
(x, y) E A(x, y) = lim
=
t 0+
t
(x)
si x = y.
On vient de voir que pour un processus markovien de sauts cette matrice existe
toujours.

Chapitre . Processus markoviens de sauts

.. Exemples
Processus de Poisson
Pour tout x entier, (x) est gal et Q(x, x + 1) gal 1. Do pour tout x :
y < x

A(x, y) = 0,

A(x, x) = et A(x, x + 1) = ,

y > x + 1 A(x, y) = 0.
On a le gnrateur :


0
0
0
0

A=

..
.

0
..
.

0
..
.

0
0

...
...
...
.
. .
.. ..
.
.

Processus deux tats


On trouve :

A(0, 0) = A(0, 1) =

A(1, 0) =
A(1, 1) =

Le gnrateur vaut :

A=

File dattente un serveur


On trouve :
A(0, 0) =
A(n, n 1) =

A(0, 1) =
A(n, n) = ( + )

A(n, n + 1) = si n > 0.

.. quations de Kolmogorov
Le calcul direct des probabilits de transition est souvent difficile, voire impossible. Le thorme suivant va donner un moyen de calculer les probabilits de
transition partir du gnrateur.

.. Matrice gnratrice
Proposition .. (quations de Kolmogorov) Considrons un processus markovien de sauts de probabilits de transition (Pt )t 0 et de gnrateur A. On a la
relation :
(Pt )0 = Pt A = APt
(Pt )0 dsigne la drive de Pt au point t strictement positif et la drive droite
si t vaut 0 :
Pt +s (x, y) Pt (x, y)
.
(Pt )0 (x, y) = lim
s0
s
Dmonstration. Nous ne ferons la dmonstration que dans le cas o E est fini. La
formule de Chapman-Kolmogorov scrit :
(x, y) E2 ,

Pt +s (x, y) =

Pt (x, z)Ps (z, y).

zE

On peut driver cette formule par rapport s et faire s = 0. On trouve (Pt )0 = Pt A.


La seconde formule sobtient en drivant par rapport t et en faisant t = 0.
Si on connat le gnrateur dun processus de Markov, on peut trouver les probabilits de transition comme solutions dune quation diffrentielle linaire
coefficients constants. Si lespace E est fini on a la formule :
Pt = et A =

X tk k
A .
k0 k!

Le gnrateur du processus dtermine les probabilits de transition, donc la loi


du processus. En pratique, lorsque E est fini, le calcul explicite de et A est possible
si on sait diagonaliser la matrice A.
Exemple du processus deux tats : E est gal {0, 1} et le gnrateur du processus existe et vaut :

A=

En diagonalisant A ( faire en exercice) on trouve :
Pt = e

tA

1
=
+

+ e(+)t
e(+)t

e(+)t
+ e(+)t

Chapitre . Processus markoviens de sauts

. Proprits asymptotiques
.. Mesures invariantes, rversibles
Lanalyse du comportement asymptotique passe par lidentification dune probabilit invariante sur lespace des tats E. Une probabilit sur E est invariante
par le processus si pour tout temps t et tout tat y de E on a Pt = soit :
X
(x)Pt (x, y) = (y).
xE

cest--dire que si est la loi de probabilit de X 0 , alors pour tout temps t la loi
de X t est encore .
En drivant cette relation en t et en faisant t gal , on arrive la dfinition
suivante.
Dfinition .. La probabilit sur E est dite invariante pour un processus de
Markov de gnrateur A si et seulement si A = 0 soit :
X
(x)A(x, y) = 0.
y E,
xE

Grce aux quations de Kolmogorov, on dmontre que si est une probabilit


invariante au sens de la dfinition ci-dessus, on a bien :
X
t 0, y E,
(x)Pt (x, y) = (y).
xE

Lidentification dune probabilit invariante ncessite la rsolution dun systme


linaire de taille gale au nombre dlments de E.
Dfinition .. La probabilit sur E est dite rversible pour un processus de
Markov de gnrateur A si et seulement si :
(x, y) E E,

(x)A(x, y) = (y)A(y, x).

Proposition .. Toute probabilit rversible pour un processus est invariante


pour ce processus.
Dmonstration. Si est rversible, on a pour tout y dans E :
X
X
X
(x)A(x, y) =
(y)A(y, x) = (y)
A(y, x) = 0.
xE

xE

xE

En pratique pour chercher une probabilit invariante, il est recommand de commencer par chercher une probabilit rversible, plus facile identifier quand elle
existe.

.. Proprits asymptotiques

.. Exemples
Processus de Poisson
Lquation dinvariance donne : i 0,
bilit invariante.

(i ) = (i + 1). Il nexiste pas de proba-

Processus deux tats

La matrice gnratrice vaut :

et (1) = +
On trouve comme unique probabilit invariante : (0) = +

File dattente un serveur


La matrice gnratrice est de la forme :

0
0
0
( + )

0
0

( + )

0
A=

0
0

( + )

..
..
..
..
..
.
.
.
.
.

...
...
...
..
.
..

Les quations de rversibilit scrivent :


x 1,

(x 1) = (x)

do :
x 0,

(x) = (0)

Il existe une probabilit rversible si la srie de terme gnral (x) est convergente, cest--dire si < . Cette probabilit rversible scrit alors :

x
x 0 (x) = 1
.

.. Thorme ergodique
Dfinition .. Un processus markovien de saut de matrice gnratice A est dit
irrductible si pour tous tats x et y (x 6= y), il existe des tats x 1 , x 2 , . . . x n tous
diffrents tels que :
A(x, x 1 )A(x 1 , x 2 ) . . . A(x n1 , x n )A(x n , y) > 0.

Chapitre . Processus markoviens de sauts


Ceci signifie que lon peut passer (en plusieurs tapes) de nimporte quel tat x
nimporte quel tat y avec une probabilit strictement positive. Cela est vrai
pour le processus deux tats dont les lments de la matrice gnratrice sont
diffrents de 0 et pour le processus associ une file dattente. Ce nest pas vrai
pour le processus de Poisson (le processus X t est croissant).
Nous admettrons le thorme limite suivant.
Thorme .. Supposons que le processus markovien de sauts (X t )t 0 est irrductible sur E et admet une probabilit invariante , alors :
cette probabilit invariante est unique,
(x, y) E2 , limt + Pt (x,
R y) = (y),
y E,
limt + 1t [0,t ] 1X s =y ds = (y) p.s.
Le comportement stationnaire du processus est donc dcrit par lunique probabilit invariante quand elle existe.
Ce rsultat exprime quau bout dun certain temps, le systme se stabilise dans
un rgime dquilibre appel rgime stationnaire et que
la probabilit dtre dans ltat y en rgime stationnaire est donne par (y),
la proportion de temps pass dans ltat y entre les instants 0 et t est galement
donne par (y) lorsque t est assez grand.

Chapitre
Files dattente
. Introduction
Nous avons vu dans le chapitre quune file dattente est dcrite par la loi des
temps darrive des clients, la loi des temps de service, le nombre de serveurs
et la longueur maximum de la file dattente. Dans ce chapitre nous supposerons
que les clients arrivent selon un processus de Poisson. Nous supposerons que les
temps de service sont des variables alatoires indpendantes de mme loi, indpendantes du processus des arrives. Dans un premier temps nous supposerons
que la loi de service est exponentielle. Nous pourrons alors utiliser les techniques
vues au chapitre prcdent et calculer explicitement les caractristiques de ltat
stationnaire quand il existe. Dans le cas plus gnral dune loi de service quelconque, nous verrons quen utilisant une chane de Markov on peut obtenir des
rsultats.

. Files M/M/.
Dans ces files les clients arrivent selon un processus de Poisson de paramtre .
Les temps de service sont des variables alatoires indpendantes, de mmes lois
exponentielles de paramtre et indpendantes du processus des arrives. On
note Nt le nombre de clients en attente, y compris ceux qui sont en train dtre
servis, au temps t .
Proposition .. Le nombre Nt de clients prsents (en attente ou en service)
linstant t dans une file M/M/s (s pouvant valoir linfini) est un processus mar-

Chapitre . Files dattente


kovien de sauts valeurs dans N de matrice gnratrice :
A(n, n + 1) =
A(n, n 1) = inf(n, s)
A(n, m)
= 0

si n > 0
si m 6= n 1, et m 6= n.

Dmonstration. Le processus Nt est lvidence un processus de sauts. Les proprits de perte de mmoire du processus de Poisson et de la loi exponentielle
permettent de montrer que ce processus est markovien. Les valeurs de la matrice
gnratrice se calculent sans problme.
Il est clair que ce processus est irrductible. Nous avons vu au chapitre prcdent, au moins dans le cas s = 1, quil admet une mesure rversible unique
une constante multiplicative prs. Pour chaque valeur de s, suivant les valeurs
de et cette mesure rversible est finie ou non. Lorsquelle est finie, il existe
une probabilit rversible, donc invariante et le thorme limite .. sapplique.
Le processus (Nt )t 0 se stabilise sur un tat dont la loi est cette probabilit rversible. Les caractristiques de la longueur de la chane dans ltat stationnaire sont
donc donnes par cette probabilit. Nous allons faire ces calculs pour diffrentes
valeurs de s.

.. Cas M/M/1
Dans ce cas il y a un seul serveur. Cest la file dattente la plus simple. Le gnrateur est donn par :
n N, A(n, n + 1) =
n N , A(n, n 1) = .
n
On obtient comme mesure rversible : m n = m 0 .
Cette mesure est finie si < et alors lunique probabilit rversible vaut :

n = 1

On a montr la proposition :
Proposition .. Dans le cas M/M/1, le processus (Nt )t 0 admet une unique
probabilit invariante lorsque le paramtre du processus de Poisson des arrives est strictement infrieur au paramtre de la loi exponentielle des services (cest--dire par unit de temps le nombre moyen darrives est infrieur
au nombre moyen de clients servis). Cette probabilit est une loi gomtrique
sur N de paramtre a = /.

.. Files M/M/.
On peut montrer que lorsque est strictement plus grand que la longueur de
la file tend vers linfini. Lorsque est gal , le processus nadmet pas de probabilit invariante.
Lorsque est strictement plus petit que , la longueur (nombre de clients prsents) de la file dattente en rgime stationnaire a pour moyenne et variance :
E(N) =

Var(N) =
2
1

Le facteur dutilisation du serveur ( mean busy period en anglais) reprsente


en rgime stationnaire le pourcentage du temps o le serveur est occup, cest
donc la moyenne de la variable alatoire qui vaut 0 avec probabilit 0 et 1 avec
probabilit 1 0 . Ce facteur vaut donc 1 0 , soit /.
Une variable alatoire intressante est le temps de rponse du systme cest-dire le temps total pass dans le systme par les diffrents clients. En rgime stationnaire toutes ces variables alatoires ont mme loi. Si le client trouve son arrive n personnes dans la file il passera dans le systme un temps alatoire gal
la somme des temps de service de ces n personnes plus son temps de service
lui. Ce temps est gal la somme de n + 1 variables alatoires indpendantes de
loi exponentielle de paramtre (le temps ncessaire pour finir de servir la personne en train dtre servie quand le client arrive est encore une loi exponentielle
de paramtre , daprs la proprit dabsence de mmoire). Cette loi admet la
densit sur R+ (cf. prop. ..) :
(x)n ex

n!
En notant N le nombre de clients en attente larrive du client test et R le temps
total dattente plus service de ce client on a :
g n+1 (x) =

P(R t ) =
=

X
n=0

P(N = n) P(R t | N = n)
n

n=0

X

Z
0

g n+1 (x) dx

Z
n t (x)n ex
dx
=
1
n 0
n!
n=0

Z t
n (x)n
X

=
1
ex
dx
n n!

0
n=0
Z t
=
( )ex ex dx.
0

On a tabli le rsultat suivant :

(Fubini, fonction positive)

Chapitre . Files dattente


Proposition .. La variable alatoire temps de rponse du systme (temps dattente plus service dun client en rgime stationnaire) suit une loi exponentielle de
paramtre , sa densit vaut :
f (x) = ( )e()x 1x0 .
Le temps moyen pass dans le systme par un client en rgime stationnaire vaut
1/( ). Cette quantit dpend de et de et pas uniquement du quotient /.
Un systme peut tre presque satur avec un quotient / proche de 1 et une
longueur de file dattente grande en moyenne mais avoir un temps de rponse
moyen faible.

.. Cas M/M/
Dans ce cas il y a une infinit de serveurs. Le gnrateur est donn par :
n N, A(n, n + 1) = ,
n N , A(n, n 1) = n.
Proposition .. Dans le cas M/M/, le processus (Nt )t 0 possde une probabilit invariante unique qui suit une loi de Poisson de paramtre /.
Dmonstration. Une mesure rversible satisfait la relation :
n,

m n = m n+1 (n + 1),

do m n = m 0

1 n
.
n!

Cette mesure est de masse totale finie pour tous et . En la normalisant on


trouve le rsultat.
Dans le cas M/M/ le facteur dutilisation (ou la charge de service) est le nombre
moyen de serveurs occups. Il est gal au nombre moyen de clients dans la file
puisquil ny a pas dattente. Ce nombre vaut donc /.
Le temps moyen de rponse est gal au temps moyen de service et vaut 1/.

.. Cas M/M/s
Il y a s serveurs. Le gnrateur est donn par :
n N, A(n, n + 1) = ,
n N , A(n, n 1) = inf(n, s).

.. Files M/M/.
Proposition .. Dans le cas M/M/s, le processus (Nt )t 0 possde une probabi
lit invariante unique si = s
est strictement plus petit que 1. Cette probabilit
vaut :

1 j
0
si j s,
j =
j!

ss j
j =
0
si j s,
s! s


s1
X 1 j
1 1 s
1
+ 1
.
=
avec
0
s
s!
j =0 j !
Dmonstration. Une mesure rversible satisfait : m n1 = m n inf(n, s). On en
dduit :


1 i
1 s+ j
mi = m0
pour i s et m s+ j = m 0
.
i!
s!s j
Si = /s < 1, cette mesure est finie et en la normalisant on trouve la probabilit
invariante annonce.
Lorsque = /s est strictement plus grand que 1, le processus (Nt )t 0 tend vers
linfini.
Lorsque est gal s le processus nadmet pas de probabilit invariante.
Lorsque = /s est strictement plus petit que 1, il existe donc un rgime stationnaire. Sous ce rgime, on peut calculer la probabilit pour que tous les serveurs
soient occups. Cette probabilit vaut :
C=

j =

j =s

s s s
sa s
0 =
0
(s a)s!
1 s!

avec a =

et =

Ceci constitue la deuxime formule dErlang (terminologie europenne) ou Erlang delay formula (terminologie USA).
La charge de service (ou facteur dutilisation) reprsente le nombre moyen de
serveurs occups en rgime stationnaire et vaut :
s2

X ak
a j 1
s a s1
j j + s
j = a
0 + sC = a0
+
= a.
a =
(s a)(s 1)!
j =s
j =1 ( j 1)!
j =1
k=0 k!
0

s1
X

s1
X

Donc la charge de service en rgime stationnaire vaut encore a = /, chaque


serveur est occup en moyenne % de son temps.

Chapitre . Files dattente


On peut calculer le nombre moyen de clients prsents (en attente ou en service) :

s
X
X
a j 0
a j 0
+
j
j
j s
j!
j =s+1 s!s
j =0


X
a s 0
a i +s 0
= a 1
+ (i + s)
(s 1)!(s a)
s!s i
i =1

E(N) =

=a+

0 a s+1

(s 1)!(s a)2

Il est intressant de comparer le comportement dune file dattente M/M/2 de


paramtres et avec le comportement dune file M/M/1 de paramtres et
2. Les deux files ont la mme condition de stationnarit : < 2. La longueur
moyenne de la file M/M/1 est /(2 ). Calculons la quantit analogue pour la
file M/M/2. Pour cette file la probabilit stationnaire vaut :
0 =

1
2

a
1 + a + 2a

2a
2+a

et j =

aj
2 j 1

pour

j 1.

Alors on trouve :
E(N) =

4a

4
>

=
2
4a
(2 )(2 + ) 2

La file dattente avec un serveur est plus petite en moyenne que la file dattente
avec deux serveurs. Cest normal intuitivement car la capacit de service maximale du systme deux serveurs est moins utilise que celle un serveur.
Il est possible de trouver une formule simple pour la loi du temps dattente dun
client en rgime stationnaire. Le temps dattente est le temps pass par un client
entre son arrive et son dbut de service. Appelons W ce temps dattente. On a
dj calcul P(W > 0), cest la probabilit pour que tous les serveurs soient occups. Calculons P(W > t ). Si un client arrive et trouve s personnes en train dtre
servies et aucune en attente, il attendra un temps alatoire exponentiel de paramtre s avant de commencer tre servi (cf. prop. .. et ..). Si un client
arrive et trouve s + j personnes dans le systme, il attendra avant de commencer
tre servi un temps gal la somme de j +1 variables alatoires indpendantes
exponentielles de paramtre s. En notant N le nombre de clients en attente
larrive du client test, on a :
X
P(W > t ) =
P(N = j + s) P(W > t | N = j + s)
j 0

X
j 0

s+ j

Z
t

(s) j +1 x j sx
e
dx
j!

.. Files M/M/.

X
j 0

a j +s
s!s j

a s s
s!

a s s
= 0
s!

= 0

Z
t

esx

X (ax) j
dx
j!
j 0

avec a =

(Fubini, fonction positive)

ex(sa) dx

Z
= P(W > 0)

(s) j +1 x j sx
e
dx
j!

(s a)e(sa)x dx.

On a tabli le rsultat suivant :


Proposition .. Conditionnellement en (W > 0), le temps dattente W dun
client en rgime stationnaire suit la loi exponentielle de paramtre (s ). La
loi de la variable alatoire W vaut donc :
(1 P(W > 0)) 0 + P(W > 0) .
Le temps dattente moyen avant de commencer tre servi vaut :
E(W) = P(W > 0)

a s 0
1
=

(s a) (s 1)!(s a)2

Le temps moyen de rponse vaut alors : E(W) + 1/. On peut calculer en exercice
la loi du temps de rponse. On trouve une densit gale :

P(W > 0)
P(W > 0)
x

+ (s a)e(sa)x
e
1
1s +a
1s +a
Si R est le temps de rponse pour un client, on constate que pour une file M/M/s
on a la formule :
E(N) = E(R)
Cette formule, galement vraie pour une file M/M/ est trs gnrale. Elle porte
le nom de formule de Little . Ce quon appelle en gnral formule de Little est
plutt lgalit
E(L) = E(W)
o L dsigne le nombre de clients en attente et W le temps dattente dun client.
Lquivalence des deux formules rsulte des galits R = W + et N = L + S o S
. Ce nest pas E(R) = E() E(N) mais E(R) = E() E(N) !

Chapitre . Files dattente


dsigne le nombre de serveurs occups. E(S) est le facteur dutilisation et on a vu
que E(S) = = E(), ce qui tablit lquivalence au moins pour les files M/M/.
Voici une justification heuristique de la formule de Little : on considre une priode test commenant larrive dun client et se terminant au dbut de service
du mme client. On suppose que lordre de service est FIFO. est le nombre
moyen de clients arrivant par unit de temps, donc E(W) est le nombre moyen
de clients arrivant dans la file pendant la priode test, de dure moyenne E(W).
Si le systme est en quilibre, le nombre moyen de clients sortant de la file dattente doit tre gal au nombre de clients entrant pendant la mme priode. Or
les clients sortant de la file dattente pendant la priode test sont ceux qui taient
prsents larrive du client test, leur nombre est donc L et a pour moyenne E(L).
Do lgalit annonce.
On va maintenant sintresser au flot de sortie dune file dattente M/M/s.
Thorme .. (Burke) Dans une file dattente M/M/s (s fini ou non) en rgime
stationnaire, le flot de sortie est un processus poissonnien de mme paramtre
que le flot dentre.
Dmonstration. Soit (X t )t 0 le processus de naissance et mort reprsentant le
nombre de clients dans le systme. On suppose que ce processus est stationnaire,
cest--dire que la loi de X t pour tout t vaut , unique probabilit rversible qui
existe dans les conditions dtude de la file dattente.
Fixons un temps T trs grand et dfinissons un processus sur [0, T] par : t 7 X Tt .
Changeons les valeurs de ce processus aux points de saut de manire ce que
chaque trajectoire soit continue droite. Appelons (Yt )0t T le processus obtenu.
Ce processus est un processus markovien de saut homogne. En effet si on note
Pt (., .) les probabilits de transition de (X t )t 0 , pour toute suite strictement croissante dinstants 0 = t 0 < t 1 < t 2 < < t k < t k+1 < T :
P(Ytk+1 = a k+1 | Ytk = a k , . . . , Y0 = a 0 )
P(Ytk+1 = a k+1 , Ytk = a k , . . . , Y0 = a 0 )
=
P(Ytk = a k , . . . , Y0 = a 0 )
P(X T = a 0 , . . . , X Ttk = a k , X Ttk+1 = a k+1 )
=
P(X T = a 0 , . . . , X Ttk1 = a k1 , X Ttk = a k )
P(X T = a 0 , . . . , X Ttk = a k | X Ttk+1 = a k+1 ) P(X Ttk+1 = a k+1 )
=
P(X T = a 0 , . . . , X Ttk1 = a k1 | X Ttk = a k ) P(X Ttk = a k )
soit en utilisant la proprit de Markov de (X t ) et en simplifiant
= Ptk+1 tk (a k+1 , a k )

P(Ytk+1 = a k+1 )
P(Ytk = a k )

.. Files M/G/1
Comme le processus (X t )t 0 est stationnaire, les probabilits de transition du processus (Yt )0t T valent (poser a k = i , a k+1 = j ) :
Qt (i , j ) = Pt ( j , i )

j
i

Si A est le gnrateur de (X t )t 0 , le gnrateur de (Yt )0t T aux points i et j vaut


B(i , j ) = A( j , i )

j
i

= A(i , j )

puisque la probabilit est rversible. Le processus Y a mme gnrateur que X,


il a donc mme loi. Le processus des instants de sauts +1 de Y a mme loi que
le processus des temps de saut +1 de X, soit la loi dun processus de Poisson de
paramtre . Or les sauts +1 de Y correspondent sur [0, T] aux sauts 1 de X, soit
aux temps de sortie des clients du systme. Ceci dmontre bien que ces temps de
sortie suivent un processus de Poisson de paramtre .

. Files M/G/1
Dans ce paragraphe, nous allons tudier une file dattente un serveur telle que
le flot darrive des clients est un processus de Poisson de paramtre et telle que
les temps de service des diffrents clients sont des variables alatoires indpendantes de mme loi toutes indpendantes des arrives. La discipline de service
est toujours premier arriv, premier servi. Lorsque la loi de service nest pas exponentielle, le nombre X t de personnes dans le systme au temps t nest pas un
processus de Markov. En effet le temps de service restant fournir pour le client
en cours de service dpend a priori du temps dj pass tre servi. On ne peut
donc plus utiliser les techniques des processus markoviens de sauts. Le fait que
les arrives soient un processus de Poisson va cependant nous permettre dutiliser une technique markovienne. Nous allons mettre en vidence une chane de
Markov incluse dans le processus, le nombre de personnes dans le systme aux
instants de sortie de chaque client.
Soient (S n )n1 les instants de sorties des clients. Appelons Yn le nombre X S n de
clients prsents linstant S n ou encore juste aprs linstant S n .
Proposition .. Dans une file dattente M/GI/1, la suite (Yn )n1 des nombres
de clients prsents dans le systme aux instants de fin de service est une chane
de Markov valeurs dans N.
. Se souvenir que les trajectoires du processus X t sont continues droite, donc X S n = X S +n .

Chapitre . Files dattente


Dmonstration. Appelons K n le nombre de clients arrivs pendant le service du
n-ime client. On a la relation :
Yn+1 = Yn 1Yn >0 +K n
en posant Y0 gale 0. La variable alatoire K n est indpendante de Yn vu les
proprits du processus de Poisson des arrives et lindpendance des temps de
service par rapport ce processus. Ceci dmontre la proprit de Markov.
La loi de K n , lorsque le temps de service du n-ime client vaut t , est une loi de
Poisson de paramtre t (loi conditionnelle sachant = t ). La loi de K n sobtient
en intgrant cette loi conditionnelle par rapport la loi de :
Z
(t )k
d P (t )
(.)
q k = P(K n = k) =
et
k!
0
avec P loi de service. La chane de Markov (Yn )nN a comme matrice de transition :

q0 q1 q2 q3 q4 . . .
q0 q1 q2 q3 q4 . . .

0 q q q q ...
0
1
2
3

P = 0 0 q q q ...
0
1
2

0 0 0 q q ...
0
1

..
.. . . . . . . . .
.
.
.
.
.
.
Comme tous les q k sont strictement positifs, il est clair que cette chane est irrductible sur N. Sauf au point 0, cette chane est identique une marche alatoire :
en effet, si Yn > 0, Yn+1 = Yn + (K n 1) et les K n sont indpendantes. Les proprits des marches alatoires sur Z sont bien connues. Si la moyenne de la loi des
sauts (E(K n 1) ici) est nulle, la marche est rcurrente nulle. Si la moyenne est
strictement positive, la marche est transiente et tend vers +. Si la moyenne est
strictement ngative, la marche est transiente et tend vers . Il est clair que si la
moyenne de la marche est strictement positive, la chane comme la marche tend
vers plus linfini et est transiente. Si la moyenne est ngative ou nulle, la chane
partant de nimporte quel point de N atteint presque srement le point 1 qui est
donc rcurrent et la chane est rcurrente. Il reste calculer la moyenne E(K n 1).
En permutant la somme et lintgrale (Tonelli), on obtient :
X
E(K n ) =
kq k = E().
kN

On pose = E() (quotient des temps moyens de service et dinterarrive), la


moyenne du saut de la marche vaut 1.
On a donc le rsultat suivant :

.. Files M/G/1
Proposition .. La chane de Markov (Yn )nN est rcurrente si 1 et transiente dans le cas contraire.
Si 1, il existe une mesure invariante, unique une constante multiplicative
prs. Lquation dinvariance scrit :
(.)
0 = 1 q 0
+ 0 q 0
1 = 2 q 0
+ 1 q 1 + 0 q 1
2 = 3 q 0
+ 2 q 1 + 1 q 2
+ 0 q 2
..
..
..
..
..
..
.
.
.
.
.
.
=
k = k+1 q 0 + k q 1 + k1 q 2 +
+ 1 q k + 0 q k
On dmontre le rsultat suivant :
Proposition .. La chane de Markov (Yn )nN admet une probabilit invariante
si et seulement si < 1.
Il est possible de calculer certaines caractristiques de la probabilit invariante.
En rgime stationnaire, Y 1Y>0 +K a mme loi que Y (avec des notations videntes), do :
E(Y) = E(Y) P(Y > 0) + E(K),
soit : P(Y = 0) = 1 . Comme la chane est rcurrente et irrductible, la probabilit invariante charge tous les points, donc P(Y = 0) > 0 et donc ncessairement < 1. On constate quil ne peut pas exister de probabilit invariante si = 1.
En levant au carr et en prenant lesprance on trouve (Y et K sont indpendantes) :
E(Y 2 ) = E(Y 2 ) + P(Y > 0) + E(K 2 ) 2 E(Y) + 2 E(Y) E(K) 2 P(Y > 0) E(K).
Or E(K) et P(Y > 0) valent . Quant E(K 2 ), on le dduit de :
Z
E(K(K 1)) =

X
kN

k(k 1)e

(t )k
d P (t ) =
k!

Z
0

2 t 2 d P (t ) = 2 E(2 ).

Do E(K 2 ) = E(K(K 1)) + E(K) = 2 E(2 ) + et


E(Y) = +

2 E(2 )

2(1 )

Il est possible aussi de calculer la fonction gnratrice g de la loi invariante en


fonction de celle de la loi des K n (note h) : en multipliant la j -ime quation

Chapitre . Files dattente


du systme (.) par s j +1 et en sommant en diagonale ( faire en exercice), on
obtient
h(s)(s 1)
0 .
g (s) =
s h(s)
En faisant tendre s vers 1, on obtient 0 = 1 (g (1) = h(1) = 1 et h 0 (1) = E(K)).
Il reste remarquer que h sexprime facilement en fonction de la transforme de
Laplace L de la loi des services (utiliser (.) et permuter somme et intgrale) :
Z

X
k
h(s) =
s qk =
e (1s)t d P (t ) = L ( s).
0

k=0

Finalement, lorsque < 1, la fonction gnratrice de la loi invariante scrit :


g (s) =

(s 1)L ( s)
(1 ).
s L ( s)

Cherchons identifier le temps de sjour moyen R (attente + service) dun client


en rgime stationnaire. Les personnes prsentes dans le systme au dpart dun
client sont celles qui sont arrives durant son temps de sjour, donc si ce temps
de sjour vaut t , le nombre de clients pendant ce temps suit une loi de Poisson
de paramtre t et on peut crire :
Z
(t )k
d PR (t )
P(Y = k) =
et
k!
0
do en sommant sur k, E(Y) = E(R). On retrouve la formule de Little vue dans
le cas M/M/s.
La thorie des processus de renouvellement permet de montrer que le comportement du processus (X t )t 0 est le mme que celui de la chane (Yn )n0 . Dans le
cas stationnaire, le processus a la mme loi invariante que la chane.
Nous avons tudi en dtail le cas markovien M/M/. dans lequel nous avons pu
faire explicitement la plupart des calculs de lois. Dans le cas M/GI/1 nous avons
mis en vidence une chane de Markov sous-jacente qui nous a permis, l aussi,
de faire des calculs explicites de lois. Le cas GI/M/1 se traite de la mme manire.
On peut mettre en vidence une chane de Markov, cette fois non pas aux instants
de dpart du systme, mais aux instants darrives et faire des calculs sur cette
chane.
Dans le cas gnral GI/GI/1, les techniques markoviennes ne fonctionnent plus.
Il faut faire appel aux techniques lies aux processus de renouvellement. On dmontre quil existe un rgime stationnaire lorsque le produit du nombre moyen
darrives par unit de temps par le temps moyen de service est strictement plus
petit que 1. On dmontre que la formule de Little est encore vraie. On montre
que, en rgime stationnaire, le flot des sorties du systme a la mme loi que le
flot des entres.

Chapitre
Rseaux de files dattente
Nous passons maintenant ltude des rseaux de files dattente. Cette tude va
videmment tre plus complique que celle dune seule file dattente. Pour pouvoir utiliser les processus markoviens de sauts, nous ne considrerons que des
rseaux aliments par des flux extrieurs poissonniens et dont les lois de service
sont exponentielles. Dans ce cas nous pourrons expliciter les probabilits invariantes.

. Exemples simples
.. Un systme srieparallle
Considrons un rseau de trois files dattente. Les files 1 et 2 sont du type M/M/1.
Les paramtres de service de ces files sont 1 et 2 . Les entres dans ces files se
font selon des processus de Poisson indpendants de paramtres 1 et 2 . Les
flots de sortie des files 1 et 2 se runissent et constituent les entres de la file 3. La
file 3 est du type M/M/. Le paramtre de service de la file 3 est . La sortie de
cette file se fait vers lextrieur.

P (1 )

M/M/1
1
M/M/
2

P (2 )

M/M/1

Chapitre . Rseaux de files dattente


Notons N1 (t ), N2 (t ) et N3 (t ) les nombres de clients prsents (en service et en attente) dans chacune des units. Les processus N1 (t ) et N2 (t ) sont des processus
markoviens indpendants. Si 1 /1 et 2 /2 sont tous deux strictement plus petits que 1, un rgime stationnaire stablit dans les files 1 et 2. Il sort de ces files
deux processus de Poisson de paramtres 1 et 2 (thorme de Burke), le flot
dentre dans la file 3 est donc un processus de Poisson de paramtre 1 + 2 (cf.
thorme ..). Le processus N3 (t ) est galement markovien et admet toujours
un rgime stationnaire. Il sort de cette file un flot poissonien de paramtre 1 +2 .
A priori le processus N3 (t ) nest pas indpendant de N1 (t ) et N2 (t ). Nous allons
voir que cest le cas en rgime stationnaire.
Notons 1 , 2 et 3 les probabilits invariantes de N1 , N2 et N3 . Nous avons :

2 2 n
1 1 n
2 (n) = 1
1 (n) = 1
1 1
2 2

1 1 + 2 n
1 + 2
3 (n) =
exp
.
n!

Si on note N(t ) le processus de sauts valeurs dans N3 de composantes N1 (t ),


N2 (t ), N3 (t ), ce processus est markovien et son gnrateur est donn par :
A((n 1 , n 2 , n 3 ), (n 1 + 1, n 2 , n 3 ))
= 1
A((n 1 , n 2 , n 3 ), (n 1 1, n 2 , n 3 + 1)) = 1 1n1 >0
A((n 1 , n 2 , n 3 ), (n 1 , n 2 + 1, n 3 ))
= 2
A((n 1 , n 2 , n 3 ), (n 1 , n 2 1, n 3 + 1)) = 2 1n2 >0
A((n 1 , n 2 , n 3 ), (n 1 , n 2 , n 3 1))

= n3

A((n 1 , n 2 , n 3 ), (n 1 , n 2 , n 3 ))

= (1 + 1 1n1 >0 +2 + 2 1n2 >0 +n 3 ).

Les autres termes du gnrateur sont nuls.


On constate que le processus N(t ) est irrductible. Il nadmet pas de mesure rversible (pourquoi ?). Les quations dinvariance scrivent A = 0, soit pour tout
triplet (n 1 , n 2 , n 3 ) de N3 :
(n 1 , n 2 , n 3 ) (1 + 1 1n1 >0 +2 + 2 1n2 >0 +n 3 )
= (n 1 1, n 2 , n 3 )1 1n1 >0 +(n 1 + 1, n 2 , n 3 1)1 1n3 >0 +(n 1 , n 2 1, n 3 )2 1n2 >0
+ (n 1 , n 2 + 1, n 3 1)2 1n3 >0 +(n 1 , n 2 , n 3 + 1)(n 3 + 1).
On vrifie que la probabilit
(n 1 , n 2 , n 3 ) = 1 (n 1 )2 (n 2 )3 (n 3 )
est invariante.

.. Exemples simples

.. Un systme avec boucle


Considrons un rseau (voir schma page suivante) form de deux files 1 (de type
M/M/) et 2 (de type M/M/1). Les deux units fournissent des services indpendants dont les dures suivent des lois exponentielles de paramtres 1 et 2 .
Les clients se prsentent lentre suivant un flot de Poisson de paramtre
et entrent dans le file 1. la sortie de la file 1, chaque client a la probabilit p
de quitter le rseau et la probabilit 1 p de se diriger vers lunit 2. Les choix
de directions sont indpendants entre eux et indpendants des services et des
arrives. la sortie de lunit 2, le client rentre dans la file 1.

1
P ()

M/M/

1p

M/M/1

p
sortie
Notons N1 (t ) et N2 (t ) le nombre de clients prsents au temps t dans les units 1
et 2. Le processus N(t ) = (N1 (t ), N2 (t )) est un processus markovien de sauts
valeurs dans N2 . Son gnrateur est donn par :
A((n 1 , n 2 ), (n 1 + 1, n 2 ))
A((n 1 , n 2 ), (n 1 1, n 2 ))
A((n 1 , n 2 ), (n 1 1, n 2 + 1))
A((n 1 , n 2 ), (n 1 + 1, n 2 1))
A((n 1 , n 2 ), (n 1 , n 2 ))

=
=
=
=
=

pn 1 1
(1 p)n 1 1
2 1n2 >0
( + n 1 1 + 2 1n2 >0 ).

Les autres termes du gnrateur sont nuls.


Ce processus est irrductible. Pour trouver une probabilit invariante, supposons
que lon soit dans un tat stationnaire et valuons les flots dentre moyens 1
et 2 dans chaque unit de service. Nous obtenons :
1 = + 2
2 = (1 p)1 .
Do 1 =

et 2 =

(1p)
.
p

Ces flots ne sont pas poissonniens et les processus N1 (t ) et N2 (t ) ne sont pas


markoviens. Cependant faisons comme si ils ltaient, supposons 2 < 2 pour

Chapitre . Rseaux de files dattente


quils admettent un rgime stationnaire et posons :

1
1 1 n
exp
1 (n) =
n! 1
1
n

2 2
2 (n) = 1
2 2

(file M/M/)
(file M/M/1)

(n 1 , n 2 ) = 1 (n 1 ) 2 (n 2 ).
Les quations dinvariance scrivent pour tous (n 1 , n 2 ) de N2 :
(n 1 , n 2 )( + n 1 1 + 2 1n2 >0 )
= (n 1 1, n 2 ) 1n1 >0 +(n 1 + 1, n 2 )1 (n 1 + 1)p
+ (n 1 + 1, n 2 1)1 (n 1 + 1)(1 p) 1n2 >0 +(n 1 1, n 2 + 1)2 1n1 >0 .
On vrifie que la mesure (n 1 , n 2 ) = 1 (n 1 )2 (n 2 ) est invariante.
Donc si 2 < 2 , cest--dire si < 2 p/(1 p), il existe un rgime stationnaire
dcrit par la probabilit .

.. Un systme ferm
Considrons un rseau ferm constitu de deux units 1 et 2 comportant chacune une infinit de serveurs. Les temps de service dans les deux units sont
indpendants et suivent des loi exponentielles de paramtres 1 et 2 . Il y a N
clients dans le rseau. Les clients qui sortent de la station 1 entrent dans la station 2 et vice versa.

M/M/
1
2
M/M/

Notons N1 (t ) et N2 (t ) le nombre de clients prsents au temps t dans les units 1


et 2. On a N1 (t ) + N2 (t ) = N. Les processus N1 et N2 ne sont videmment pas
indpendants. Chaque processus de saut Ni (t ) (i = 1 ou 2) est markovien. tant

.. Rseaux de Jackson
irrductible sur un espace fini, il admet une unique probabilit invariante. Le
gnrateur de N1 est donn par :
A(n, n + 1) = 2 (N n),
A(n, n 1) = 1 n.
On obtient comme probabilit invariante une loi binomiale B(N, 2 /(1 + 2 ),
soit sur lespace des couples (n 1 , n 2 ) de nombres entiers positifs de somme gale
N:

n 1

n2
1
2
1
1
(n 1 , n 2 ) = N!
.
n 1 ! 1 + 2
n 2 ! 1 + 2
On constate que la probabilit invariante est l aussi de forme produit.

. Rseaux de Jackson
Les exemples 1 et 2 du paragraphe prcdent de rseaux ouverts ont donn des
rsultats semblables. Lorsquil y a un rgime stationnaire, ce rgime est dcrit
par une probabilit produit. Nous allons tudier dans ce paragraphe une classe
de rseaux qui ont la mme proprit.
Nous considrons K stations. Chaque station a un seul serveur et le temps de
service la station i est une variable alatoire exponentielle de paramtre i .
Chaque station i est alimente par un flot poissonnien exogne de paramtre i
et par des flots qui viennent des autres stations du rseau et ventuellement aussi
de i . Tous les flots exognes et les temps de service sont indpendants. la sortie
de chaque station, un client soit sort du rseau, soit retourne dans une station
du rseau. Ce choix se fait au hasard, indpendamment de toutes les autres variables alatoires qui interviennent ; la sortie de la station i , il y a une probabilit r i j (1 j K) daller la station j et une probabilit r i de sortir du rseau
P
(r i + Kj =1 r i j = 1). Un tel rseau est appel rseau de Jackson.
On note X(t ) = (X 1 (t ), . . . , X K (t )) ltat du rseau linstant t . X i (t ) reprsente le
nombre de clients prsents dans la station i au temps t . Le processus (X(t ))t 0
est un processus markovien de sauts valeurs dans NK .
On note n = (n 1 , . . . , n K ) et e i = (0, . . . , 0, 1, 0 . . . , 0) le i -me vecteur de base de RK .
Le gnrateur de ce processus est donn par :
A(n, n + e i )
= i ,
A(n, n e i )
= i r i 1ni >0 ,
A(n, n e i + e j ) = i r i j 1ni >0 .

Chapitre . Rseaux de files dattente


Les termes diagonaux sobtiennent en remarquant que la somme des termes
dune mme ligne est nulle :
A(n, n) =

K
X

i + i 1ni >0 .

i =1

On constate que le processus X(t ) est irrductible sur NK si :


il est ouvert, cest--dire aliment extrieurement : il existe j tel que j > 0 ;
il est sans capture, cest--dire si partir de toute station il existe une possibilit de sortir dfinitivement du rseau : i (i 1 , i 2 , . . . , i k , j ) r i i 1 r i 1 i 2 . . . r i k j r j > 0.
Lquation dinvariance A = 0 scrit :
(n)

K
X

K
X

i + i 1ni >0 =
(n + e i )i r i + (n e i )i 1ni >0

i =1

i =1
K X
K
X

(n + e i e j ) i r i j .

i =1 j =1

Pour deviner une solution ce systme, nous allons tudier les flots de clients
travers le rseau. Supposons que le rseau fonctionne en rgime stationnaire.
Appelons i le nombre moyen de clients qui entrent dans la station i par unit
de temps. Comme on est en quilibre, cest aussi le nombre moyen de clients qui
sortent de la station i par unit de temps. On a alors lquation suivante, dite
quation du trafic :
i (1 i K),

i = i +

K
X

j r ji .

j =1

Ceci constitue un systme de K quations K inconnues. On peut dmontrer


que sous les hypothses dun rseau sans capture, ce systme admet une unique

solution strictement positive. Posons alors i = i et supposons que tous les


i
nombres i sont strictement plus petits que 1. Par analogie avec les exemples
vus dans le paragraphe prcdent posons : i (n i ) = (1 i )(i )ni (probabilit inQ
variante dune file M/M/1) et (n) = Ki =1 i (n i ). Nous allons dmonter que est
bien une probabilit invariante pour X(t ).
Pour cela on peut faire une vrification en remplaant dans lquation dinvariance lexpression de . Il est plus adroit dutiliser la notion de rversibilit avec
la proposition suivante.
Proposition .. Soit (X t )t 0 un processus markovien de sauts valeurs dans E
de gnrateur A(., .). Soient une distribution de probabilit sur E strictement
positive et B(., .) la matrice dfinie par :
(i , j ) E2 ,

(i )A(i , j ) = ( j )B( j , i ).

.. Rseaux de Jackson
Si pour tout i dans E on a lgalit :
X

B(i , j ) =

A(i , j ),

j E
j 6=i

j E
j 6=i

alors est une probabilit invariante pour (X t )t 0 et pour tout T, B(., .) est le gnrateur du processus retourn (X Tt )0t T .
P
Dmonstration. Lquation j 6=i B(i , j ) = A(i , i ) nest rien dautre que lquation dinvariance. Donc est bien une probabilit invariante. Le reste de la proposition a t vu dans la dmonstration du thorme de Burke (proposition ..).

Dans le cas des rseaux de Jackson, calculons la matrice B(., .) :


(n)B(n, n + e i )
= (n + e i )A(n + e i , n)
= (n + e i )i r i ,
(n)B(n, n e i )
= (n e i )A(n e i , n)
= (n e i )i 1ni >0 ,
(n)B(n, n e i + e j ) = (n e i + e j )A(n e i + e j , n) = (n e i + e j ) j r j i 1ni >0 .
Par dfinition de :
(n) =

K
Y

i (n i ) =

i =1

do

(n+e i )
(n)

= i = i ,
i

(ne i )
(n)

K
Y

(1 i )(i )ni

i =1

= 1 ,
i

(ne i +e j )
(n)

j
i

et :

B(n, n + e i ) = i r i ,
i
B(n, n e i ) =
1ni >0 ,
i
j
B(n, n e i + e j ) = r j i
1ni >0 .
i
On en dduit :
X

B(n, n 0 ) =

n 0 E
n 0 6=n

K
X

i r i +

K
X

i
1
1ni >0 + 1ni >0
j r ji
i
i
j =1

i r i +

i
i i
1ni >0 + 1ni >0 (i i ) (quation du trafic)
i
i

i =1

=
=

K
X
i =1
K
X

i r i + i 1ni >0 .

i =1

Chapitre . Rseaux de files dattente


Dautre part on a vu que :
X

A(n, n 0 ) = A(n, n) =

n 0 E
n 0 6=n

K
X

i + i 1ni >0

i =1

P
P
En sommant sur i les quations du trafic on trouve que : Ki =1 i = Ki =1 i r i . On
P
P
constate que lon a bien lgalit : n 0 6=n A(n, n 0 ) = n 0 6=n B(n, n 0 ).
Ceci dmontre que est une probabilit invariante pour le processus X(t ). On
en dduit galement que le processus retourn a comme gnrateur B(., .). En
rgime stationnaire, ce processus est un processus de Markov associ un rseau
de Jackson de paramtres (i )0 , (i )0 , (r i )0 et (r i j )0 tels que :
(i )0 = i r i

(i )0 (r i )0 =

i
i

(i )0 (r i j )0 = r i j

j
i

Les instants de sorties dfinitives du rseau initial sont les instants dentre du rseau correspondant au processus retourn. Ce sont donc des flots poissonniens
indpendants entre eux de paramtres i r i .
Nous avons dmontr le thorme suivant :
Thorme .. (Jackson) Dans un rseau de Jackson ouvert et sans capture, le
processus markovien de sauts X(t ) correspondant aux nombres de clients prsents dans chaque station du rseau linstant t est irrductible et admet une
Q
probabilit invariante de forme produit : (n) = i i (n i ). Les probabilits marginales i (.) sont les probabilits invariantes correspondant la station numro i
fonctionnant seule avec un flot extrieur poissonnien de paramtre i . Ces paramtres i sont calculs laide des quations de trafic.
Les flots de sortie du rseau sont des flots poissonniens indpendants.

Les flots dentre et de sortie du rseau sont poissonniens. En revanche les flots
qui traversent les stations du rseau nont aucune raison dtre poissonniens.
Pour sen convaincre tudions le rseau une station suivant : la station a un
flot dentre extrieur poissonnien de paramtre , un temps de service exponentiel de paramtre et un serveur ; la sortie de la station chaque client sort
du rseau avec probabilit p et retourne dans la file dattente de la station avec
probabilit q (p + q = 1).
Le flot moyen travers la station satisfait : = + q, do = /p. Il y a un
rgime stationnaire si < , cest--dire si < p. Ce rgime stationnaire est
dcrit par la probabilit invariante : m(n) = (1 )n avec = / = /(p).

.. Rseaux de Jackson

P ()

M/M/1

q = 1p

p
sortie
On se place linstant darrive dun client dans la station. Notons X le nombre de
clients prsents dans la station juste avant cette arrive, Te le temps ncessaire
pour que le prochain client venant de lextrieur arrive, Tr le temps ncessaire
pour quun client prsent dans la station y revienne et T le temps qui scoulera
jusqu larrive du client suivant (extrieur ou recycl).
P(T > x) = P(Te > x Tr > x)

X
P(Te > x Tr > x | X = n) P(X = n)
=
=
=

n=0

P(Te > x) m(n) P(Tr > x | X = n)

n=0

n
ex 1
P(Tr > x | X = n).
p p
n=0

Calculons la probabilit P(Tr > x | X = n). Tr est linstant de sortie du premier


client recycl, ou + si les n +1 clients prsents quittent tous le rseau la fin de
leur service ; dcomposons donc lvnement Tr > x selon le numro du premier
client recycl :
P(Tr > x | X = n) =

n+1
X

j 1

q P(

j =1

n+1
X
j =1

j
X

i > x) + p n+1

i =1

p j 1 q

Z
x

et

(t ) j 1
dt + p n+1
( j 1)!

(cf. prop. ..).

On reporte ce rsultat dans lexpression de P(T > x) :

n
n+1
X j 1 Z t (t ) j 1
X
n+1
P(T > x) = e
1
p
+
p q
e
dt
p n=0 p
( j 1)!
x
j =1
Z

k
X
n n
X
p
x
k
t (t )
=e
p
q
e
1
+
dt
p 1 n=0 k=0 p
k!
x
x

Chapitre . Rseaux de files dattente


soit en appliquant Fubini pour permuter les trois sommations (fonction positive)
Z

k X

n
X
p
t
k (t )
+
q
dt
= ex 1
e
p
p 1
k! n=k p
x
k=0
Z

X
p
k 1
t
k (t )
= ex 1
+
q
e
dt
p

p 1
k! p 1 p
x
k=0
Z

(t )k
X
p
1
x
t
1
=e
+
q
dt
e

p 1
x
k=0 k! 1 p
Z

p
1
t t
= ex 1
+
q
dt
e
e

p 1
1 p
x

e()x
p
1
x
+ q
1
=e

p 1
1 p
p x
q x
=
e
+
e
.

On constate que T ne suit pas une loi exponentielle et donc le flot nest pas poissonnien. On vrifie bien que : E(T) = 1/.
On peut tudier de la mme manire des rseaux de Jackson plus gnraux avec
des stations plusieurs serveurs. On peut galement tudier des rseaux ferms.
On peut aussi avoir le cas de plusieurs types de clients qui voluent dans des
rseaux de Jackson. Tout ceci se traite par les mmes mthodes et on trouve des
probabilits produits pour dcrire les rgimes stationnaires.

Chapitre
Fiabilit de systmes simples
La fiabilit dun dispositif est une caractristique de ce dispositif exprime par
la probabilit quil accomplisse une fonction requise sans dfaillance, dans des
conditions donnes, pendant une dure donne.
Les tudes de fiabilit se sont beaucoup dveloppes ces vingt dernires annes.
Les problmes de scurit (industries aronautique et spatiale, lectro-nuclaire)
ont t un moteur de ce dveloppement. Cependant ces techniques se rpandent
dans toute lindustrie car elles permettent de modliser dans quelles conditions
un dispositif fonctionne correctement ou se trouve en panne. Elles permettent
ainsi damliorer les caractristiques du dispositif, de donner une base rationnelle aux contrats liant les diffrents acteurs intervenant sur le dispositif. Elles
donnent des outils pour une gestion des oprations de maintenance.
Dans ce chapitre nous allons donner des bases des calculs de fiabilit sur des
systmes simples o des calculs analytiques explicites sont possibles. Cela nous
permettra de nous familiariser avec ces notions avant daborder ltude de systmes complexes dans le prochain chapitre. Loutil mathmatique essentiel qui
est utilis est le calcul des probabilits et la statistique. Pour ltude du temps
de fonctionnement dun systme simple on utilise des techniques probabilistes
et statistiques lmentaires. Quand on sintresse un systme compos dlments rparables et qualternent des priodes de fonctionnement et des priodes
de rparation, on fait intervenir les processus de Markov et les processus de renouvellement.

. Dfinitions gnrales
Quand on tudie un systme, on dfinit en fonction du temps deux grandeurs :
la fiabilit et la disponibilit.

Chapitre . Fiabilit de systmes simples


Dfinition .. On appelle fiabilit R(t ) dun systme S devant accomplir une
mission dans des conditions donnes la probabilit que le systme S nait eu aucune dfaillance entre les instants 0 et t . On appelle disponibilit A(t ) la probabilit que le systme S fonctionne linstant t . On a donc :
R(t ) = P(S non dfaillant sur [0, t ])
A(t ) = P(S non dfaillant linstant t ).
La fiabilit est une fonction qui dcrot de 1 0 lorsque le temps varie de 0 linfini. Dans certaines conditions la disponibilit dun systme rparable en fonctionnement permanent se stabilise lorsque t grandit sur une valeur non nulle.
En revanche la fiabilit tend toujours vers 0. Lorsque le systme est rparable on
dfinit galement une autre notion : la maintenabilit.
Dfinition .. On appelle maintenabilit M(t ) dun systme rparable S la probabilit pour que le systme S soit rpar avant linstant t sachant quil est dfaillant linstant 0. On a donc :
M(t ) = 1 P(S non rpar sur [0, t ]).
La maintenabilit est une fonction croissante de 0 1 lorsque t varie de 0 linfini.
On sintressera diverses grandeurs moyennes dont les sigles sont les suivants :
MTTF (mean time to failure) : dure moyenne de bon fonctionnement dun
systme en tat de marche linstant initial,
MTTR (mean time to repair) : dure moyenne de rparation dun systme en
panne linstant initial,
MUT (mean up time) : dure moyenne de bon fonctionnement dun systme
rparable en rgime stationnaire,
MDT (mean down time) : dure moyenne de dfaillance dun systme rparable en rgime stationnaire,
MTBF (mean time between failure) : intervalle de temps moyen sparant deux
dfaillances conscutives dun systme rparable en rgime stationnaire.
Ces sigles sont classiques, mais ne sont pas toujours utiliss avec exactement la
mme signification. A priori MUT est diffrent de MTTF car lorsquun systme
est remis en tat aprs une dfaillance tous ses composants nont pas t remis
neuf. De mme MTTR est diffrent de MDT car MTTR concerne la premire
rparation dun systme alors que MDT reprsente le temps moyen de rparation
du systme en rgime stationnaire. On a videmment la relation : MTBF = MUT+
MDT.
Si T reprsente la variable alatoire mesurant la dure de bon fonctionnement
du systme, on peut crire : R(t ) = P(T > t )

.. Dfinitions gnrales
La fiabilit R(t ) vaut donc 1 moins la fonction de rpartition de T. Nous supposerons dans la suite que T admet une densit f par rapport la mesure de Lebesgue
sur R+ , presque partout continue. Cette densit vaut presque partout :
f (t ) =

dR
(t ).
dt

On sait que si T admet un premier moment alors :


Z
MTTF = E(T) =
R(t ) dt .
0

Si U est la variable alatoire reprsentant la dure de rparation du systme, on


a : M(t ) = P(U t ).
M(t ) est la fonction de rpartition de U. Nous supposerons que U admet une
densit g par rapport la mesure de Lebesgue sur R+ , presque partout continue.
Cette densit vaut presque partout :
g (t ) =

dM
(t ).
dt

Si le temps moyen de rparation est fini, alors on a alors :


Z
MTTR =
(1 M(t )) dt .
0

On introduit galement les taux instantans de dfaillance et de rparation (t )


et (t ) :
1
P(t < T t + t | T > t ),
t 0 t
1
(t ) = lim
P(t < U t + t | U > t ).
t 0 t
(t ) = lim

En tout point de continuit des densits on a les relations :


(t ) =

dR
f (t ) d t (t )
=
R(t )
R(t )

dM
(t )
g (t )
(t ) =
= dt
1 M(t ) 1 M(t )

do :
Z t

R(t ) = exp
(u) du

Z t

M(t ) = 1 exp
(u) du .

et

La fiabilit (resp. la maintenabilit) sexprime en fonction du taux instantan de


dfaillance (resp. de rparation) et vice versa.

Chapitre . Fiabilit de systmes simples

. Test de Laplace
Le cas le plus simple tudier est celui o les taux instantans de dfaillance et
de rparation sont constants. Le test de Laplace est souvent utilis pour vrifier
ces hypothses. Il repose sur le rsultat de la proposition .. : ngligeons la dure des rparations et supposons le taux instantan de dfaillance (t ) constant,
le processus des instants de panne est alors un processus de Poisson de paramtre . Notons (Ti ) ses instants de saut et considrons la variable alatoire
n
1X
Ti .
Un =
n i =1
La loi conditionnelle de Un sachant Nt = n est la loi de
n
1X
Xi ,
Vn =
n i =1
o les X i sont indpendantes de loi uniforme sur [0, t ] (proposition ..).
Pour n assez grand on approxime la loi de Vn par le thorme central limite :
Vn E(Vn )
(Vn ) suit approximativement une loi normale rduite N (0, 1). On a (loi uniforme)
t2
t
t2
t

E(X i ) = , Var(X i ) = , do E(Vn ) = , Var(Vn ) =


2
12
2
12n
Pratiquement, on observe les n premiers instants de panne (on a alors N(t ) = n),
la variable test sera
1 Pn
1 Pn
t
T 2t p
Un E(Un | Nt = n) n i =1 Ti 2
n i =1 i
Wn =
=
=
12n,
pt
(Un | Nt = n)
t
i ,

12n

car E(Un | Nt = n) = E(Vn ) et (Un | Nt = n) = (Vn ). Si lhypothse (t ) =


(constante) est vrifie, Wn doit suivre (approximativement pour n assez grand)
une loi normale rduite.
Si au contraire (t ) est dcroissante (fiabilit croissante) les instants de panne
seront plus concentrs autour de 0 (se souvenir que E(Ti +1 Ti ) = 1 , donc
reprsente le nombre moyen de pannes par unit de temps).
On prendra donc comme rgion de rejet {Wn < c} pour tester
H0 = {(t ) = } contre {(t ) dcroissante}
et {Wn > c} pour tester
H0 = {(t ) = } contre {(t ) croissante}
o c est lu dans la table de Gauss, par exemple :
c = 1.96 au seuil de confiance = 0.975,
c = 1.645 au seuil de confiance = 0.95.

.. Exemples de lois utiles en fiabilit

. Exemples de lois utiles en fiabilit


.. Loi exponentielle
On rencontre souvent en fiabilit la loi exponentielle. Si le paramtre est on a :
f (t ) = et 1t 0 ,

R(t ) = et 1t 0 ,

(t ) = ,

MTTF =

1
.

.. Loi (, )
On rencontre galement la loi (, ) dont la densit est

(t )1 et 1t 0 avec > 0, > 0.


f (t ) =
()
On a alors :

Quand = 1 on retrouve la densit exponentielle. Lorsque 6= 1 il ny a pas de


formule explicite pour la fiabilit et le taux de dfaillance.
MTTF =

Lallure des densits de probabilit, selon les valeurs de , est la suivante :


2

0.6

=1

= 1.3

= 0.8

1.5

=2
0.4

= 0.5
1

=4

= 0.3
0.2

0.5

0.5

1.5

.. Loi de Weibull
La loi de Weibull, qui admet trois paramtres, est souvent utilise. X suit une loi

X
suit une loi exponende Weibull de paramtres , , , si et seulement si
tielle de paramtre 1. Sa densit vaut :

t 1 t
f (t ) =
e 1t avec > 0, > 0 et 0.

Chapitre . Fiabilit de systmes simples

t ,

R(t ) = e

t 1
et (t ) =
.

On trouve :
1
MTTF = + (1 + ).

Le choix des paramtres donne une grande varit de comportements, cest ce


qui fait lintrt de cette loi. Voici lallure des densits de probabilit, selon les
valeurs de , pour = 1 et = 0 :
2

= 0.5
=1
=2

1.5

=4

0.5

0.5

1.5

.. Loi lognormale
On dit que X suit une loi lognormale de paramtres m et si et seulement si ln X
suit une loi normale N (m, ), la loi lognormale a donc pour densit
1
1
f (t ) = p e 2
t 2

ln t m

1t >0 .

.. Exemples de lois utiles en fiabilit


Le taux de dfaillance vaut 0 en 0, crot et passe par un maximum puis dcrot en
tendant vers 0 linfini. On a :
MTTF = exp(m +

2
).
2

Voici lallure des densits de probabilit, pour m = 0 ou 1 et = 0.5, 1 ou 2.

1.2

m = 0, = 0.5
m = 0, = 1
m = 0, = 2

m = 1, = 0.5
m = 1, = 1

0.8

m = 1, = 2
0.6

0.4

0.2

On utilise diverses lois pour modliser la dure de bon fonctionnement ou de rparation dun systme. Le choix de la loi se fait, dune part en cherchant dcrire
le plus exactement possible le dure tudie, dautre part en tenant compte de la
facilit de traitement quoffrent les diverses lois. Ces deux contraintes sont souvent contradictoires et il faut faire une pondration raisonnable entre les deux.
Quand on a dcid du type de loi utilise, on estime les paramtres de la loi
laide des techniques classiques de statistique paramtrique, la plupart du temps
laide destimateurs du maximum de vraisemblance sur un chantillon de cette
loi. On dispose souvent de donnes censures, do lutilisation destimateurs
adapts ce type de donnes. Dans ce cours on suppose que cette dmarche
statistique a t effectue et on sintresse au traitement probabiliste du modle
tudi.

Chapitre . Fiabilit de systmes simples

. Systmes un lment
Ce qui vient dtre dit en gnral sapplique videmment un systme comportant un seul lment. Les tudes statistiques ont montr que la courbe reprsentant le taux de dfaillance (t ) a souvent la forme dune courbe en baignoire .
Cette courbe comprend trois rgions. La premire rgion correspond la priode
de jeunesse de llment au cours de laquelle le taux de dfaillance dcrot. La
deuxime rgion correspond la priode de vie utile de llment au cours de laquelle le taux de dfaillance est sensiblement constant. La dernire rgion correspond la priode de vieillissement pendant laquelle le taux de dfaillance crot
rapidement.
Pendant la priode de vie utile le taux de dfaillance est constant. Si on ne sintresse qu cette priode, on peut supposer que le taux de dfaillance est toujours
constant et donc que le temps de dfaillance suit une loi exponentielle. Si on suppose que le temps de rparation suit lui aussi une loi exponentielle, dsignant
le taux de dfaillance et le taux de rparation, on a :
MTTF = MUT =

1
,

MTTR = MDT =

Le processus (X t )t 0 qui vaut 1 quand llment est en tat de marche et 0 quand


il est en panne au temps t est un processus markovien de saut. Ce processus a t
tudi au chapitre : il est ergodique et admet comme probabilit invariante :
m(0) =

,
+

m(1) =

Donc limt + A(t ) = m(1) = +


On a galement calcul les probabilits de transition de ce processus en rsolvant lquation de Kolmogorov (cf. .., p. ). Cela donne la disponibilit si A(0)
vaut 1 :
(.)

A(t ) = Pt (1, 1) =

(+)t

+
e
.
+ +

Si lhypothse taux de dfaillance constant est raisonnable pendant la priode


de vie utile, lhypothse taux de rparation constant nest pas souvent vrifie.
Elle est commode car elle permet dutiliser les techniques markoviennes.
Considrons maintenant un processus (X t )t 0 associ un systme form dun
lment rparable. Comme plus haut X t vaut 1 ou 0 suivant que llment est
en tat de marche ou non. Supposons que X 0 vaut 1, que les temps de bon fonctionnement sont des variables alatoires indpendantes de mme loi exponentielle de paramtre , que les temps de rparation sont des variables alatoires

.. Systmes un lment
de mme loi m et que les temps de fonctionnement et les temps de rparation
sont indpendants. Si la loi m nest pas exponentielle, le processus (X t )t 0 nest
pas markovien. Cest un processus de sauts. Nous allons montrer que la disponibilit de ce processus admet des quations du type Kolmogorov :
A(t + h) = P(X(t + h) = 1)
= P(X(t + h) = 1 | X(t ) = 1) P(X(t ) = 1) + P(X(t + h) = 1 X(t ) = 0),
soit en dcomposant le second terme de la somme selon la dure u de rparation
= (1 h + o(h))A(t ) +

Z
0

A(t u)(h + o(h)) m(du).

On en dduit que A(t ) est drivable et que :


dA
(t ) = A(t ) +
dt

Z
0

A(t u) m(du).

Pour rsoudre cette quation diffrentielle on peut prendre la transforme de


Laplace des deux membres. Si on note A (s) et m (s) les transformes de Laplace
de A(t ) et m
Z
Z

st

A (s) =
e A(t ) dt et m (s) =
est m(dt ),
R+

R+

on obtient (voir annexe ..) :


sA (s) A(0) = A (s) + m (s)A (s),
do : A (s) =

1
s+m (s) , on a donc dmontr la proposition suivante :

Proposition .. Si un systme un lment satisfait aux conditions suivantes :


il fonctionne linstant 0,
les dures de bon fonctionnement sont des variables alatoires indpendantes
de mme loi exponentielle de paramtre ,
les dures de rparation sont des variables alatoires indpendantes de mme
loi de transforme de Laplace m ,
les dures de bon fonctionnement et de rparation sont indpendantes,
alors la disponibilit admet pour transforme de Laplace :
A (s) =

s + m (s)

Chapitre . Fiabilit de systmes simples


En particulier si m est la loi exponentielle de paramtre , on trouve :
A (s) =

1
1
+
+ s + s ++

et en inversant on retrouve le rsultat de lquation .. Dans le cas gnral, il faut


calculer m (s) et inverser la transforme de Laplace A (s).
Exercice : Calculer la disponibilit en rgime stationnaire en fonction du temps
moyen de rparation.
Si A(t ) a comme limite A quand t tend vers linfini,
sA (s) tend galement
R alors
vers A lorsque s tend vers 0 : on remarque que 0 sest dt = 1 et on crit

sA (s) A =

se
0

st

Z
(A(t ) A ) dt +

sest (A(t ) A ) dt ,

on choisit T assez grand pour que la seconde intgrale soit petite et on fait tendre
s vers 0 dans la premire. La rciproque est vraie si A(t ) nest pas trop irrgulier
au voisinage de linfini. On dmontre que cest le cas ici.
R
Si on note m 1 le temps moyen de rparation (m 1 = 0 x m(dx)), m (s) a pour
dveloppement limit en s = 0 m (s) = 1 sm 1 + o(s 2 ) et
lim A(t ) = lim sA (s)

t +

s0

s
s0 s + (1 sm 1 + o(s 2 ))
1

=
1 + m 1
= lim

Si la loi m du temps de rparation est exponentielle de paramtre on retrouve


lim A(t ) =

t +

. Systmes simples
Nous allons nous intresser des systmes composs de plusieurs lments. Ces
lments peuvent tre en srie, en parallle ou former un rseau plus complexe.
Dans ce paragraphe nous allons nous contenter dtudier des systmes simples,
soit du fait de leur configuration, soit du fait du petit nombre dlments.

.. Systmes simples

.. lments en srie
Considrons un systme compos de n lments en srie : on suppose que la dfaillance de lun quelconque des n lments entrane la dfaillance du systme.
Supposons que les instants (Ti )1i n ) de dfaillance des lments soient des variables alatoires indpendantes. Si T est le premier instant de dfaillance du systme on a : T = inf1i n Ti . La fiabilit du systme vaut :
R(t ) = P(T > t ) = P(i (1 i n) Ti > t ) =

n
Y

P(Ti > t ) =

n
Y

Ri (t ).

i =1

i =1

Si i (t ) est le taux de dfaillance de llment i et (t ) le taux de dfaillance du


systme, on a :
Z
!
Z t

n
t X
R(t ) = exp
(u) du = exp
i (u) du .
0

On en dduit que : (u) =

0 i =1

Pn

i =1 i (u).

Si les lments du systme sont rparables, on sintresse la disponibilit. Si


on note Ai (t ) la disponibilit de llment i (1 i n) et A(t ) la disponibilit du
Q
systme, on a la relation : A(t ) = ni=1 Ai (t ). On a tabli le rsultat suivant :
Proposition .. Pour un systme constitu de n lments en srie indpendants et rparables, la fiabilit, le taux de dfaillance et la disponibilit du systme global sont donns par :
R(t ) =

n
Y

Ri (t ),

n
X

(u) =

i =1

i (u),

A(t ) =

i =1

n
Y

Ai (t ).

i =1

.. lments en parallle
Un systme de n lments est dit en parallle si la panne de tous les lments
est ncessaire pour entraner la panne du systme. On suppose que les temps
de dfaillance des lments sont des variables alatoires indpendantes et on
conserve les notations du paragraphe ci-dessus.
Si les lments ne sont pas rparables, le premier instant de panne du systme est
donn par : T = sup1i n Ti . La fiabilit du systme global vaut :
R(t ) = 1 P(T t ) = 1

n
Y

P(Ti t ) = 1

i =1

n
Y

(1 Ri (t )).

i =1

Il ny a pas de formule simple donnant le taux de dfaillance du systme en fonction du taux de dfaillance de chaque lment.

Chapitre . Fiabilit de systmes simples


Si les lments du systme sont rparables, on peut crire avec les mmes notaQ
tions que pour les lments en srie : A(t ) = 1 ni=1 (1 Ai (t )).
Lorsque les lments du systme sont rparables, le calcul de la fiabilit est beaucoup plus compliqu car si un lment tombe en panne, il peut tre rpar avant
que les autres lments tombent en panne et ainsi de suite. Il ny a pas de formule
simple. Lorsque les taux de dfaillance et de rparation sont constants on peut
utiliser les techniques markoviennes pour faire ce calcul.
Prenons par exemple deux lments ayant chacun un taux de dfaillance gal
et un taux de rparation gal . Les temps de fonctionnement et de rparation de ces deux lments sont des variables alatoires indpendantes. On a vu
(cf. .., p. ) que :
Ai (t ) = Pt (1, 1) =
do
A(t ) = 1

+
e(+)t ,
+ +

2

1 e(+)t .
+

Considrons le processus (X t ) valeurs dans lensemble {0, 1, 2} reprsentant le


nombre dlments en tat de marche au temps t . Le systme fonctionne si X t
vaut 1 ou 2, il est en panne lorsque X t vaut 0. (X t )t 0 est un processus markovien
de sauts de matrice gnratrice :

2
2
0
( + )

A=
0
2
2
Il serait facile de calculer les caractristiques de (X t )t 0 : probabilit de transition
( laide des quations de Kolmogorov) et probabilit invariante. On retrouverait
ainsi des valeurs que lon peut obtenir plus simplement en considrant les deux
processus de Markov indpendants qui dcrivent ltat de chaque lment.
Pour calculer la fiabilit, on va rendre ltat de panne du systme, cest dire ici
ltat 0, absorbant. On considre le processus Yt gal X t jusqu ce que X t atteigne 0, ensuite Yt reste absorb en 0. Ce processus est un processus markovien
de sauts de matrice gnratrice gale :

0
0
0
= ( + )

A
0
2
2
Si on note Pt (i , j ) les probabilits de transition ce nouveau processus et si au
temps 0 les deux lments sont en tat de marche, la fiabilit du systme initial

.. Systmes simples
est gale la disponibilit du systme modifi et vaut donc :
R(t ) = Pt (2, 1) + Pt (2, 2).
:
Les probabilits de transitions se dduisent des quations Pt0 = Pt A
Pt0 (2, 1) = ( + ) Pt (2, 1) + 2Pt (2, 2),
Pt0 (2, 2) =

Pt (2, 1) 2Pt (2, 2).


Ce systme peut se rsoudre en diagonalisant la matrice du systme. On peut
aussi prendre les transformes de Laplace P1 (s) et P2 (s) des fonctions Pt (2, 1) et
Pt (2, 2). On trouve :
sP1 (s)
= ( + ) P1 (s) + 2P2 (s),
sP2 (s) 1 =

P1 (s) 2P2 (s),


do
P1 (s) =

2
s 2 + (3 + )s + 22

et P2 (s) =

s ++

s 2 + (3 + )s + 22

Si s 1 et s 2 sont les deux racines du trinme s 2 +(3+)s +22 , s 1 et s 2 sont relles,


ngatives et distinctes :
s1 =

(3 + )

p
2 + 6 + 2
2

et s 2 =

(3 + ) +

2 + 6 + 2

En inversant les transformes de Laplace (dcomposer la fraction en lments


simples et utiliser le dictionnaires dimages de lannexe) on trouve :
R(t ) =
On sait que : MTTF =

s1
s2
es 1 t
es 2 t
s2 s1
s2 s1

R
0

(s 1 et s 2 < 0).

R(t ) dt = R (0). Donc

MTTF = P1 (0) + P2 (0) =

3 +

22

La fiabilit, comme le MTTF, dpend de ltat du systme linstant 0. Ici on la


calcul avec ltat 2 linstant initial. Si ltat initial vaut 1, on trouve :
sP1 (s) 1 = ( + ) P1 (s) + 2P2 (s)
sP2 (s)
=

P1 (s) 2P2 (s)


do
P1 (s) =

2 + s
s 2 + (3 + )s + 22

et P2 (s) =

s 2 + (3 + )s + 22

Chapitre . Fiabilit de systmes simples


et
MTTF = P1 (0) + P2 (0) =

2 +

22

Pour calculer le MUT, on va se placer en rgime stationnaire pour X t . Le dbut


dune priode de fonctionnement du systme correspond une transition de
ltat 0 ltat 1. Le MUT est donc gal au MTTF avec tat initial 1 :
MUT =

2 +

22

1
Dautre part il est clair que : MTTR = MDT = 2
. On a alors :

MTBF = MUT + MDT =

2 +
1
( + )2
+
=

22
2
22

Chapitre
Fiabilit de systmes complexes
Ltude de la fiabilit dun systme complexe passe par une analyse des conditions dans lesquelles le systme tombe en panne. Il existe plusieurs types de reprsentation de cette analyse que nous exposerons dans le premier paragraphe
de ce chapitre. Puis nous tudierons les systmes markoviens. Enfin nous donnerons quelques pistes pour ltude de systmes non markoviens.

. Reprsentation de la logique dun systme


.. Diagramme de fiabilit
Pour reprsenter la logique dun systme, la reprsentation la plus naturelle est
le diagramme de fiabilit. Ce diagramme est souvent trs proche du schma fonctionnel du systme. Dans cette reprsentation, les blocs reprsentant des lments (matriels ou vnements) dont la dfaillance entrane la dfaillance du
systme sont placs en srie, ceux dont la dfaillance ne provoque la dfaillance
du systme quen combinaison avec dautres blocs sont disposs en parallle
avec ces derniers. Le diagramme de fiabilit est un graphe sans circuit admettant
une entre et une sortie dont les sommets reprsentent les lments du systme
et dont les arcs reprsentent les relations entre les diffrents lments.
Le systme fonctionne sil existe un chemin de succs entre lentre et la sortie du
diagramme de fiabilit. Lensemble des chemins de succs reprsente lensemble
des tats de marche du systme.
Dans le chapitre prcdent nous avons calcul la disponibilit de certains systmes simples reprsents par des diagrammes de fiabilit en srie et en parallle dont les lments sont indpendants. On peut essayer de calculer la disponibilit dun systme en remplaant successivement les lments en srie et en

Chapitre . Fiabilit de systmes complexes


parallles par des lments uniques dont on calcule la disponibilit. Cette technique fonctionne bien pour des systmes simples mais devient vite pnible pour
de gros systmes. Lorsque les lments sont trs fiables, leur disponibilit est
proche de 1. On peut alors faire des calculs approchs avec les indisponibilits
qui sont proches de 0.
Ainsi en notant Ai (t ) lindisponibilit de llment i au temps t , on peut crire
lindisponibilit A(t ) du systme constitu de n lments en srie :
X
n
n
Y
A(t ) = 1
Ai (t ).
1 Ai (t )
i =1

i =1

Si les lments du systme sont en parallle, on a :


A(t ) =

n
Y

Ai (t ).

i =1

Ces formules sont trs simples, mais il faut faire attention de rester dans un cadre
o lapproximation est valide.

.. Arbre de dfaillance
Une des reprsentations les plus utilises de la logique dun systme est larbre
de dfaillance (fault tree). Cette mthode naquit en dans les bureaux dtude
de la compagnie Bell. Une utilisation extensive en a t faite dans les tudes sur
la sret des racteurs nuclaires (rapport Rasmussen ou Wash ).
On part dun vnement indsirable unique et bien dfini. Dans notre cadre il
sagit du non-fonctionnement du systme. Dans le cas dune tude de sret
dun systme, il sagit dun vnement dont les consquences sont graves. Larbre
de dfaillance reprsente graphiquement les combinaisons dvnements qui
conduisent la ralisation de cet vnement indsirable. Il sera form de niveaux successifs tels que chaque vnement est gnr par des vnements de
niveau infrieur par lintermdiaire de divers oprateurs (ou portes) logiques. Ce
processus dductif est poursuivi jusqu ce quon arrive des vnements indpendants entre eux et probabilisables. Ces vnements de base peuvent tre des
pannes, des erreurs humaines, des conditions extrieures.
Un certain nombre de conventions sont utilises par les fiabilistes pour dessiner
un arbre de dfaillance :
un cercle reprsente une dfaillance de base,
un rectangle reprsente un vnement intermdiaire,
un losange reprsente une dfaillance suppose de base qui pourrait tre subdivise en vnements de base mais ne le sera pas faute dintrt ou de renseignements,

.. Reprsentation de la logique dun systme


un double losange reprsente un vnement dont les causes ne sont pas dveloppes mais le seront ultrieurement,
un oprateur (ou porte) logique ET est reprsent par le symbole
,
un oprateur (ou porte) logique OU est reprsent par le symbole

Exemple : on considre le systme reprsent par larbre de dfaillance suivant


(figure .).

E1

X1

E2

E3

X2

X3

X4

Figure . Arbre de dfaillance


Si p 1 , p 2 , p 3 et p 4 sont les probabilits des vnements X, X, X et X, la probabilit de E vaut : e 2 = 1(1 p 1 )(1 p 2 ). Celle de E vaut : e 2 = 1(1 p 3 )(1 p 4 ).
La probabilit de E vaut : e 1 = e 2 e 3 .
Les probabilits p i sont en gnral les probabilits de dfaillance dun lment.
Comme plus haut, lorsque ces probabilits sont trs petites, on peut crire :
e2 p1 + p2

et e 3 p 3 + p 4 .

.. Coupes minimales
Une coupe est un ensemble dlments dont la panne entrane la panne du systme. Une coupe minimale est une coupe ne contenant aucune autre coupe. Une
coupe est un ensemble dlments intersectant chacun des chemins de succs.
La recherche des coupes minimales est dun grand intrt pour ltude de la fiabilit et de la disponibilit des systmes. En effet chaque coupe correspond un
combinaison significative de pannes. Linterprtation des coupes minimales permet de reprer les points faibles du systme, les fausses redondances, linfluence

Chapitre . Fiabilit de systmes complexes


dun lment donn sur la fiabilit du systme.

Exemple : Dans le systme reprsent


par le diagramme de fiabilit ci-contre,
il y a quatre coupes minimales : {1, 3},
{2, 4}, {3, 5, 2} et {1, 5, 4}.

2
5

Les coupes minimales peuvent tre dtermines automatiquement, soit partir


du diagramme de fiabilit, soit partir de larbre de dfaillance.
Si on note Ci (1 i m) les coupes minimales dun systme, on peut crire lindisponibilit A :
[

m
A=P
Ci .
i =1

La probabilit P(Ci ) est gale au produit des indisponibilits de chaque lment


de la coupe Ci . Si ces quantits sont trs petites on peut crire :
A

m
X

P(Ci ).

i =1

laide de la formule de Poincar il est possible dobtenir une approximation


plus prcise ou un encadrement.
Il est intressant de se rendre compte de limportance dun lment particulier
dans la disponibilit dun systme. On vient de voir une mthode permettant de
calculer lindisponibilit dun systme. Si on sintresse un lment i donn,
cette indisponibilit A est une fonction de lindisponibilit Ai de llment i . On
dfinit diffrents nombres qui rendent compte de linfluence de Ai sur A. En voici
deux parmi tous ceux que lon trouve dans la littrature :
A
,
Ai
Ai A
.
A Ai

facteur dimportance marginale :


facteur dimportance critique :

Le logiciel ARBRE, conu par N. Limnios de lU.T.C. de Compigne, dessine larbre


de dfaillance dun systme, calcule la disponibilit du systme en fonction de la
disponibilit des lments de base, calcule des facteurs dimportance.

.. Systmes markoviens

. Systmes markoviens
Lorsque les taux de dfaillance et de rparation des lments dun systme sont
constants et lorsque les temps de fonctionnement et de rparation de ces lments sont indpendants, on peut reprsenter lvolution du systme par un processus markovien de sauts (X t )t 0 valeurs dans un espace fini form des tats
{1, 2, . . . , n}.
Nous noterons A la matrice gnratrice du processus et nous supposerons que
le processus est irrductible. Nous supposerons que les tats {1, 2, . . . , l } correspondent des tats de fonctionnement du systme et que les tats {l + 1, . . . , n}
correspondent des tats de panne du systme.
On note P(t ) la loi de la variable alatoire X t , P (s) la transforme de Laplace de
P(t ). Les quations de Kolmogorov pour le processus scrivent :
dP
(t ) = P(t ) A,
dt
ou aprs transformation de Laplace :
sP (s) P(0) = P (s) A,
do :
P (s) = P(0)(sI A)1 .
On a donc une expression explicite de P (s). Il sagit dune formule thorique
qui nest pas trs utilisable lorsque le nombre dtats est grand. Il faut en effet
inverser la matrice (sI A) et ensuite inverser la transforme de Laplace. Ceci
nest possible faire analytiquement que dans quelques systmes simples. Dans
un systme complexe, on peut utiliser les techniques de rsolution numrique
des quations diffrentielles pour trouver directement les solutions de lquation
de Kolmogorov.
On sait que le processus se stabilise sur un tat stationnaire dcrit par une probabilit qui satisfait lquation A = 0. Cette probabilit satisfait galement la
relation :
= lim P(t ) = lim sP (s).
t

s0

Pour calculer la fiabilit du systme, on part dun loi initiale P(0) qui ne charge
que les tats de fonctionnement. On remplace le processus (X t )t 0 par le processus (Yt )t 0 qui concide avec X t tant que X t est dans un tat de marche et qui
reste pig dans un tat de panne ds que X t atteint un tel tat. Ce processus est
galement un processus markovien de saut. Sa matrice gnratrice A0 sobtient

Chapitre . Fiabilit de systmes complexes


partir de A en remplaant les lignes {l + 1, . . . , n} de A par des lignes de 0. La
fiabilit et le MTTF du systme peuvent scrire :
R(t ) =

l
X

Z
P(Yt = i ) et MTTF =

i =1

R(t ) dt = R (0).

On peut crire les quations de Kolmogorov pour le processus (Yt )t 0 et trouver une expression explicite pour la transforme de Laplace R (s) de la fiabilit.
La transforme de Laplace du vecteur form des l premires composantes de
la loi de Yt scrit : P1,l (0) (sIl A1,l )1 o P1,l (0) reprsente les l premires composantes de P(0), A1,l la matrice carre dordre l correspondant aux l premires
lignes et colonnes de A et Il la matrice identit dordre l . La transforme de Laplace de la fiabilit est la somme des l composantes de ce vecteur. On a alors en
notant 1l le vecteur colonne de dimension l form de 1 :
MTTF = P1,l (0) (A1,l )1 1l .
On constate videmment que le MTTF dpend de la loi initiale P1,l (0).
Lorsquau temps initial le systme est dans un tat de panne, on peut faire des
calculs semblables pour obtenir la maintenabilit et le MTTR : en notant Pl +1,n (0)
la loi initiale sur les tats de panne, Al +1,n la matrice carre dordre n l extraite
de la matrice A et forme des lments de A sur les lignes et colonnes dordre
suprieur ou gal l +1 et 1nl le vecteur colonne de dimension n l form de 1,
on obtient :
MTTR = Pl +1,n (0) (Al +1,n )1 1nl .
Nous allons maintenant chercher les nombres caractristiques de ltat stationnaire MUT et MDT lorsquil ny a quun seul tat de panne. Alors nous avons
videmment :
1

MTTR = MDT =
A(n, n)
Pour identifier le MUT, supposons que nous soyons en rgime stationnaire et
qu linstant 0 le systme soit en panne. Alors, aprs le premier instant de saut,
A(n,i )
le processus se trouve dans ltat i (1 i n 1) avec la probabilit A(n,n)
. Le
MUT est alors le MTTF avec cette probabilit comme loi initiale :
MUT =

n1
X n1
X
i =1

A(n, i )
(A1,n1 )1 (i , j ).
A(n,
n)
j =1

On peut videmment faire le mme type de calculs lorsquil ny a quun seul tat
de fonctionnement.

.. Systmes non markoviens

. Systmes non markoviens


Dans ce paragraphe, nous allons voir comment ramener ltude de certains systmes non markoviens ltude de systmes markoviens.

.. Mthode des tats fictifs


Si lhypothse taux de dfaillance constant est souvent raisonnable, il nen est
pas de mme de lhypothse taux de rparation constant . La loi du temps de
rparation nest pas souvent une loi exponentielle. Si cette loi est la convolue
de plusieurs lois exponentielles, on peut introduire des tats fictifs pour rendre
markovien le processus dcrivant le systme. Ainsi lorsque le temps de saut de
ltat i ltat j a comme loi la convolue des lois exponentielles m 1 et m 2 , on
introduit un tat fictif k entre i et j ; le systme passe de i k au bout dun temps
de loi exponentielle m 1 et passe ensuite de k j au bout dun temps indpendant
de loi exponentielle m 2 .
On introduit ainsi autant dtats fictifs que ncessaires et on rend le processus
markovien. Cette mthode est en particulier possible lorsque les lois de rparation sont des lois dErlang (loi de la somme de n variables alatoires indpendantes de mme loi exponentielle). Avec cette mthode en perspective, on peut
chercher estimer les lois de panne et de rparation qui interviennent dans le
systme comme des convolues de deux lois (ou plus), exponentielles indpendantes de paramtres diffrents. Cette mthode linconvnient dintroduire des
tats en plus et de compliquer le graphe du systme.
Exemple : Considrons un systme form dun seul lment dont le taux de dfaillance est constant gal et le taux de rparation variable correspondant un
temps de rparation de loi dErlang de paramtres et 2. On peut introduire un
tat fictif entre ltat de marche et ltat de panne. Le processus dcrivant alors
le systme est tats : tat 1 pour le systme en fonctionnement, tat 2 pour le
systme en panne, tat 3 pour ltat de panne fictif supplmentaire. Le processus
markovien de sauts correspondant admet alors comme matrice :


0
A = 0

Si on suppose que le systme est en tat de marche linstant initial, en crivant

Chapitre . Fiabilit de systmes complexes


les quations de Kolmogorov et en prenant la transforme de Laplace, on trouve :
(s + ) (P1 ) (s)

(P3 ) (s) = 1

(P1 ) (s) + (s + ) (P2 ) (s) = 0

(P2 ) (s) + (s + ) (P3 ) (s) = 0


do :
(s + )2
,
s(s 2 + s( + 2) + 2 + 2
(s + )
,
(P2 ) (s) =
2
s(s + s( + 2) + 2 + 2

(P3 ) (s) =
s(s 2 + s( + 2) + 2 + 2
(P1 ) (s) =

La transforme de Laplace de la disponibilit vaut (P1 ) (s) et celle de lindisponibilit vaut (P2 ) (s) + (P3 ) (s). On retrouve la formule dj vue pour lindisponibilit limite :

A(+) = lim s (P1 ) (s) =

s0
+ 2

.. Mthode des variables complmentaires


Supposons que lvolution du systme soit dcrite par un processus de sauts
(X t )t 0 valeurs dans E tel que les temps de sjour dans les diffrents tats du
systme soient des variables alatoires non exponentielles. Ce processus nest
pas markovien. Cependant si au moment dun saut la loi de saut ne dpend que
de ltat du systme cet instant et si la loi du temps de sjour dans le nouvel
tat ne dpend que de cet tat on a affaire un processus semi-markovien. Si
on introduit la variable alatoire Ut reprsentant le temps pass par le processus dans ltat o il est linstant t, le processus (X t , Ut )t 0 est markovien. Mais
cest un processus valeurs dans E R+ . Cet espace nest plus dnombrable et
le processus (X t , Ut )t 0 nest pas un processus de sauts. Cest un processus de
Markov plus compliqu. Il satisfait galement des quations de Kolmogorov qui,
traduites dans ce cadre, donnent des quations aux drives partielles pour la
densit du couple (X t , Ut ).
Exemple : Considrons un lment de taux de dfaillance constant et de taux
de rparation variable gal (.). Ce systme est dcrit par le processus de sauts
(X t )t 0 qui vaut 1 lorsque le systme fonctionne et 0 lorsquil est en panne. On
note g (.) la densit de la loi du temps de rparation et P1 (t ) la probabilit que le

.. Systmes non markoviens


systme soit en fonctionnement au temps t . On considre galement p 2 (t , x) la
densit de Ut lorsque le systme est en panne au temps t :
Z
A borlien de R+ , P(X t = 2, Ut A) = p 2 (t , x) dx.
A

On peut alors crire les quations :


P1 (t + t ) = P1 (t ) (1 t ) + t

Z
p 2 (t , x)(x) dx + o(t )

p 2 (t + t , x + t ) = p 2 (t , x) (1 (x)t ) + o(t ),
ce qui donne en divisant par t en faisant tendre t vers 0 :
Z
d P1
(t ) = P1 (t ) + p 2 (t , x)(x) dx
dt
p 2
p 2
(t , x) +
(t , x) = (x) p 2 (t , x)
t
x
avec les conditions limites :
P1 (0) = 1,

p 2 (t , x) = 0 si x > t ,

p 2 (t , 0) = P1 (t ).

On peut rsoudre numriquement ces quations. On peut aussi donner un solution explicite laide des transformes de Laplace. On prend les transformes de
Laplace en t dans les quations ci-dessus et on trouve :
Z

s(P1 ) (s) 1 = (P1 ) (s) + (p 2 ) (s, x)(x) dx


s(p 2 ) (s, x) +

(p 2 )
(s, x) = (x)(p 2 ) (s, x).
x

La rsolution de lquation diffrentielle ci-dessus donne :


Z x

(p 2 ) (s, x) = (P1 ) (s) exp sx


(x) dx .
0

do
(P1 ) (s) =

s + g (s)

On retrouve la formule vue au chapitre prcdent. Il reste videmment inverser


la transforme de Laplace.
Cette mthode sapplique au cas gnral dun systme dcrit par un processus
de sauts semi-markovien lorsquil ny a pas de transition possible entre les tats
de panne et lorsque ltat initial est un tat de fonctionnement.

Chapitre . Fiabilit de systmes complexes

Transformation de Laplace
Le tableau suivant donne les transformes de Laplace
Z +
L ( f )(s) = F(s) =
est f (t ) dt
0

de quelques fonctions f usuelles.

Original f (t ) Image F(s) Conditions


t
eat
t n eat
cos t
sin t
f (t )

( + 1)
s +1
1
s+a
n!
(s + a)n+1
s
2
s + 2

2
s + 2
s
F( )

R, > 1
a R
a R, n N
R
R
>0

f (t a)

eas F(s)

a >0

eat f (t )

F(s + a)

a C

Rappel : drivation et convolution


L ( f 0 ) = s L ( f ) f (0)

et

L ( f g ) = L ( f ) L (g )

Chapitre . Transformation de Laplace

Bibliographie
Sur les files dattente
S. Asmussen : Applied probability and queues. J. Wiley .
Un livre trs complet abordant les techniques markoviennes et les techniques de
renouvellement.
A. Cernault : Simulation des systmes de production. Cepuades .
Un livre fait par des praticiens de la simulation industrielle.
R. Cooper : Introduction to queuing theory. Macmillan .
Une introduction aux modles de files dattente trs agrable lire.
E. Gelenbe and I. Mitrani : Analysis and synthesis of computer systems. Academic
Press .
Un livre fait par des informaticiens prsentant de nombreuses applications des
files dattente linformatique.
E. Gelenbe et G. Pujolle : Introduction aux rseaux de files dattente. Eyrolles .
Un livre orient vers les applications linformatique.
J. Pellaumail : Probabilits, statistiques, files dattente. Dunod .
Un cours de base en probabilits avec une partie sur les files dattente.
J. Pellaumail : Graphes, simulation, L-matrices. Hermes .
Un livre spcialis sur les techniques de simulation.
Ph. Robert : Rseaux et files dattente. Springer Verlag .
Un livre riche et complet qui va bien au del du prsent cours.
A. Ruegg : Processus stochastiques. Presses polytechniques romandes .
Un livre dinitiation trs agrable lire sur les techniques markoviennes en files
dattente et en fiabilit.

Chapitre . Bibliographie

Sur la fiabilit
J.-L. Bon Fiabilit des systmes. Masson .
Un livre facile daccs sur les aspects thoriques et pratiques de la fiabilit.
Ch. Cocozza-Thivent Processus stochastiques et fiabilit des systmes.
Springer .
Un livre trs complet sur les aspects thoriques et pratiques de la fiabilit.
N. Limnios : Arbres de dfaillance. Hermes .
Un livre intressant sur les arbres de dfaillance.
N.R. Mann, R.E. Schafer, N.D. Singpurwalla : Methods for statistical analysis of
reliability and life data. J. Wiley .
Un livre prsentant les techniques statistiques destimation des diffrentes lois
intervenant dans une tude de fiabilit.
A. Pages, M. Gondran : Fiabilit des systmes. Eyrolles .
Un livre prsentant tous les aspects les plus modernes de la fiabilit.
A. Villemeur : Sret de fonctionnement des systmes industriels. Eyrolles .
Un livre trs complet.

Vous aimerez peut-être aussi