Académique Documents
Professionnel Documents
Culture Documents
Files dattente
et fiabilit
Michel Roussignol
Daniel Flipo
File dattente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
..
Description du modle . . . . . . . . . . . . . . . . . . . . . .
..
..
Description du modle . . . . . . . . . . . . . . . . . . . . . .
..
Comportement du rseau . . . . . . . . . . . . . . . . . . . . .
Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . .
..
Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
..
Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
..
Proprit de Markov . . . . . . . . . . . . . . . . . . . . . . . .
. Matrice gnratrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
..
Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
..
Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
..
quations de Kolmogorov . . . . . . . . . . . . . . . . . . . . .
. Proprits asymptotiques . . . . . . . . . . . . . . . . . . . . . . . . .
..
..
Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
..
Thorme ergodique . . . . . . . . . . . . . . . . . . . . . . . .
Files dattente
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. Files M/M/. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
..
Cas M/M/1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
..
Cas M/M/ . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
..
Cas M/M/s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. Files M/G/1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Exemples simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
..
Un systme srieparallle . . . . . . . . . . . . . . . . . . . .
..
..
Un systme ferm . . . . . . . . . . . . . . . . . . . . . . . . . .
. Rseaux de Jackson . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Dfinitions gnrales . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. Test de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
..
Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . .
..
Loi (, ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
..
Loi de Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . .
..
Loi lognormale . . . . . . . . . . . . . . . . . . . . . . . . . . .
. Systmes un lment . . . . . . . . . . . . . . . . . . . . . . . . . . .
. Systmes simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
..
lments en srie . . . . . . . . . . . . . . . . . . . . . . . . . .
..
lments en parallle . . . . . . . . . . . . . . . . . . . . . . .
..
Diagramme de fiabilit . . . . . . . . . . . . . . . . . . . . . . .
..
Arbre de dfaillance . . . . . . . . . . . . . . . . . . . . . . . .
..
Coupes minimales . . . . . . . . . . . . . . . . . . . . . . . . .
ii
. Systmes markoviens . . . . . . . . . . . . . . . . . . . . . . . . . . . .
..
..
Transformation de Laplace
Bibliographie
iii
iv
Introduction
Ce texte correspond un enseignement de heures dans le cadre du D.E.S.S.
dIngnierie Statistique et Numrique de lUniversit des Sciences et Technologies de Lille. Il sadresse des tudiants titulaires dune matrise de mathmatiques appliques ayant reu un cours de base en probabilits.
Le but du cours est de montrer comment on tudie des rseaux de files dattente
ou la fiabilit de certains systmes laide de techniques markoviennes. On prsente dabord les outils fondamentaux : chanes de Markov, processus markoviens de sauts. laide de ces outils on tudie des files dattente et des rseaux
de files dattente dont les lois de service sont exponentielles et dont les flots darrive sont poissonniens. Dans ce cadre on peut donner explicitement les conditions de stabilit et dcrire les tats stationnaires. Une lgre excursion hors de
ce cadre est effectue dans le cas o, soit le service est exponentiel, soit le flot
darrive est poissonnien, car on peut encore utiliser une chane de Markov pour
mener ltude.
On prsente ensuite les notions de base de la fiabilit et quelques outils danalyse des systmes complexes. Mais l aussi, lessentiel du cours concerne les systmes dcrits par des processus de Markov. Il sagit des systmes rparables dont
les taux de dfaillance et de rparation sont constants. Dans ce cas on montre
comment calculer la disponibilit et la fiabilit du systme ainsi que les grandeurs moyennes qui leur sont attaches. Un paragraphe voque des mthodes
qui permettent de ramener dans le cadre markovien des systmes dont le taux
de rparation nest pas constant.
Ce cours a t crit en Word par Michel Roussignol qui a eu la gentillesse de me
laisser ses originaux quand je lui ai succd. Je len remercie bien vivement. Je me
suis content de convertir son texte en LATEX et dy faire quelques modifications
et complments.
Daniel Flipo
vi
Chapitre
Prsentation gnrale
des files dattente
. File dattente
La salle de rservation dans une grande gare SNCF donne une bonne reprsentation dune file dattente. Elle comprend un certain nombre de guichets et des
clients qui sont, soit en train dtre servis, soit en attente. La salle de rservation
forme le systme. Elle peut tre de capacit totale finie ou infinie. Les clients arrivent de manire alatoire selon un flot rgulier. Les temps de service sont galement alatoires. On va chercher savoir si la longueur de la file dattente a un
comportement stationnaire et dans ce cas calculer sa loi. Cela permet doptimiser le nombre de guichets ncessaires pour satisfaire les clients.
On rencontre des files dattente dans de nombreux cas. On vient de voir une file
dattente dans un organisme fournissant un service un certain public. On rencontre une file dattente lentre dune unit dun systme informatique lorsque
les travaux qui arrivent se mettent en attente avant dtre traits par cette unit.
Il en est de mme lentre dun poste de travail dans une usine pour les pices
qui doivent tre traites ce poste. On mesure sur ces exemples lintrt de la
connaissance du mcanisme de formation dune file dattente pour optimiser un
systme informatique ou un atelier de production.
.. Description du modle
Une file dattente est dcrite par plusieurs lments : la loi des temps darrive
des clients, la loi des temps de service, le nombre de serveurs, la longueur maxi-
.. File dattente
les notations de Kendall :
loi dinterarrive / loi de service / nombre de serveurs / longueur max. de la file
Les lois dinterarrives et les lois de services sont notes symboliquement : M
pour une loi exponentielle (M pour Markov on verra pourquoi plus tard), D pour
une loi dterministe (variable alatoire constante), U pour une loi uniforme, G
pour une loi quelconque (gnrale). Par exemple une file M/M/s/ signifie que
le flot darrives des clients est poissonnien, la loi de service est exponentielle, il y
a s serveurs et la capacit de la salle dattente est illimite. Lorsquon ne spcifie
pas le dernier paramtre celui-ci est infini. Sauf avis contraire la discipline de
service est FIFO.
Deux grandeurs interviennent pour caractriser le modle : le nombre moyen
darrives par unit de temps et la dure moyenne dun service. Ces nombres se
dduisent des lois dinterarrive et de service. Par exemple si le processus darrive est poissonnien, le temps moyen dinterarrive vaut linverse du paramtre
de la loi exponentielle et le nombre moyen darrives par unit de temps vaut ce
paramtre. Si la loi du temps de service est exponentielle, la dure moyenne de
service vaut linverse du paramtre de la loi exponentielle.
.. Description du modle
La description dun rseau de files dattente comprend la description de chaque
file dattente du rseau (on dira souvent chaque station du rseau) et la description de la circulation des clients entre ces stations et entre lextrieur et le rseau.
La description de chaque station est celle vue au paragraphe prcdent. Chaque
client qui entre dans une station se met en attente et reoit un service selon les
rgles de la station.
Le modle le plus simple de circulation des clients entre les stations est le suivant.
Chaque station est ventuellement alimente de lextrieur par un flot rgulier
darrive de clients et reoit de la sortie dun certain nombre de stations un flot
de clients. la sortie de chaque station, chaque client se dirige soit vers lextrieur, soit vers une autre station du rseau selon un tirage au sort de probabilit
donne.
Un tel rseau de files dattente est donc dcrit par les caractristiques internes de
chaque station (nombre de serveurs, loi de service, longueur maximum de la file,
discipline de service), par la loi des temps darrive de lextrieur en chaque station et par les probabilits de routage la sortie de chaque station vers lextrieur
ou vers chacune des autres stations.
Le modle darrive le plus courant est le processus de Poisson. On suppose que
pour chaque flot darrive de clients de lextrieur vers une station, les temps dinterarrive des clients forment une suite de variables alatoires indpendantes
.. Comportement du rseau
Comme pour une seule file dattente, la premire tape de ltude dun rseau
consiste savoir si le rseau va saturer, cest--dire si la longueur dau moins une
des files dattente va tendre vers linfini. En gnral il est assez facile de calculer
les flux moyens qui stablissent entre les stations si un rgime stationnaire se
met en place. En effet il suffit dcrire que les flots moyens dentre et de sortie
en chaque station sont gaux pour obtenir un systme linaire qui permet de
calculer le flux moyen de clients sur chaque lien du rseau en rgime stationnaire.
En comparant pour chaque station le flux moyen dentre et loffre moyenne de
service, on peut dterminer sil y a saturation ou non.
Lorsquil ny a pas saturation stablit un rgime stationnaire. Il est alors intressant de connatre les lois de probabilit ou tout au moins les valeurs moyennes
des grandeurs caractristiques en chaque station : longueur de la file dattente,
temps pass par un client en attente, nombre de serveurs occups. Dans le cas
o toutes les files dattente sont M/M/s et o les routages sont suffisamment
simples , on sait calculer ces lois de probabilit. Dans les autres cas, on a la plupart du temps recours aux techniques de simulation.
Cette tude permet de guider des choix pour optimiser le comportement du rseau. Bien sr en pratique les rseaux tudis sont souvent plus complexes que
ceux voqus ci-dessus. Il peut y avoir plusieurs classes de clients. Diverses synchronisations entre les services peuvent exister. Les tudes analytiques donnent
alors des rsultats insuffisants et on utilise les techniques de simulation.
. Ce point sera prcis au chapitre traitant des rseaux de Jackson.
. Simulation
Lorsque le modle tudi est trop compliqu pour faire des calculs analytiques,
on a recours aux techniques de simulation. On simule le modle sur ordinateur
et on traite les rsultats observs par des techniques statistiques.
Pour illustrer ceci on va donner un exemple simple de simulation. Un atelier se
compose de quatre postes dont trois machines dusinage (M, M, M) et un
poste de contrle manuel (C). Il est organis comme indiqu ci-dessous.
Les quatre postes sont prcds de files dattente (stocks tampons) dans lesquels
saccumulent les pices en attente de traitement. Latelier produit deux types de
pices P et P dont les caractristiques sont les suivantes :
P arrive en M sur lequel elle est usine en mn, puis passe en M sur lequel
elle est usine en mn ; ensuite elle passe au poste de contrle manuel C ; le
temps de contrle est variable et peut tre considr comme uniformment
distribu entre et mn ; enfin P sort de latelier.
P arrive en M sur lequel elle est usine en mn ; elle passe en M sur lequel
elle est usine en mn ; puis elle passe au contrle C ; le temps de contrle est
du mme type que pour P.
Les pices arrivent dans latelier de manire alatoire. On a pu estimer quelles
arrivent selon un processus de Poisson, le temps moyen dinterarrive tant de
mn. Il y a % de pices P et % de pices P et on suppose que lorsquune
pice arrive, elle est de type P avec probabilit . et du type P avec probabilit
..
Au poste de contrle, % des pices sont envoyes au rebut. Partout les pices
sont traites par ordre darrive.
Le problme est dvaluer les performances de ce systme de production. On
peut dj faire une analyse des flux moyens travers ce systme si un tat stationnaire stablit. Il arrive en moyenne pices par heure, dont . pices P et
. pices P. Dans la station M la demande moyenne de service pendant une
heure vaut : .x+.c=. mn, soit un taux dutilisation de ./=.. En M
la demande moyenne de service par heure vaut .x=. mn, soit un taux dutilisation de ./=.. En M la demande moyenne de service par heure vaut
.x= mn, soit un taux dutilisation de /=.. En C la demande moyenne
de service par heure vaut x.= mn, soit un taux dutilisation de /=..
Aucun poste nest satur en moyenne. Un rgime stationnaire doit stablir. On
veut connatre pour ce rgime les tailles moyennes des stocks intermdiaires et
les temps de sjour moyens des pices dans le systme.
Plusieurs logiciels existent sur le march pour effectuer ce genre de simulation,
par exemple Qnap distribu par la socit Simulog, filiale de lInria, ou Witness
distribu par le groupe Lanner.
.. Simulation
Malheureusement, les tarifs proposs par les diteurs aux tablissements denseignement nous ont fait renoncer les prsenter dans le cadre de ce cours.
Les rsultats de la simulation sous Qnap sont donns dans le tableau suivant o
les quantits suivantes interviennent :
SERVICE temps moyen de service dans la station pour un type de client,
BUSY PCT taux dutilisation de la station,
CUST NB nombre moyen de clients dans la station,
RESPONSE temps moyen pass dans la station pour un type de client,
SERV NB nombre total de clients ayant transit dans la station.
TIME = .
NAME
C
(P)
(P)
M
(P)
(P)
M
(P)
M
(P)
SERVICE
.
.
.
.
.
.
.
.
.
.
BUSY PCT
.
.
.
.
.
.
.
.
.
.
CUST NB
.
.
.
.
.
.
.
.
.
.
RESPONSE
.
.
.
.
.
.
.
.
.
.
SERV NB
Chapitre
Processus markoviens de sauts
. Introduction
Dans ce chapitre nous allons tudier des processus de Markov qui permettent
de modliser et dtudier des files dattente. Nous commencerons par donner
des proprits du processus de Poisson qui modlise les arrives de clients dans
une file. Puis nous dfinirons les processus markoviens de sauts et tudierons
certaines de leurs proprits.
Un processus stochastique est une famille (X t )t 0 de variables alatoires indexes
par le temps t . Les variables alatoires X t que nous tudierons dans ce cours
prennent leurs valeurs dans une espace E dnombrable. Par exemple E est gal
N lorsque X t reprsente le nombre de clients prsents dans une file dattente
au temps t . Dans un rseau de quatre stations, E est gal N4 lorsque le processus X t vaut (X 1 (t ), X 2 (t ), X 3 (t ), X 4 (t )) o X i (t ) reprsente le nombre de clients
prsents dans la station i , (i = 1, 2, 3, 4) au temps t .
Nous allons tudier des processus de Markov. Il sagit de processus X t tels que la
loi du processus aprs un instant t dpend du pass du processus uniquement
travers la connaissance de X t . Lorsque X t reprsente le nombre de clients prsents dans une file dattente, la proprit de Markov est vrifie si le flux dentre
est Poissonnien et si les temps de service ont des lois exponentielles. Lintrt des
processus de Markov est que lon peut obtenir une description complte de ltat
stationnaire quand il existe.
. Processus de Poisson
Nous allons tudier un modle appel processus de Poisson. Ce processus reprsente par exemple les instants darrives successifs de clients dans une file
dattente.
On note T1 linstant darrive du premier client, T2 le deuxime, Tk le k-me et
ainsi de suite. La suite (Tk )k1 est une suite croissante de variables alatoires
valeurs dans R+ .
On note i les dures des intervalles interarrives : pour i 2, i = Ti Ti 1 et
1 = T1 . La suite (i )i 1 est donc galement une suite de variables alatoires
valeurs dans R+ .
Dfinition .. Si les variables alatoires (i )i 1 sont indpendantes et de mme
P
loi exponentielle de paramtre a (a > 0), on dit que la suite (Tk = ki=1 i )k1 est
la suite des instants de saut dun processus de Poisson de paramtre a.
Rappelons la densit de la loi exponentielle : f (x) = aeax 1x>0 . Lesprance et la
variance dune variable exponentielle de paramtre a sont donnes par
E() =
1
,
a
Var() =
a2
Les proprits suivantes des variables exponentielles, absence de mmoire, minimum et somme de variables indpendantes, joueront un rle crucial dans la
suite.
Proposition .. (absence de mmoire) Une variable alatoire densit est
exponentielle si et seulement si
s > 0, t > 0,
Cette proprit permet de poser T0 = 0, cest--dire de supposer quun client arrive linstant 0.
Dmonstration. faire en exercice.
Proposition .. Si 1 et 2 sont deux variables exponentielles indpendantes
de paramtres a 1 et a 2 , alors la variable inf(1 , 2 ) suit une loi exponentielle de
paramtre a 1 + a 2 . De plus,
P(1 < 2 ) =
Dmonstration. faire en exercice.
a1
a1 + a2
.. Processus de Poisson
Proposition .. La somme de n variables alatoires indpendantes de loi exponentielle de paramtre a suit une loi (appele loi Gamma de paramtres n et a)
dont la densit est
(ax)n1 ax
e
1x0 .
f n (x) = a
(n 1)!
En particulier, pour tout n 1, la variable alatoire Tn a la densit f n ci-dessus.
Dmonstration. f n (x) est la convolue n-fois de la densit exponentielle f 1 (x).
La dmonstration est facile par rcurrence sur n.
Pour un temps t fix, on va sintresser la variable alatoire Nt gale au nombre
de clients arrivs dans lintervalle ]0, t ] :
Nt =
1Tm t .
m1
x
et en intgrant par parties en posant d u = (n1)!
dx et v = a n eax :
a n t n eat
+ P(Tn+1 t )
n!
a n t n eat
=
+ P(Nt n + 1).
n!
=
Finalement
a n t n at
P(Nt = n) = P(Nt n) P(Nt n + 1) =
e .
n!
La loi des instants de saut T1 , T2 , . . . , Tk dun processus de Poisson se dduit facilement de celle des (i )1i k :
t1
t2
t
k
=
=
..
.
=
u1
u1 + u2
u1
u2
u1 + u2 + + uk
u
k
=
=
..
.
=
t1
t2 t1
t k t k1
Cest un diffomorphisme de classe C 1 de D = {0 < t 1 < t 2 < . . . < t k } dans = (R+ )k . Son jacobien
vaut 1 (systme linaire triangulaire), le thorme de changement de variables donne pour h
fonction borlienne positive
E[h(T1 , T2 , . . . , Tk )] = E[h(1 , 1 + 2 , . . . , 1 + + k )]
Z
k
Y
h(u 1 , u 1 + u 2 , . . . , u 1 + + u k )
aeaui du 1 . . . du k
=
k
(R
+)
Z
=
h(t 1 , t 2 , . . . , t k ) eatk a k dt 1 . . . dt k
Z
=
i =1
k
(R
+)
1i n
.. Processus de Poisson
proposition .., on calcule pour h fonction borlienne positive
E[h(T1 , T2 , . . . , Tn ) 1Nt =n ] = E[h(T1 , T2 , . . . , Tn ) 1Tn t <Tn+1 ]
Z
=
h(t 1 , t 2 , . . . , t n ) 1tn t <tn+1
(R+ )n+1
at n+1
(R+ )n
Z
=
(R+ )n
On divise cette expression par P(Nt = n) = eat (at )n /n!, do lesprance conditionnelle
Z
E[h(T1 , T2 , . . . , Tn ) | Nt = n] =
Rn
h(t 1 , t 2 , . . . , t n )
n!
10<t1 <t2 <...<tn <t dt 1 . . . dt n .
tn
n!
10<t1 <t2 <...<tn <t .
tn
Il reste vrifier que g est aussi la densit du rordonnement de n points tirs uniformment
au hasard sur [0, t ]. La densit du vecteur (X 1 , X 2 , . . . , X n ) est t n sur le pav [0, t ]n , on subdivise
celui-ci en n! secteurs (S k )1kn! correspondant aux diffrentes permutations des (x i ) et on fait
sur chaque secteur le changement de variable (x 1 , . . . , x n ) 7 (y 1 , . . . , y n ) (rordonnement par ordre
croissant), dont le jacobien vaut 1 :
E[h(Y1 , . . . , Yn )] =
X Z
1kn! S k
Z
= n!
0<y 1 <...<y n
h(y 1 , . . . , y n )
1
dx 1 . . . dx n
tn
1
dy 1 . . . dy n ,
tn
do le rsultat.
Le rsultat prcdent est la base du test de Laplace utilis en fiabilit (voir chapitre ). On lutilise galement pour calculer les probabilits P(Nu = k | Nt = n)
avec 0 k n et 0 < u < t . Les X i tant tires uniformment au hasard sur [0, t ],
chacune delles a probabilit u/t de tomber dans [0, u]. La loi du nombre dentre
elles qui tombe dans [0, u] est donc binomiale de taille n et de paramtre u/t .
P(Nu = k | Nt = n) = Cnk
u k
u nk
.
1
t
t
k t t
Y
n!
i
i 1 n i
avec n = n 1 + n 2 + + n k .
=
n 1 ! n 2 ! . . . n k ! i =1
t
e
.
n1 !
n2 !
nk !
.. Processus de Poisson
Posons n = n 1 + n 2 + + n k et conditionnons par {Ntk = n} pour utiliser lgalit (.) :
P(Nt1 = n 1 Nt2 Nt1 = n 2 . . . Ntk Ntk1 = n k )
= P(Nt1 = n 1 Nt2 Nt1 = n 2 . . . Ntk Ntk1 = n k | Ntk = n) P(Ntk = n)
(at )n
k t t
Y
n!
i
i 1 n i
k
eatk
(en posant t 0 = 0)
=
n 1 ! n 2 ! . . . n k ! i =1
tk
n!
k ni
ni
k a n i (t t
Y a (t i t i 1 )ni at
Y
i
i 1 )
=
e k=
ea(ti ti 1 ) .
ni !
ni !
i =1
i =1
Rciproque : on suppose la fonction de comptage N accroissements indpendants et on calcule
pour 0 < t 1 < t 2 < . . . < t k , la fonction
G(t 1 , t 2 , . . . , t k ) = P(0 < T1 t 1 < T2 t 2 < . . . < t k2 Tk1 < t k1 < Tk t k )
= P(Nt1 N0 = 1 Nt2 Nt1 = 1 . . .
Ntk1 Ntk2 = 1 Ntk Ntk1 1)
= at 1 e
at 1
a(t 2 t 1 ) ea(t2 t1 )
a(t k1 t k2 ) ea(tk1 tk2 ) (1 ea(tk tk1 ) )
= a k1 t 1 (t 2 t 1 ) (t k1 t k2 )(eatk1 eatk ).
La suite des (T j ) tant p.s. strictement croissante, la loi du vecteur T1 , T2 , . . . , Tk est porte par le
sous-ensemble {0 < t 1 < t 2 < . . . < t k } de Rk+ . Sur cette partie, G est de classe C en t 1 , t 2 , . . . , t k et
reprsente essentiellement la fonction de rpartition F du vecteur T1 , T2 , . . . , Tk , prcisons les
choses dans le cas k = 3 :
G(t 1 , t 2 , t 3 ) = P(0 < T1 t 1 < T2 t 2 < T3 t 3 )
= P(T1 t 1 T2 t 2 T3 t 3 (T2 > t 1 T3 > t 2 ))
= P(T1 t 1 T2 t 2 T3 t 3 )
P((T1 t 1 T2 t 2 T3 t 3 ) (T2 t 1 T3 t 2 ))
= F(t 1 , t 2 , t 3 ) P((T2 t 1 T3 t 3 ) (T1 t 1 T3 t 2 ))
= F(t 1 , t 2 , t 3 )
P(T2 t 1 T3 t 3 ) P(T1 t 1 T3 t 2 ) + P(T2 t 1 T3 t 2 )
ce qui tablit, dans le cas k = 3, que G et F ont donc mme drive par rapport t 3 , t 2 , t 1 . Il en est
de mme dans le cas gnral :
k F(t 1 , t 2 , . . . , t k ) k G(t 1 , t 2 , . . . , t k )
=
= a k eatk .
t 1 t 2 . . . t k
t 1 t 2 . . . t k
La loi du vecteur T1 , T2 , . . . , Tk admet donc une densit sur Rk+ de la forme
f (t 1 , t 2 , . . . , t k ) = a k eatk 10<t1 <t2 <...<tk ,
on reconnat la loi trouve la proposition .., ce qui tablit la rciproque.
(as) j as
e .
j!
(as) j as
e .
j!
e
n1 !
n2 !
nk !
.. Processus de Poisson
Le processus de Poisson se retrouve dans de nombreuses applications. On a dj
parl des flots darrive de clients dans les files dattente. Le processus de Poisson modlise galement les temps de dsintgration dune particule radioactive.
Ce modle se retrouve dans les appareils de radiographie en mdecine nuclaire.
Les temps de passage de voitures sur une route grande circulation non embouteille constituent galement un processus de Poisson.
Terminons en donnant deux rsultats sur la superposition de processus de Poisson indpendants et sur lopration inverse de dcomposition.
Thorme .. Soient (N1t ) et (N2t ) deux processus de Poisson indpendants ( i.e.
tout vnement li lun est indpendant de tout vnement li lautre), de
paramtres respectifs a 1 et a 2 , on appelle superposition de ces deux processus le
processus somme :
t R+ , Nt = N1t + N2t .
Alors (Nt ) est un processus de Poisson de paramtre a = a 1 + a 2 .
Inversement, si (Nt ) est un processus de Poisson de paramtre a, on associe
aux instants de saut (Tn )nN) de ce processus une suite de variables de Bernoulli
(Yn )nN) indpendantes, indpendantes du processus (Nt ) et de mme loi :
n N,
P(Yn = 1) = p,
P(Yn = 0) = 1 p.
Soit (N1t ) (resp. (N2t )) le processus dont les instants de saut sont les (Tn ) tels que
Yn = 1 (resp. Yn = 0), alors (N1t ) et (N2t ) sont des processus de Poisson de paramtres a 1 = ap et a 2 = a(1 p) respectivement.
Exemples dapplication :
sur une voie double sens, si les flux de vhicules venant de droite et de gauche
sont deux processus de Poisson de paramtres a 1 et a 2 respectivement, le flux
global de vhicules est un processus de Poisson de paramtre a 1 + a 2 ;
si le flux total de voitures est un processus de Poisson de paramtre a et que
% des voitures sont rouges, le flux de voitures rouges est aussi un processus
de Poisson (de paramtre 0, 05a).
Dmonstration. ) Superposition : il est clair que le processus somme (Nt ) est accroissements
indpendants. Dautre part la somme de deux variables de Poisson indpendantes, de paramtres
et est une variable de Poisson de paramtre + ( vrifier directement ou en utilisant les
fonctions gnratrices), donc pour tous t , s > 0, N3t +s N3t somme de deux variables de Poisson de
paramtres a 1 s et a 2 s, suit une loi de Poisson de paramtre (a 1 + a 2 )s et daprs le thorme ..
(N3t ) est un processus de Poisson de paramtre a 1 + a 2 .
) Dcomposition : il est facile de voir que la suite des intervalles interarrives du processus (N1t )
(ou (N2t )) est une suite de variables indpendantes. Il reste vrifier que ces intervalles interarrives suivent des lois exponentielles de mme paramtre. Supposons que Yn = 1 et plaons nous
X
k=1
X
k=1
(indpendance)
k=1
(1 p)k1 p
k=1
Z
=
Z
=
a
t
(au)k1 au
e
du
(k 1)!
(a(1 p)u)k1
X
du
(k 1)!
k=1
(loi gamma)
(Tonelli-Fubini)
ap eau ea(1p)u du
Z
=
ap eau
ap eapu du.
Donc est bien exponentielle de paramtre ap et (N1t ) est un processus de Poisson de paramtre ap.
.. Dfinitions
Dfinition .. La famille (X t )t 0 de variables alatoires valeurs dans un espace fini ou dnombrable E est appele un processus de sauts si pour tout
de lespace de probabilit, la fonction de R+ dans E qui t associe X t () est
constante par morceaux, continue droite, limite gauche et la suite des instants de saut de cette fonction est une suite infinie qui tend vers linfini.
.. Exemples
Processus de Poisson
Nous avons tudi au chapitre prcdent le processus de Poisson. Nous avons vu
que le processus de comptage (Nt )t 0 est un processus alatoire valeurs dans N,
qui vaut 0 au temps 0 et qui saute de 1 chacun des instants alatoires Ti qui
caractrisent le modle. Quand le processus est dans ltat i , il saute en i + 1 au
bout dun temps alatoire de loi exponentielle de paramtre .
.. Proprit de Markov
La dfinition dun processus markovien de sauts implique la proprit de Markov
suivante.
Proposition .. Si (X t )t 0 est un processus markovien de sauts valeurs dans E,
il satisfait la proprit de Markov suivante : pour tout n 0, pour toute suite croissante dinstants 0 < t 1 < t 2 < . . . , t n < t n+1 R+ et toute suite x 1 , x 2 , . . . , x n , x n+1
dtats de E,
P(X tn+1 = x n+1 | X tn = x n , . . . , X t1 = x 1 , X 0 = x 0 ) = P(X tn+1 = x n+1 | X tn = x n )
= P(X tn+1 tn = x n+1 | X 0 = x n ).
Nous allons juste donner une justification heuristique de cette proposition. Si Tk
est linstant de saut du processus qui prcde linstant t n , daprs la dfinition, le
processus perd la mmoire de ce qui sest pass avant Tk , sachant quil se trouve
dans ltat x n cet instant. Donc la seule influence ventuelle du pass de t n est
le temps alatoire dj pass dans ltat x n . Mais la loi de Tk+1 Tk est une loi
exponentielle de paramtre (x n ). On sait que le processus na pas saut entre Tk
et t n , donc la loi de Tk+1 t n est la loi de (Tk+1 Tk t n +Tk ) sachant que Tk+1 Tk
est plus grande que t n Tk . On sait que cest encore une loi exponentielle de
paramtre (x n ). Donc partir de t n , sachant que le processus est dans ltat x n ,
le processus oublie tout le pass.
Les quantits P(X s = y | X t = x) ne dpendent que de x, y et t s. On note alors :
P(X s = y | X t = x) = P(X st = y | X 0 = x) = Pst (x, y).
Dfinition .. On appelle probabilits de transition la famille (Pt )t R+ de matrices markoviennes dfinies par
(x, y) E2 ,
Pour tout rel positif t , la matrice Pt (., .) est une matrice markovienne (on dit
aussi matrice stochastique). Lhypothse de continuit droite sur les trajectoires
entrane que, pour tous x et y, les fonctions qui t associent Pt (x, y) sont continues droite. En particulier, si on dsigne par I la matrice identit sur E E, on a
pour tous x et y de E :
lim Pt (x, y) = I(x, y).
t 0+
P(X t +s = y | X t = z, X 0 = x) P(X t = z | X 0 = x)
zE
zE
. Matrice gnratrice
On va dfinir une nouvelle matrice, la matrice gnratrice, qui caractrise le processus.
.. Dfinitions
Proposition .. Considrons un processus markovien de sauts (X t )t 0 associ
la famille borne de paramtres strictement positifs ((x), x E) et la matrice
markovienne de diagonale nulle (Q(x, y), (x, y) E2 ). Les probabilits de transition t Pt (x, y) de ce processus sont drivables droite en 0 et on a :
(x, y) E E, (x 6= y)
x E,
1
Pt (x, y)
= (x)Q(x, y),
t 0+ t
1
lim (Pt (x, x) 1) = (x).
t 0+ t
lim
.. Matrice gnratrice
valuons le premier terme en utilisant le fait que 1 et 2 sont deux variables
exponentielles indpendantes :
Z
Px (1 t , X T1 = y, 1 + 2 > t ) = Q(x, y)
(x)e(x)u (y)e(y)v dudv
{ut , u+v>t }
(x)
(e(y) t
(x)(y)
(x) t
(
= Q(x, y)
(x)t e
si (x) = (y)
Px (1 t , X T1 = z, 2 t )
zE
zE
zE
(x)Mt 2
En dfinitive on trouve :
P(X t = y | X 0 = x) = (x)Q(x, y)t + o(t ).
Dautre part dans le cas y = x :
Px (X t = x) = Px (T1 > t ) + Px (T1 t , T2 t , X t = x).
Le premier terme vaut Px (T1 > t ) = e(x)t = 1 (x)t + o(t ) et le second est infiniment petit devant t :
Px (T1 t , T2 t , X t = x) Px (T1 t , T2 t )
Px (1 t , 2 t )
(x)Mt 2 .
On en dduit que :
P(X t = x | X 0 = x) 1 = (x)t + o(t ).
Dfinition .. On appelle gnrateur (ou matrice gnratrice) dun processus
markovien de sauts de probabilits de transition (Pt )t 0 la matrice A drive
droite en 0 de (Pt ) :
(
(x)Q(x, y) si x 6= y,
Pt (x, y) I(x, y)
2
(x, y) E A(x, y) = lim
=
t 0+
t
(x)
si x = y.
On vient de voir que pour un processus markovien de sauts cette matrice existe
toujours.
.. Exemples
Processus de Poisson
Pour tout x entier, (x) est gal et Q(x, x + 1) gal 1. Do pour tout x :
y < x
A(x, y) = 0,
A(x, x) = et A(x, x + 1) = ,
y > x + 1 A(x, y) = 0.
On a le gnrateur :
0
0
0
0
A=
..
.
0
..
.
0
..
.
0
0
...
...
...
.
. .
.. ..
.
.
A(0, 0) = A(0, 1) =
A(1, 0) =
A(1, 1) =
Le gnrateur vaut :
A=
A(0, 1) =
A(n, n) = ( + )
A(n, n + 1) = si n > 0.
.. quations de Kolmogorov
Le calcul direct des probabilits de transition est souvent difficile, voire impossible. Le thorme suivant va donner un moyen de calculer les probabilits de
transition partir du gnrateur.
.. Matrice gnratrice
Proposition .. (quations de Kolmogorov) Considrons un processus markovien de sauts de probabilits de transition (Pt )t 0 et de gnrateur A. On a la
relation :
(Pt )0 = Pt A = APt
(Pt )0 dsigne la drive de Pt au point t strictement positif et la drive droite
si t vaut 0 :
Pt +s (x, y) Pt (x, y)
.
(Pt )0 (x, y) = lim
s0
s
Dmonstration. Nous ne ferons la dmonstration que dans le cas o E est fini. La
formule de Chapman-Kolmogorov scrit :
(x, y) E2 ,
Pt +s (x, y) =
zE
X tk k
A .
k0 k!
A=
En diagonalisant A ( faire en exercice) on trouve :
Pt = e
tA
1
=
+
+ e(+)t
e(+)t
e(+)t
+ e(+)t
. Proprits asymptotiques
.. Mesures invariantes, rversibles
Lanalyse du comportement asymptotique passe par lidentification dune probabilit invariante sur lespace des tats E. Une probabilit sur E est invariante
par le processus si pour tout temps t et tout tat y de E on a Pt = soit :
X
(x)Pt (x, y) = (y).
xE
cest--dire que si est la loi de probabilit de X 0 , alors pour tout temps t la loi
de X t est encore .
En drivant cette relation en t et en faisant t gal , on arrive la dfinition
suivante.
Dfinition .. La probabilit sur E est dite invariante pour un processus de
Markov de gnrateur A si et seulement si A = 0 soit :
X
(x)A(x, y) = 0.
y E,
xE
xE
xE
En pratique pour chercher une probabilit invariante, il est recommand de commencer par chercher une probabilit rversible, plus facile identifier quand elle
existe.
.. Proprits asymptotiques
.. Exemples
Processus de Poisson
Lquation dinvariance donne : i 0,
bilit invariante.
et (1) = +
On trouve comme unique probabilit invariante : (0) = +
0
0
0
( + )
0
0
( + )
0
A=
0
0
( + )
..
..
..
..
..
.
.
.
.
.
...
...
...
..
.
..
(x 1) = (x)
do :
x 0,
(x) = (0)
Il existe une probabilit rversible si la srie de terme gnral (x) est convergente, cest--dire si < . Cette probabilit rversible scrit alors :
x
x 0 (x) = 1
.
.. Thorme ergodique
Dfinition .. Un processus markovien de saut de matrice gnratice A est dit
irrductible si pour tous tats x et y (x 6= y), il existe des tats x 1 , x 2 , . . . x n tous
diffrents tels que :
A(x, x 1 )A(x 1 , x 2 ) . . . A(x n1 , x n )A(x n , y) > 0.
Chapitre
Files dattente
. Introduction
Nous avons vu dans le chapitre quune file dattente est dcrite par la loi des
temps darrive des clients, la loi des temps de service, le nombre de serveurs
et la longueur maximum de la file dattente. Dans ce chapitre nous supposerons
que les clients arrivent selon un processus de Poisson. Nous supposerons que les
temps de service sont des variables alatoires indpendantes de mme loi, indpendantes du processus des arrives. Dans un premier temps nous supposerons
que la loi de service est exponentielle. Nous pourrons alors utiliser les techniques
vues au chapitre prcdent et calculer explicitement les caractristiques de ltat
stationnaire quand il existe. Dans le cas plus gnral dune loi de service quelconque, nous verrons quen utilisant une chane de Markov on peut obtenir des
rsultats.
. Files M/M/.
Dans ces files les clients arrivent selon un processus de Poisson de paramtre .
Les temps de service sont des variables alatoires indpendantes, de mmes lois
exponentielles de paramtre et indpendantes du processus des arrives. On
note Nt le nombre de clients en attente, y compris ceux qui sont en train dtre
servis, au temps t .
Proposition .. Le nombre Nt de clients prsents (en attente ou en service)
linstant t dans une file M/M/s (s pouvant valoir linfini) est un processus mar-
si n > 0
si m 6= n 1, et m 6= n.
Dmonstration. Le processus Nt est lvidence un processus de sauts. Les proprits de perte de mmoire du processus de Poisson et de la loi exponentielle
permettent de montrer que ce processus est markovien. Les valeurs de la matrice
gnratrice se calculent sans problme.
Il est clair que ce processus est irrductible. Nous avons vu au chapitre prcdent, au moins dans le cas s = 1, quil admet une mesure rversible unique
une constante multiplicative prs. Pour chaque valeur de s, suivant les valeurs
de et cette mesure rversible est finie ou non. Lorsquelle est finie, il existe
une probabilit rversible, donc invariante et le thorme limite .. sapplique.
Le processus (Nt )t 0 se stabilise sur un tat dont la loi est cette probabilit rversible. Les caractristiques de la longueur de la chane dans ltat stationnaire sont
donc donnes par cette probabilit. Nous allons faire ces calculs pour diffrentes
valeurs de s.
.. Cas M/M/1
Dans ce cas il y a un seul serveur. Cest la file dattente la plus simple. Le gnrateur est donn par :
n N, A(n, n + 1) =
n N , A(n, n 1) = .
n
On obtient comme mesure rversible : m n = m 0 .
Cette mesure est finie si < et alors lunique probabilit rversible vaut :
n = 1
On a montr la proposition :
Proposition .. Dans le cas M/M/1, le processus (Nt )t 0 admet une unique
probabilit invariante lorsque le paramtre du processus de Poisson des arrives est strictement infrieur au paramtre de la loi exponentielle des services (cest--dire par unit de temps le nombre moyen darrives est infrieur
au nombre moyen de clients servis). Cette probabilit est une loi gomtrique
sur N de paramtre a = /.
.. Files M/M/.
On peut montrer que lorsque est strictement plus grand que la longueur de
la file tend vers linfini. Lorsque est gal , le processus nadmet pas de probabilit invariante.
Lorsque est strictement plus petit que , la longueur (nombre de clients prsents) de la file dattente en rgime stationnaire a pour moyenne et variance :
E(N) =
Var(N) =
2
1
n!
En notant N le nombre de clients en attente larrive du client test et R le temps
total dattente plus service de ce client on a :
g n+1 (x) =
P(R t ) =
=
X
n=0
P(N = n) P(R t | N = n)
n
n=0
X
Z
0
g n+1 (x) dx
Z
n t (x)n ex
dx
=
1
n 0
n!
n=0
Z t
n (x)n
X
=
1
ex
dx
n n!
0
n=0
Z t
=
( )ex ex dx.
0
.. Cas M/M/
Dans ce cas il y a une infinit de serveurs. Le gnrateur est donn par :
n N, A(n, n + 1) = ,
n N , A(n, n 1) = n.
Proposition .. Dans le cas M/M/, le processus (Nt )t 0 possde une probabilit invariante unique qui suit une loi de Poisson de paramtre /.
Dmonstration. Une mesure rversible satisfait la relation :
n,
m n = m n+1 (n + 1),
do m n = m 0
1 n
.
n!
.. Cas M/M/s
Il y a s serveurs. Le gnrateur est donn par :
n N, A(n, n + 1) = ,
n N , A(n, n 1) = inf(n, s).
.. Files M/M/.
Proposition .. Dans le cas M/M/s, le processus (Nt )t 0 possde une probabi
lit invariante unique si = s
est strictement plus petit que 1. Cette probabilit
vaut :
1 j
0
si j s,
j =
j!
ss j
j =
0
si j s,
s! s
s1
X 1 j
1 1 s
1
+ 1
.
=
avec
0
s
s!
j =0 j !
Dmonstration. Une mesure rversible satisfait : m n1 = m n inf(n, s). On en
dduit :
1 i
1 s+ j
mi = m0
pour i s et m s+ j = m 0
.
i!
s!s j
Si = /s < 1, cette mesure est finie et en la normalisant on trouve la probabilit
invariante annonce.
Lorsque = /s est strictement plus grand que 1, le processus (Nt )t 0 tend vers
linfini.
Lorsque est gal s le processus nadmet pas de probabilit invariante.
Lorsque = /s est strictement plus petit que 1, il existe donc un rgime stationnaire. Sous ce rgime, on peut calculer la probabilit pour que tous les serveurs
soient occups. Cette probabilit vaut :
C=
j =
j =s
s s s
sa s
0 =
0
(s a)s!
1 s!
avec a =
et =
Ceci constitue la deuxime formule dErlang (terminologie europenne) ou Erlang delay formula (terminologie USA).
La charge de service (ou facteur dutilisation) reprsente le nombre moyen de
serveurs occups en rgime stationnaire et vaut :
s2
X ak
a j 1
s a s1
j j + s
j = a
0 + sC = a0
+
= a.
a =
(s a)(s 1)!
j =s
j =1 ( j 1)!
j =1
k=0 k!
0
s1
X
s1
X
s
X
X
a j 0
a j 0
+
j
j
j s
j!
j =s+1 s!s
j =0
X
a s 0
a i +s 0
= a 1
+ (i + s)
(s 1)!(s a)
s!s i
i =1
E(N) =
=a+
0 a s+1
(s 1)!(s a)2
1
2
a
1 + a + 2a
2a
2+a
et j =
aj
2 j 1
pour
j 1.
Alors on trouve :
E(N) =
4a
4
>
=
2
4a
(2 )(2 + ) 2
La file dattente avec un serveur est plus petite en moyenne que la file dattente
avec deux serveurs. Cest normal intuitivement car la capacit de service maximale du systme deux serveurs est moins utilise que celle un serveur.
Il est possible de trouver une formule simple pour la loi du temps dattente dun
client en rgime stationnaire. Le temps dattente est le temps pass par un client
entre son arrive et son dbut de service. Appelons W ce temps dattente. On a
dj calcul P(W > 0), cest la probabilit pour que tous les serveurs soient occups. Calculons P(W > t ). Si un client arrive et trouve s personnes en train dtre
servies et aucune en attente, il attendra un temps alatoire exponentiel de paramtre s avant de commencer tre servi (cf. prop. .. et ..). Si un client
arrive et trouve s + j personnes dans le systme, il attendra avant de commencer
tre servi un temps gal la somme de j +1 variables alatoires indpendantes
exponentielles de paramtre s. En notant N le nombre de clients en attente
larrive du client test, on a :
X
P(W > t ) =
P(N = j + s) P(W > t | N = j + s)
j 0
X
j 0
s+ j
Z
t
(s) j +1 x j sx
e
dx
j!
.. Files M/M/.
X
j 0
a j +s
s!s j
a s s
s!
a s s
= 0
s!
= 0
Z
t
esx
X (ax) j
dx
j!
j 0
avec a =
ex(sa) dx
Z
= P(W > 0)
(s) j +1 x j sx
e
dx
j!
(s a)e(sa)x dx.
a s 0
1
=
(s a) (s 1)!(s a)2
Le temps moyen de rponse vaut alors : E(W) + 1/. On peut calculer en exercice
la loi du temps de rponse. On trouve une densit gale :
P(W > 0)
P(W > 0)
x
+ (s a)e(sa)x
e
1
1s +a
1s +a
Si R est le temps de rponse pour un client, on constate que pour une file M/M/s
on a la formule :
E(N) = E(R)
Cette formule, galement vraie pour une file M/M/ est trs gnrale. Elle porte
le nom de formule de Little . Ce quon appelle en gnral formule de Little est
plutt lgalit
E(L) = E(W)
o L dsigne le nombre de clients en attente et W le temps dattente dun client.
Lquivalence des deux formules rsulte des galits R = W + et N = L + S o S
. Ce nest pas E(R) = E() E(N) mais E(R) = E() E(N) !
P(Ytk+1 = a k+1 )
P(Ytk = a k )
.. Files M/G/1
Comme le processus (X t )t 0 est stationnaire, les probabilits de transition du processus (Yt )0t T valent (poser a k = i , a k+1 = j ) :
Qt (i , j ) = Pt ( j , i )
j
i
j
i
= A(i , j )
. Files M/G/1
Dans ce paragraphe, nous allons tudier une file dattente un serveur telle que
le flot darrive des clients est un processus de Poisson de paramtre et telle que
les temps de service des diffrents clients sont des variables alatoires indpendantes de mme loi toutes indpendantes des arrives. La discipline de service
est toujours premier arriv, premier servi. Lorsque la loi de service nest pas exponentielle, le nombre X t de personnes dans le systme au temps t nest pas un
processus de Markov. En effet le temps de service restant fournir pour le client
en cours de service dpend a priori du temps dj pass tre servi. On ne peut
donc plus utiliser les techniques des processus markoviens de sauts. Le fait que
les arrives soient un processus de Poisson va cependant nous permettre dutiliser une technique markovienne. Nous allons mettre en vidence une chane de
Markov incluse dans le processus, le nombre de personnes dans le systme aux
instants de sortie de chaque client.
Soient (S n )n1 les instants de sorties des clients. Appelons Yn le nombre X S n de
clients prsents linstant S n ou encore juste aprs linstant S n .
Proposition .. Dans une file dattente M/GI/1, la suite (Yn )n1 des nombres
de clients prsents dans le systme aux instants de fin de service est une chane
de Markov valeurs dans N.
. Se souvenir que les trajectoires du processus X t sont continues droite, donc X S n = X S +n .
q0 q1 q2 q3 q4 . . .
q0 q1 q2 q3 q4 . . .
0 q q q q ...
0
1
2
3
P = 0 0 q q q ...
0
1
2
0 0 0 q q ...
0
1
..
.. . . . . . . . .
.
.
.
.
.
.
Comme tous les q k sont strictement positifs, il est clair que cette chane est irrductible sur N. Sauf au point 0, cette chane est identique une marche alatoire :
en effet, si Yn > 0, Yn+1 = Yn + (K n 1) et les K n sont indpendantes. Les proprits des marches alatoires sur Z sont bien connues. Si la moyenne de la loi des
sauts (E(K n 1) ici) est nulle, la marche est rcurrente nulle. Si la moyenne est
strictement positive, la marche est transiente et tend vers +. Si la moyenne est
strictement ngative, la marche est transiente et tend vers . Il est clair que si la
moyenne de la marche est strictement positive, la chane comme la marche tend
vers plus linfini et est transiente. Si la moyenne est ngative ou nulle, la chane
partant de nimporte quel point de N atteint presque srement le point 1 qui est
donc rcurrent et la chane est rcurrente. Il reste calculer la moyenne E(K n 1).
En permutant la somme et lintgrale (Tonelli), on obtient :
X
E(K n ) =
kq k = E().
kN
.. Files M/G/1
Proposition .. La chane de Markov (Yn )nN est rcurrente si 1 et transiente dans le cas contraire.
Si 1, il existe une mesure invariante, unique une constante multiplicative
prs. Lquation dinvariance scrit :
(.)
0 = 1 q 0
+ 0 q 0
1 = 2 q 0
+ 1 q 1 + 0 q 1
2 = 3 q 0
+ 2 q 1 + 1 q 2
+ 0 q 2
..
..
..
..
..
..
.
.
.
.
.
.
=
k = k+1 q 0 + k q 1 + k1 q 2 +
+ 1 q k + 0 q k
On dmontre le rsultat suivant :
Proposition .. La chane de Markov (Yn )nN admet une probabilit invariante
si et seulement si < 1.
Il est possible de calculer certaines caractristiques de la probabilit invariante.
En rgime stationnaire, Y 1Y>0 +K a mme loi que Y (avec des notations videntes), do :
E(Y) = E(Y) P(Y > 0) + E(K),
soit : P(Y = 0) = 1 . Comme la chane est rcurrente et irrductible, la probabilit invariante charge tous les points, donc P(Y = 0) > 0 et donc ncessairement < 1. On constate quil ne peut pas exister de probabilit invariante si = 1.
En levant au carr et en prenant lesprance on trouve (Y et K sont indpendantes) :
E(Y 2 ) = E(Y 2 ) + P(Y > 0) + E(K 2 ) 2 E(Y) + 2 E(Y) E(K) 2 P(Y > 0) E(K).
Or E(K) et P(Y > 0) valent . Quant E(K 2 ), on le dduit de :
Z
E(K(K 1)) =
X
kN
k(k 1)e
(t )k
d P (t ) =
k!
Z
0
2 t 2 d P (t ) = 2 E(2 ).
2 E(2 )
2(1 )
X
k
h(s) =
s qk =
e (1s)t d P (t ) = L ( s).
0
k=0
(s 1)L ( s)
(1 ).
s L ( s)
Chapitre
Rseaux de files dattente
Nous passons maintenant ltude des rseaux de files dattente. Cette tude va
videmment tre plus complique que celle dune seule file dattente. Pour pouvoir utiliser les processus markoviens de sauts, nous ne considrerons que des
rseaux aliments par des flux extrieurs poissonniens et dont les lois de service
sont exponentielles. Dans ce cas nous pourrons expliciter les probabilits invariantes.
. Exemples simples
.. Un systme srieparallle
Considrons un rseau de trois files dattente. Les files 1 et 2 sont du type M/M/1.
Les paramtres de service de ces files sont 1 et 2 . Les entres dans ces files se
font selon des processus de Poisson indpendants de paramtres 1 et 2 . Les
flots de sortie des files 1 et 2 se runissent et constituent les entres de la file 3. La
file 3 est du type M/M/. Le paramtre de service de la file 3 est . La sortie de
cette file se fait vers lextrieur.
P (1 )
M/M/1
1
M/M/
2
P (2 )
M/M/1
2 2 n
1 1 n
2 (n) = 1
1 (n) = 1
1 1
2 2
1 1 + 2 n
1 + 2
3 (n) =
exp
.
n!
= n3
A((n 1 , n 2 , n 3 ), (n 1 , n 2 , n 3 ))
.. Exemples simples
1
P ()
M/M/
1p
M/M/1
p
sortie
Notons N1 (t ) et N2 (t ) le nombre de clients prsents au temps t dans les units 1
et 2. Le processus N(t ) = (N1 (t ), N2 (t )) est un processus markovien de sauts
valeurs dans N2 . Son gnrateur est donn par :
A((n 1 , n 2 ), (n 1 + 1, n 2 ))
A((n 1 , n 2 ), (n 1 1, n 2 ))
A((n 1 , n 2 ), (n 1 1, n 2 + 1))
A((n 1 , n 2 ), (n 1 + 1, n 2 1))
A((n 1 , n 2 ), (n 1 , n 2 ))
=
=
=
=
=
pn 1 1
(1 p)n 1 1
2 1n2 >0
( + n 1 1 + 2 1n2 >0 ).
et 2 =
(1p)
.
p
1
1 1 n
exp
1 (n) =
n! 1
1
n
2 2
2 (n) = 1
2 2
(file M/M/)
(file M/M/1)
(n 1 , n 2 ) = 1 (n 1 ) 2 (n 2 ).
Les quations dinvariance scrivent pour tous (n 1 , n 2 ) de N2 :
(n 1 , n 2 )( + n 1 1 + 2 1n2 >0 )
= (n 1 1, n 2 ) 1n1 >0 +(n 1 + 1, n 2 )1 (n 1 + 1)p
+ (n 1 + 1, n 2 1)1 (n 1 + 1)(1 p) 1n2 >0 +(n 1 1, n 2 + 1)2 1n1 >0 .
On vrifie que la mesure (n 1 , n 2 ) = 1 (n 1 )2 (n 2 ) est invariante.
Donc si 2 < 2 , cest--dire si < 2 p/(1 p), il existe un rgime stationnaire
dcrit par la probabilit .
.. Un systme ferm
Considrons un rseau ferm constitu de deux units 1 et 2 comportant chacune une infinit de serveurs. Les temps de service dans les deux units sont
indpendants et suivent des loi exponentielles de paramtres 1 et 2 . Il y a N
clients dans le rseau. Les clients qui sortent de la station 1 entrent dans la station 2 et vice versa.
M/M/
1
2
M/M/
.. Rseaux de Jackson
irrductible sur un espace fini, il admet une unique probabilit invariante. Le
gnrateur de N1 est donn par :
A(n, n + 1) = 2 (N n),
A(n, n 1) = 1 n.
On obtient comme probabilit invariante une loi binomiale B(N, 2 /(1 + 2 ),
soit sur lespace des couples (n 1 , n 2 ) de nombres entiers positifs de somme gale
N:
n 1
n2
1
2
1
1
(n 1 , n 2 ) = N!
.
n 1 ! 1 + 2
n 2 ! 1 + 2
On constate que la probabilit invariante est l aussi de forme produit.
. Rseaux de Jackson
Les exemples 1 et 2 du paragraphe prcdent de rseaux ouverts ont donn des
rsultats semblables. Lorsquil y a un rgime stationnaire, ce rgime est dcrit
par une probabilit produit. Nous allons tudier dans ce paragraphe une classe
de rseaux qui ont la mme proprit.
Nous considrons K stations. Chaque station a un seul serveur et le temps de
service la station i est une variable alatoire exponentielle de paramtre i .
Chaque station i est alimente par un flot poissonnien exogne de paramtre i
et par des flots qui viennent des autres stations du rseau et ventuellement aussi
de i . Tous les flots exognes et les temps de service sont indpendants. la sortie
de chaque station, un client soit sort du rseau, soit retourne dans une station
du rseau. Ce choix se fait au hasard, indpendamment de toutes les autres variables alatoires qui interviennent ; la sortie de la station i , il y a une probabilit r i j (1 j K) daller la station j et une probabilit r i de sortir du rseau
P
(r i + Kj =1 r i j = 1). Un tel rseau est appel rseau de Jackson.
On note X(t ) = (X 1 (t ), . . . , X K (t )) ltat du rseau linstant t . X i (t ) reprsente le
nombre de clients prsents dans la station i au temps t . Le processus (X(t ))t 0
est un processus markovien de sauts valeurs dans NK .
On note n = (n 1 , . . . , n K ) et e i = (0, . . . , 0, 1, 0 . . . , 0) le i -me vecteur de base de RK .
Le gnrateur de ce processus est donn par :
A(n, n + e i )
= i ,
A(n, n e i )
= i r i 1ni >0 ,
A(n, n e i + e j ) = i r i j 1ni >0 .
K
X
i + i 1ni >0 .
i =1
K
X
K
X
i + i 1ni >0 =
(n + e i )i r i + (n e i )i 1ni >0
i =1
i =1
K X
K
X
(n + e i e j ) i r i j .
i =1 j =1
Pour deviner une solution ce systme, nous allons tudier les flots de clients
travers le rseau. Supposons que le rseau fonctionne en rgime stationnaire.
Appelons i le nombre moyen de clients qui entrent dans la station i par unit
de temps. Comme on est en quilibre, cest aussi le nombre moyen de clients qui
sortent de la station i par unit de temps. On a alors lquation suivante, dite
quation du trafic :
i (1 i K),
i = i +
K
X
j r ji .
j =1
(i )A(i , j ) = ( j )B( j , i ).
.. Rseaux de Jackson
Si pour tout i dans E on a lgalit :
X
B(i , j ) =
A(i , j ),
j E
j 6=i
j E
j 6=i
alors est une probabilit invariante pour (X t )t 0 et pour tout T, B(., .) est le gnrateur du processus retourn (X Tt )0t T .
P
Dmonstration. Lquation j 6=i B(i , j ) = A(i , i ) nest rien dautre que lquation dinvariance. Donc est bien une probabilit invariante. Le reste de la proposition a t vu dans la dmonstration du thorme de Burke (proposition ..).
K
Y
i (n i ) =
i =1
do
(n+e i )
(n)
= i = i ,
i
(ne i )
(n)
K
Y
(1 i )(i )ni
i =1
= 1 ,
i
(ne i +e j )
(n)
j
i
et :
B(n, n + e i ) = i r i ,
i
B(n, n e i ) =
1ni >0 ,
i
j
B(n, n e i + e j ) = r j i
1ni >0 .
i
On en dduit :
X
B(n, n 0 ) =
n 0 E
n 0 6=n
K
X
i r i +
K
X
i
1
1ni >0 + 1ni >0
j r ji
i
i
j =1
i r i +
i
i i
1ni >0 + 1ni >0 (i i ) (quation du trafic)
i
i
i =1
=
=
K
X
i =1
K
X
i r i + i 1ni >0 .
i =1
A(n, n 0 ) = A(n, n) =
n 0 E
n 0 6=n
K
X
i + i 1ni >0
i =1
P
P
En sommant sur i les quations du trafic on trouve que : Ki =1 i = Ki =1 i r i . On
P
P
constate que lon a bien lgalit : n 0 6=n A(n, n 0 ) = n 0 6=n B(n, n 0 ).
Ceci dmontre que est une probabilit invariante pour le processus X(t ). On
en dduit galement que le processus retourn a comme gnrateur B(., .). En
rgime stationnaire, ce processus est un processus de Markov associ un rseau
de Jackson de paramtres (i )0 , (i )0 , (r i )0 et (r i j )0 tels que :
(i )0 = i r i
(i )0 (r i )0 =
i
i
(i )0 (r i j )0 = r i j
j
i
Les instants de sorties dfinitives du rseau initial sont les instants dentre du rseau correspondant au processus retourn. Ce sont donc des flots poissonniens
indpendants entre eux de paramtres i r i .
Nous avons dmontr le thorme suivant :
Thorme .. (Jackson) Dans un rseau de Jackson ouvert et sans capture, le
processus markovien de sauts X(t ) correspondant aux nombres de clients prsents dans chaque station du rseau linstant t est irrductible et admet une
Q
probabilit invariante de forme produit : (n) = i i (n i ). Les probabilits marginales i (.) sont les probabilits invariantes correspondant la station numro i
fonctionnant seule avec un flot extrieur poissonnien de paramtre i . Ces paramtres i sont calculs laide des quations de trafic.
Les flots de sortie du rseau sont des flots poissonniens indpendants.
Les flots dentre et de sortie du rseau sont poissonniens. En revanche les flots
qui traversent les stations du rseau nont aucune raison dtre poissonniens.
Pour sen convaincre tudions le rseau une station suivant : la station a un
flot dentre extrieur poissonnien de paramtre , un temps de service exponentiel de paramtre et un serveur ; la sortie de la station chaque client sort
du rseau avec probabilit p et retourne dans la file dattente de la station avec
probabilit q (p + q = 1).
Le flot moyen travers la station satisfait : = + q, do = /p. Il y a un
rgime stationnaire si < , cest--dire si < p. Ce rgime stationnaire est
dcrit par la probabilit invariante : m(n) = (1 )n avec = / = /(p).
.. Rseaux de Jackson
P ()
M/M/1
q = 1p
p
sortie
On se place linstant darrive dun client dans la station. Notons X le nombre de
clients prsents dans la station juste avant cette arrive, Te le temps ncessaire
pour que le prochain client venant de lextrieur arrive, Tr le temps ncessaire
pour quun client prsent dans la station y revienne et T le temps qui scoulera
jusqu larrive du client suivant (extrieur ou recycl).
P(T > x) = P(Te > x Tr > x)
X
P(Te > x Tr > x | X = n) P(X = n)
=
=
=
n=0
n=0
n
ex 1
P(Tr > x | X = n).
p p
n=0
n+1
X
j 1
q P(
j =1
n+1
X
j =1
j
X
i > x) + p n+1
i =1
p j 1 q
Z
x
et
(t ) j 1
dt + p n+1
( j 1)!
n
n+1
X j 1 Z t (t ) j 1
X
n+1
P(T > x) = e
1
p
+
p q
e
dt
p n=0 p
( j 1)!
x
j =1
Z
k
X
n n
X
p
x
k
t (t )
=e
p
q
e
1
+
dt
p 1 n=0 k=0 p
k!
x
x
k X
n
X
p
t
k (t )
+
q
dt
= ex 1
e
p
p 1
k! n=k p
x
k=0
Z
X
p
k 1
t
k (t )
= ex 1
+
q
e
dt
p
p 1
k! p 1 p
x
k=0
Z
(t )k
X
p
1
x
t
1
=e
+
q
dt
e
p 1
x
k=0 k! 1 p
Z
p
1
t t
= ex 1
+
q
dt
e
e
p 1
1 p
x
e()x
p
1
x
+ q
1
=e
p 1
1 p
p x
q x
=
e
+
e
.
On constate que T ne suit pas une loi exponentielle et donc le flot nest pas poissonnien. On vrifie bien que : E(T) = 1/.
On peut tudier de la mme manire des rseaux de Jackson plus gnraux avec
des stations plusieurs serveurs. On peut galement tudier des rseaux ferms.
On peut aussi avoir le cas de plusieurs types de clients qui voluent dans des
rseaux de Jackson. Tout ceci se traite par les mmes mthodes et on trouve des
probabilits produits pour dcrire les rgimes stationnaires.
Chapitre
Fiabilit de systmes simples
La fiabilit dun dispositif est une caractristique de ce dispositif exprime par
la probabilit quil accomplisse une fonction requise sans dfaillance, dans des
conditions donnes, pendant une dure donne.
Les tudes de fiabilit se sont beaucoup dveloppes ces vingt dernires annes.
Les problmes de scurit (industries aronautique et spatiale, lectro-nuclaire)
ont t un moteur de ce dveloppement. Cependant ces techniques se rpandent
dans toute lindustrie car elles permettent de modliser dans quelles conditions
un dispositif fonctionne correctement ou se trouve en panne. Elles permettent
ainsi damliorer les caractristiques du dispositif, de donner une base rationnelle aux contrats liant les diffrents acteurs intervenant sur le dispositif. Elles
donnent des outils pour une gestion des oprations de maintenance.
Dans ce chapitre nous allons donner des bases des calculs de fiabilit sur des
systmes simples o des calculs analytiques explicites sont possibles. Cela nous
permettra de nous familiariser avec ces notions avant daborder ltude de systmes complexes dans le prochain chapitre. Loutil mathmatique essentiel qui
est utilis est le calcul des probabilits et la statistique. Pour ltude du temps
de fonctionnement dun systme simple on utilise des techniques probabilistes
et statistiques lmentaires. Quand on sintresse un systme compos dlments rparables et qualternent des priodes de fonctionnement et des priodes
de rparation, on fait intervenir les processus de Markov et les processus de renouvellement.
. Dfinitions gnrales
Quand on tudie un systme, on dfinit en fonction du temps deux grandeurs :
la fiabilit et la disponibilit.
.. Dfinitions gnrales
La fiabilit R(t ) vaut donc 1 moins la fonction de rpartition de T. Nous supposerons dans la suite que T admet une densit f par rapport la mesure de Lebesgue
sur R+ , presque partout continue. Cette densit vaut presque partout :
f (t ) =
dR
(t ).
dt
dM
(t ).
dt
dR
f (t ) d t (t )
=
R(t )
R(t )
dM
(t )
g (t )
(t ) =
= dt
1 M(t ) 1 M(t )
do :
Z t
R(t ) = exp
(u) du
Z t
M(t ) = 1 exp
(u) du .
et
. Test de Laplace
Le cas le plus simple tudier est celui o les taux instantans de dfaillance et
de rparation sont constants. Le test de Laplace est souvent utilis pour vrifier
ces hypothses. Il repose sur le rsultat de la proposition .. : ngligeons la dure des rparations et supposons le taux instantan de dfaillance (t ) constant,
le processus des instants de panne est alors un processus de Poisson de paramtre . Notons (Ti ) ses instants de saut et considrons la variable alatoire
n
1X
Ti .
Un =
n i =1
La loi conditionnelle de Un sachant Nt = n est la loi de
n
1X
Xi ,
Vn =
n i =1
o les X i sont indpendantes de loi uniforme sur [0, t ] (proposition ..).
Pour n assez grand on approxime la loi de Vn par le thorme central limite :
Vn E(Vn )
(Vn ) suit approximativement une loi normale rduite N (0, 1). On a (loi uniforme)
t2
t
t2
t
12n
R(t ) = et 1t 0 ,
(t ) = ,
MTTF =
1
.
.. Loi (, )
On rencontre galement la loi (, ) dont la densit est
0.6
=1
= 1.3
= 0.8
1.5
=2
0.4
= 0.5
1
=4
= 0.3
0.2
0.5
0.5
1.5
.. Loi de Weibull
La loi de Weibull, qui admet trois paramtres, est souvent utilise. X suit une loi
X
suit une loi exponende Weibull de paramtres , , , si et seulement si
tielle de paramtre 1. Sa densit vaut :
t 1 t
f (t ) =
e 1t avec > 0, > 0 et 0.
t ,
R(t ) = e
t 1
et (t ) =
.
On trouve :
1
MTTF = + (1 + ).
= 0.5
=1
=2
1.5
=4
0.5
0.5
1.5
.. Loi lognormale
On dit que X suit une loi lognormale de paramtres m et si et seulement si ln X
suit une loi normale N (m, ), la loi lognormale a donc pour densit
1
1
f (t ) = p e 2
t 2
ln t m
1t >0 .
2
).
2
1.2
m = 0, = 0.5
m = 0, = 1
m = 0, = 2
m = 1, = 0.5
m = 1, = 1
0.8
m = 1, = 2
0.6
0.4
0.2
On utilise diverses lois pour modliser la dure de bon fonctionnement ou de rparation dun systme. Le choix de la loi se fait, dune part en cherchant dcrire
le plus exactement possible le dure tudie, dautre part en tenant compte de la
facilit de traitement quoffrent les diverses lois. Ces deux contraintes sont souvent contradictoires et il faut faire une pondration raisonnable entre les deux.
Quand on a dcid du type de loi utilise, on estime les paramtres de la loi
laide des techniques classiques de statistique paramtrique, la plupart du temps
laide destimateurs du maximum de vraisemblance sur un chantillon de cette
loi. On dispose souvent de donnes censures, do lutilisation destimateurs
adapts ce type de donnes. Dans ce cours on suppose que cette dmarche
statistique a t effectue et on sintresse au traitement probabiliste du modle
tudi.
. Systmes un lment
Ce qui vient dtre dit en gnral sapplique videmment un systme comportant un seul lment. Les tudes statistiques ont montr que la courbe reprsentant le taux de dfaillance (t ) a souvent la forme dune courbe en baignoire .
Cette courbe comprend trois rgions. La premire rgion correspond la priode
de jeunesse de llment au cours de laquelle le taux de dfaillance dcrot. La
deuxime rgion correspond la priode de vie utile de llment au cours de laquelle le taux de dfaillance est sensiblement constant. La dernire rgion correspond la priode de vieillissement pendant laquelle le taux de dfaillance crot
rapidement.
Pendant la priode de vie utile le taux de dfaillance est constant. Si on ne sintresse qu cette priode, on peut supposer que le taux de dfaillance est toujours
constant et donc que le temps de dfaillance suit une loi exponentielle. Si on suppose que le temps de rparation suit lui aussi une loi exponentielle, dsignant
le taux de dfaillance et le taux de rparation, on a :
MTTF = MUT =
1
,
MTTR = MDT =
,
+
m(1) =
A(t ) = Pt (1, 1) =
(+)t
+
e
.
+ +
.. Systmes un lment
de mme loi m et que les temps de fonctionnement et les temps de rparation
sont indpendants. Si la loi m nest pas exponentielle, le processus (X t )t 0 nest
pas markovien. Cest un processus de sauts. Nous allons montrer que la disponibilit de ce processus admet des quations du type Kolmogorov :
A(t + h) = P(X(t + h) = 1)
= P(X(t + h) = 1 | X(t ) = 1) P(X(t ) = 1) + P(X(t + h) = 1 X(t ) = 0),
soit en dcomposant le second terme de la somme selon la dure u de rparation
= (1 h + o(h))A(t ) +
Z
0
Z
0
A(t u) m(du).
st
A (s) =
e A(t ) dt et m (s) =
est m(dt ),
R+
R+
1
s+m (s) , on a donc dmontr la proposition suivante :
s + m (s)
1
1
+
+ s + s ++
sA (s) A =
se
0
st
Z
(A(t ) A ) dt +
sest (A(t ) A ) dt ,
on choisit T assez grand pour que la seconde intgrale soit petite et on fait tendre
s vers 0 dans la premire. La rciproque est vraie si A(t ) nest pas trop irrgulier
au voisinage de linfini. On dmontre que cest le cas ici.
R
Si on note m 1 le temps moyen de rparation (m 1 = 0 x m(dx)), m (s) a pour
dveloppement limit en s = 0 m (s) = 1 sm 1 + o(s 2 ) et
lim A(t ) = lim sA (s)
t +
s0
s
s0 s + (1 sm 1 + o(s 2 ))
1
=
1 + m 1
= lim
t +
. Systmes simples
Nous allons nous intresser des systmes composs de plusieurs lments. Ces
lments peuvent tre en srie, en parallle ou former un rseau plus complexe.
Dans ce paragraphe nous allons nous contenter dtudier des systmes simples,
soit du fait de leur configuration, soit du fait du petit nombre dlments.
.. Systmes simples
.. lments en srie
Considrons un systme compos de n lments en srie : on suppose que la dfaillance de lun quelconque des n lments entrane la dfaillance du systme.
Supposons que les instants (Ti )1i n ) de dfaillance des lments soient des variables alatoires indpendantes. Si T est le premier instant de dfaillance du systme on a : T = inf1i n Ti . La fiabilit du systme vaut :
R(t ) = P(T > t ) = P(i (1 i n) Ti > t ) =
n
Y
P(Ti > t ) =
n
Y
Ri (t ).
i =1
i =1
n
t X
R(t ) = exp
(u) du = exp
i (u) du .
0
0 i =1
Pn
i =1 i (u).
n
Y
Ri (t ),
n
X
(u) =
i =1
i (u),
A(t ) =
i =1
n
Y
Ai (t ).
i =1
.. lments en parallle
Un systme de n lments est dit en parallle si la panne de tous les lments
est ncessaire pour entraner la panne du systme. On suppose que les temps
de dfaillance des lments sont des variables alatoires indpendantes et on
conserve les notations du paragraphe ci-dessus.
Si les lments ne sont pas rparables, le premier instant de panne du systme est
donn par : T = sup1i n Ti . La fiabilit du systme global vaut :
R(t ) = 1 P(T t ) = 1
n
Y
P(Ti t ) = 1
i =1
n
Y
(1 Ri (t )).
i =1
Il ny a pas de formule simple donnant le taux de dfaillance du systme en fonction du taux de dfaillance de chaque lment.
+
e(+)t ,
+ +
2
1 e(+)t .
+
2
2
0
( + )
A=
0
2
2
Il serait facile de calculer les caractristiques de (X t )t 0 : probabilit de transition
( laide des quations de Kolmogorov) et probabilit invariante. On retrouverait
ainsi des valeurs que lon peut obtenir plus simplement en considrant les deux
processus de Markov indpendants qui dcrivent ltat de chaque lment.
Pour calculer la fiabilit, on va rendre ltat de panne du systme, cest dire ici
ltat 0, absorbant. On considre le processus Yt gal X t jusqu ce que X t atteigne 0, ensuite Yt reste absorb en 0. Ce processus est un processus markovien
de sauts de matrice gnratrice gale :
0
0
0
= ( + )
A
0
2
2
Si on note Pt (i , j ) les probabilits de transition ce nouveau processus et si au
temps 0 les deux lments sont en tat de marche, la fiabilit du systme initial
.. Systmes simples
est gale la disponibilit du systme modifi et vaut donc :
R(t ) = Pt (2, 1) + Pt (2, 2).
:
Les probabilits de transitions se dduisent des quations Pt0 = Pt A
Pt0 (2, 1) = ( + ) Pt (2, 1) + 2Pt (2, 2),
Pt0 (2, 2) =
2
s 2 + (3 + )s + 22
et P2 (s) =
s ++
s 2 + (3 + )s + 22
(3 + )
p
2 + 6 + 2
2
et s 2 =
(3 + ) +
2 + 6 + 2
s1
s2
es 1 t
es 2 t
s2 s1
s2 s1
R
0
(s 1 et s 2 < 0).
3 +
22
2 + s
s 2 + (3 + )s + 22
et P2 (s) =
s 2 + (3 + )s + 22
2 +
22
2 +
22
1
Dautre part il est clair que : MTTR = MDT = 2
. On a alors :
2 +
1
( + )2
+
=
22
2
22
Chapitre
Fiabilit de systmes complexes
Ltude de la fiabilit dun systme complexe passe par une analyse des conditions dans lesquelles le systme tombe en panne. Il existe plusieurs types de reprsentation de cette analyse que nous exposerons dans le premier paragraphe
de ce chapitre. Puis nous tudierons les systmes markoviens. Enfin nous donnerons quelques pistes pour ltude de systmes non markoviens.
i =1
n
Y
Ai (t ).
i =1
Ces formules sont trs simples, mais il faut faire attention de rester dans un cadre
o lapproximation est valide.
.. Arbre de dfaillance
Une des reprsentations les plus utilises de la logique dun systme est larbre
de dfaillance (fault tree). Cette mthode naquit en dans les bureaux dtude
de la compagnie Bell. Une utilisation extensive en a t faite dans les tudes sur
la sret des racteurs nuclaires (rapport Rasmussen ou Wash ).
On part dun vnement indsirable unique et bien dfini. Dans notre cadre il
sagit du non-fonctionnement du systme. Dans le cas dune tude de sret
dun systme, il sagit dun vnement dont les consquences sont graves. Larbre
de dfaillance reprsente graphiquement les combinaisons dvnements qui
conduisent la ralisation de cet vnement indsirable. Il sera form de niveaux successifs tels que chaque vnement est gnr par des vnements de
niveau infrieur par lintermdiaire de divers oprateurs (ou portes) logiques. Ce
processus dductif est poursuivi jusqu ce quon arrive des vnements indpendants entre eux et probabilisables. Ces vnements de base peuvent tre des
pannes, des erreurs humaines, des conditions extrieures.
Un certain nombre de conventions sont utilises par les fiabilistes pour dessiner
un arbre de dfaillance :
un cercle reprsente une dfaillance de base,
un rectangle reprsente un vnement intermdiaire,
un losange reprsente une dfaillance suppose de base qui pourrait tre subdivise en vnements de base mais ne le sera pas faute dintrt ou de renseignements,
E1
X1
E2
E3
X2
X3
X4
et e 3 p 3 + p 4 .
.. Coupes minimales
Une coupe est un ensemble dlments dont la panne entrane la panne du systme. Une coupe minimale est une coupe ne contenant aucune autre coupe. Une
coupe est un ensemble dlments intersectant chacun des chemins de succs.
La recherche des coupes minimales est dun grand intrt pour ltude de la fiabilit et de la disponibilit des systmes. En effet chaque coupe correspond un
combinaison significative de pannes. Linterprtation des coupes minimales permet de reprer les points faibles du systme, les fausses redondances, linfluence
2
5
m
A=P
Ci .
i =1
m
X
P(Ci ).
i =1
.. Systmes markoviens
. Systmes markoviens
Lorsque les taux de dfaillance et de rparation des lments dun systme sont
constants et lorsque les temps de fonctionnement et de rparation de ces lments sont indpendants, on peut reprsenter lvolution du systme par un processus markovien de sauts (X t )t 0 valeurs dans un espace fini form des tats
{1, 2, . . . , n}.
Nous noterons A la matrice gnratrice du processus et nous supposerons que
le processus est irrductible. Nous supposerons que les tats {1, 2, . . . , l } correspondent des tats de fonctionnement du systme et que les tats {l + 1, . . . , n}
correspondent des tats de panne du systme.
On note P(t ) la loi de la variable alatoire X t , P (s) la transforme de Laplace de
P(t ). Les quations de Kolmogorov pour le processus scrivent :
dP
(t ) = P(t ) A,
dt
ou aprs transformation de Laplace :
sP (s) P(0) = P (s) A,
do :
P (s) = P(0)(sI A)1 .
On a donc une expression explicite de P (s). Il sagit dune formule thorique
qui nest pas trs utilisable lorsque le nombre dtats est grand. Il faut en effet
inverser la matrice (sI A) et ensuite inverser la transforme de Laplace. Ceci
nest possible faire analytiquement que dans quelques systmes simples. Dans
un systme complexe, on peut utiliser les techniques de rsolution numrique
des quations diffrentielles pour trouver directement les solutions de lquation
de Kolmogorov.
On sait que le processus se stabilise sur un tat stationnaire dcrit par une probabilit qui satisfait lquation A = 0. Cette probabilit satisfait galement la
relation :
= lim P(t ) = lim sP (s).
t
s0
Pour calculer la fiabilit du systme, on part dun loi initiale P(0) qui ne charge
que les tats de fonctionnement. On remplace le processus (X t )t 0 par le processus (Yt )t 0 qui concide avec X t tant que X t est dans un tat de marche et qui
reste pig dans un tat de panne ds que X t atteint un tel tat. Ce processus est
galement un processus markovien de saut. Sa matrice gnratrice A0 sobtient
l
X
Z
P(Yt = i ) et MTTF =
i =1
R(t ) dt = R (0).
On peut crire les quations de Kolmogorov pour le processus (Yt )t 0 et trouver une expression explicite pour la transforme de Laplace R (s) de la fiabilit.
La transforme de Laplace du vecteur form des l premires composantes de
la loi de Yt scrit : P1,l (0) (sIl A1,l )1 o P1,l (0) reprsente les l premires composantes de P(0), A1,l la matrice carre dordre l correspondant aux l premires
lignes et colonnes de A et Il la matrice identit dordre l . La transforme de Laplace de la fiabilit est la somme des l composantes de ce vecteur. On a alors en
notant 1l le vecteur colonne de dimension l form de 1 :
MTTF = P1,l (0) (A1,l )1 1l .
On constate videmment que le MTTF dpend de la loi initiale P1,l (0).
Lorsquau temps initial le systme est dans un tat de panne, on peut faire des
calculs semblables pour obtenir la maintenabilit et le MTTR : en notant Pl +1,n (0)
la loi initiale sur les tats de panne, Al +1,n la matrice carre dordre n l extraite
de la matrice A et forme des lments de A sur les lignes et colonnes dordre
suprieur ou gal l +1 et 1nl le vecteur colonne de dimension n l form de 1,
on obtient :
MTTR = Pl +1,n (0) (Al +1,n )1 1nl .
Nous allons maintenant chercher les nombres caractristiques de ltat stationnaire MUT et MDT lorsquil ny a quun seul tat de panne. Alors nous avons
videmment :
1
MTTR = MDT =
A(n, n)
Pour identifier le MUT, supposons que nous soyons en rgime stationnaire et
qu linstant 0 le systme soit en panne. Alors, aprs le premier instant de saut,
A(n,i )
le processus se trouve dans ltat i (1 i n 1) avec la probabilit A(n,n)
. Le
MUT est alors le MTTF avec cette probabilit comme loi initiale :
MUT =
n1
X n1
X
i =1
A(n, i )
(A1,n1 )1 (i , j ).
A(n,
n)
j =1
On peut videmment faire le mme type de calculs lorsquil ny a quun seul tat
de fonctionnement.
0
A = 0
(P3 ) (s) = 1
(P3 ) (s) =
s(s 2 + s( + 2) + 2 + 2
(P1 ) (s) =
La transforme de Laplace de la disponibilit vaut (P1 ) (s) et celle de lindisponibilit vaut (P2 ) (s) + (P3 ) (s). On retrouve la formule dj vue pour lindisponibilit limite :
s0
+ 2
Z
p 2 (t , x)(x) dx + o(t )
p 2 (t + t , x + t ) = p 2 (t , x) (1 (x)t ) + o(t ),
ce qui donne en divisant par t en faisant tendre t vers 0 :
Z
d P1
(t ) = P1 (t ) + p 2 (t , x)(x) dx
dt
p 2
p 2
(t , x) +
(t , x) = (x) p 2 (t , x)
t
x
avec les conditions limites :
P1 (0) = 1,
p 2 (t , x) = 0 si x > t ,
p 2 (t , 0) = P1 (t ).
On peut rsoudre numriquement ces quations. On peut aussi donner un solution explicite laide des transformes de Laplace. On prend les transformes de
Laplace en t dans les quations ci-dessus et on trouve :
Z
(p 2 )
(s, x) = (x)(p 2 ) (s, x).
x
do
(P1 ) (s) =
s + g (s)
Transformation de Laplace
Le tableau suivant donne les transformes de Laplace
Z +
L ( f )(s) = F(s) =
est f (t ) dt
0
( + 1)
s +1
1
s+a
n!
(s + a)n+1
s
2
s + 2
2
s + 2
s
F( )
R, > 1
a R
a R, n N
R
R
>0
f (t a)
eas F(s)
a >0
eat f (t )
F(s + a)
a C
et
L ( f g ) = L ( f ) L (g )
Bibliographie
Sur les files dattente
S. Asmussen : Applied probability and queues. J. Wiley .
Un livre trs complet abordant les techniques markoviennes et les techniques de
renouvellement.
A. Cernault : Simulation des systmes de production. Cepuades .
Un livre fait par des praticiens de la simulation industrielle.
R. Cooper : Introduction to queuing theory. Macmillan .
Une introduction aux modles de files dattente trs agrable lire.
E. Gelenbe and I. Mitrani : Analysis and synthesis of computer systems. Academic
Press .
Un livre fait par des informaticiens prsentant de nombreuses applications des
files dattente linformatique.
E. Gelenbe et G. Pujolle : Introduction aux rseaux de files dattente. Eyrolles .
Un livre orient vers les applications linformatique.
J. Pellaumail : Probabilits, statistiques, files dattente. Dunod .
Un cours de base en probabilits avec une partie sur les files dattente.
J. Pellaumail : Graphes, simulation, L-matrices. Hermes .
Un livre spcialis sur les techniques de simulation.
Ph. Robert : Rseaux et files dattente. Springer Verlag .
Un livre riche et complet qui va bien au del du prsent cours.
A. Ruegg : Processus stochastiques. Presses polytechniques romandes .
Un livre dinitiation trs agrable lire sur les techniques markoviennes en files
dattente et en fiabilit.
Chapitre . Bibliographie
Sur la fiabilit
J.-L. Bon Fiabilit des systmes. Masson .
Un livre facile daccs sur les aspects thoriques et pratiques de la fiabilit.
Ch. Cocozza-Thivent Processus stochastiques et fiabilit des systmes.
Springer .
Un livre trs complet sur les aspects thoriques et pratiques de la fiabilit.
N. Limnios : Arbres de dfaillance. Hermes .
Un livre intressant sur les arbres de dfaillance.
N.R. Mann, R.E. Schafer, N.D. Singpurwalla : Methods for statistical analysis of
reliability and life data. J. Wiley .
Un livre prsentant les techniques statistiques destimation des diffrentes lois
intervenant dans une tude de fiabilit.
A. Pages, M. Gondran : Fiabilit des systmes. Eyrolles .
Un livre prsentant tous les aspects les plus modernes de la fiabilit.
A. Villemeur : Sret de fonctionnement des systmes industriels. Eyrolles .
Un livre trs complet.