Vous êtes sur la page 1sur 133

Ensimag 2

e
annee 2004 -2005
Notes de cours de Processus Aleatoires
Olivier Francois
2
Table des mati`eres
1 Introduction et Generalites 5
1.1 Denitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Quelques exemples de processus . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Complements sur la transformee de Laplace . . . . . . . . . . . . . . . 8
1.4 Revisions de probabilite : la loi exponentielle . . . . . . . . . . . . . . 12
1.4.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.2 Absence de memoire . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5 Exercices de revision de probabilite . . . . . . . . . . . . . . . . . . . . 16
2 Processus de renouvellement 19
2.1 Denitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Processus et fonction de renouvellement . . . . . . . . . . . . . 19
2.1.2 Temps residuel. Temps courant. . . . . . . . . . . . . . . . . . . 22
2.1.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.1 Processus de Poisson et renouvellement . . . . . . . . . . . . . . 25
2.2.2

Equivalence des denitions . . . . . . . . . . . . . . . . . . . . . 27
2.2.3 Temps residuel et courant. Le paradoxe de linspection. . . . . . 28
2.2.4 Quelques exemples lies au processus de Poisson . . . . . . . . . 30
2.2.5 Loi conditionnelle des instants de renouvellement . . . . . . . . 32
2.2.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3 Equations de renouvellement et applications . . . . . . . . . . . . . . . 41
2.3.1 La fonction de renouvellement comme solution dune equation
fonctionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.3.2 Solution des equations de renouvellement . . . . . . . . . . . . . 43
2.3.3 Exemples et exercices . . . . . . . . . . . . . . . . . . . . . . . . 46
2.3.4 Le theor`eme de renouvellement . . . . . . . . . . . . . . . . . . 48
2.4 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.4.1 Sommes aleatoires indexees par un processus de renouvellement 54
2.4.2 Remplacement preventif . . . . . . . . . . . . . . . . . . . . . . 57
2.4.3 Renouvellement alterne . . . . . . . . . . . . . . . . . . . . . . . 59
3 Analyse du risque 63
3.1 Presentation du mod`ele . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.2 Largument de renouvellement . . . . . . . . . . . . . . . . . . . . . . . 65
3
4 TABLE DES MATI
`
ERES
3.3 Remboursements de loi exponentielle . . . . . . . . . . . . . . . . . . . 66
3.4 Lapproximation de Cramer-Lundberg . . . . . . . . . . . . . . . . . . 67
3.5 Majoration de la probabilite de ruine . . . . . . . . . . . . . . . . . . . 69
4 Processus de Markov et Files dattente 71
4.1 Processus de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.1.1 Denitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.1.2 Equations de Kolmogorov . . . . . . . . . . . . . . . . . . . . . 73
4.1.3 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . 76
4.1.4 Comportement asymptotique . . . . . . . . . . . . . . . . . . . 78
4.1.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.2 Processus de naissance et de mort . . . . . . . . . . . . . . . . . . . . . 85
4.2.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.2.2 Comportement asymptotique . . . . . . . . . . . . . . . . . . . 86
4.2.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.3 Files dattente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.3.1 Description dun syst`eme de le dattente . . . . . . . . . . . . . 88
4.3.2 Files dattente formant un processus de naissance et de mort . . 91
4.3.3 Files dattente M/GI/1. . . . . . . . . . . . . . . . . . . . . . . 95
4.3.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5 Mouvement brownien et diusions 107
5.1 Limite de marches aleatoires . . . . . . . . . . . . . . . . . . . . . . . . 107
5.1.1 Marche aleatoire dans Z
d
. . . . . . . . . . . . . . . . . . . . . . 107
5.1.2 Le mouvement brownien standard . . . . . . . . . . . . . . . . . 111
5.1.3 Continuite des trajectoires . . . . . . . . . . . . . . . . . . . . . 113
5.1.4 Le mouvement brownien comme processus gaussien . . . . . . . 114
5.1.5 Lois marginales et conditionnelles . . . . . . . . . . . . . . . . . 115
5.1.6 Temps de sortie et zeros des trajectoires . . . . . . . . . . . . . 116
5.1.7 Integrale stochastique . . . . . . . . . . . . . . . . . . . . . . . . 118
5.2 Applications du mouvement brownien . . . . . . . . . . . . . . . . . . . 120
5.2.1 La primitive du mouvement brownien . . . . . . . . . . . . . . . 120
5.2.2 Le processus dOrnstein-Uhlenbeck . . . . . . . . . . . . . . . . 121
5.2.3 Le pont brownien . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.2.4 Mouvement brownien avec derive . . . . . . . . . . . . . . . . . 123
5.3 Martingales et temps datteinte . . . . . . . . . . . . . . . . . . . . . . 127
5.3.1 Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
5.3.2 Martingale exponentielle . . . . . . . . . . . . . . . . . . . . . . 128
5.4 Processus stationnaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
5.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
Chapitre 1
Introduction et Generalites
Les processus aleatoires decrivent levolution dune grandeur aleatoire en fonction
du temps (ou de lespace). Il existe de nombreuses applications des processus aleatoires
notamment en physique statistique (par exemple le ferromagnetisme, les transitions de
phases, etc), en biologie (evolution, genetique et genetique des populations), medecine
(croissance de tumeurs, epidemie), et bien entendu les sciences de lingenieur. Dans ce
dernier domaine, les applications principales sont pour ladministration des reseaux, de
linternet, des telecommunications et bien entendu dans les domaines economique et
nancier.
Letude des processus aleatoires sins`ere dans la theorie des probabilites dont elle
constitue lun des objectifs les plus profonds. Elle soul`eve des probl`emes mathematiques
interessants et souvent tr`es diciles. Ce cours presente quelques aspects des processus
aleatoires utiles `a lingenieur mathematicien du fait de leur frequence doccurrence
dans les applications : processus de renouvellement, processus de Markov, mouvement
brownien et integrale stochastique.
1.1 Denitions
On appelle processus aleatoire `a temps continu une famille X
t
; t T de variables
aleatoires indicees par un param`etre reel positif. Lensemble T represente un intervalle
de temps, et le plus souvent la demi-droite IR
+
. Les variables sont denies sur un meme
espace probabilise. Dans ce cours, nous etudierons des processus `a valeurs enti`eres ou
reelles. Nous identierons parfois, de mani`ere abusive et lorsque les ambiguites seront
impossibles, processus et variables en notant (X
t
) ou X
t
pour designer le processus.
Pour une eventualite du hasard xee, lapplication qui `a t associe la valeur X
t
()
sappelle une trajectoire du processus. Les trajectoires constituent generalement les
observations concr`etes que lon peut faire dun processus. Par exemple, les journaux
publient chaque jour les trajectoires des valeurs boursi`eres.
Un processus est `a valeurs enti`eres si
X
t
IN, pour tout t 0.
Les exemples de processus `a valeurs enti`eres sont les processus de Poisson, les pro-
5
6 CHAPITRE 1. INTRODUCTION ET G

EN

ERALIT

ES
cessus de renouvellement lies au comptage devenements survenus au hasard, et par
exemple les processus lies `a letat dune le dattente. Dans les les dattente, la va-
riable X
t
represente en general le nombre de clients dans un syst`eme. Ce nombre peut
crotre ou decrotre en fonction des durees et des strategies de service. Les processus de
branchement decrivant la taille dune population sont aussi des exemples importants.
Un processus est `a valeurs reelles si
X
t
IR, pour tout t 0.
Les exemples de tels processus sont les mouvements browniens decrivant par exemple
les cours des marches nanciers, les processus de Poisson composes ou les capitaux de
societes (e.g., compagnies dassurance).
La loi dun processus aleatoire est caracterise par la donnee des lois ni-dimension-
nelles. En fait, on parle de la loi du processus X
t
; t 0 lorsque lon connait la loi
du vecteur
(X
t
1
, X
t
2
, . . . , X
tn
)
pour toute suite nie croissante de temps 0 t
1
t
2
. . . t
n
. Ce type de denition
est peu agreable `a verier ou `a manipuler. Nous y ferons parfois reference de mani`ere
implicite an de conserver la uidite de notre discours.
Nous consid`erons en particulier des processus `a accroissements independants. Un
accroissement du processus est tout simplement une variable aleatoire
s,t
egale `a

s,t
= X
t
X
s
, t s,
o` u s, t sont quelconques.
Denition 1.1.1 Un processus X
t
tel que X
0
= 0 est `a accroissements independants
si, pour toute suite nie 0 < t
1
< t
2
. . . < t
n
, les variables aleatoires
X
t
1
, X
t
2
X
t
1
, . . . , X
tn
X
t
n1
sont independantes.
Commentaires. On verie facilement quil sut de connaitre la loi des accroisse-
ments pour caracteriser la loi dun processus `a accroissements independants (cest-`a-
dire en connatre les lois ni-dimensionnelles).
Denition 1.1.2 Un processus `a accroissements independants est `a accroissements
stationnaires si la loi de laccroissement (X
t+s
X
t
) ne depend pas de t, pour tout
t 0.
1.2. QUELQUES EXEMPLES DE PROCESSUS 7
1.2 Quelques exemples de processus
Parmi les plus elementaires des processus, nous trouvons les processus de comptage
qui seront bien etudies par la suite.
Denition 1.2.1 Processus de comptage. Un processus aleatoire N
t
; t 0
`a valeurs enti`eres est un processus de comptage si
i) N
0
= 0 ;
ii) s t, N
s
N
t
.
Commentaires. Les trajectoires dun tel processus sont donc des fonctions en es-
calier dont les marches sont de taille aleatoire. Les processus de comptage peuvent
modeliser de nombreux phenom`enes. Si lon sinteresse au nombre dacc`es de clients `a
un serveur durant une periode (0, T), on observe en fait un processus de comptage sur
cet intervalle de temps. De meme, le nombre de particules detectees par un capteur ou
le nombre de buts marques lors dun match de football peuvent etre modelises par des
processus de comptage. Nous connaissons dej`a un processus de comptage important
(cf cours de 1A) : le processus de Poisson.
Denition 1.2.2 Processus de Poisson. Un processus aleatoire N
t
; t 0 `a
valeurs enti`eres est un processus de Poisson de param`etre > 0 si
i) (N
t
) est un processus de comptage `a accroissements independants et station-
naires ;
ii) la variable N
t
suit la loi de Poisson de param`etre t
n 0, P(N
t
= n) =
(t)
n
n!
e
t
.
le processus de Wiener o` u mouvement brownien est le plus cel`ebre des processus
`a valeurs reelles. Sa decouverte est due `a lobservation du biologiste Brown, inter-
esse par les uctuations aleatoires dun grain de pollen dans un liquide. Le premier
a avoir formalise les proprietes du mouvement brownien nest autre que A. Einstein
dans un article fondamental ecrit en 1905. Ce processus poss`ede de nombreuses pro-
prietes mathematiques : accroissements independants et stationnaires, processus gaus-
sien, martingale, processus de Markov, equation de la diusion. Cela explique que
lon puisse letudier tr`es en details. Il intervient dans la modelisation de nombreux
phenom`enes comme une consequence du theor`eme de tendance vers la loi normale. Les
exemples importants sont en physique et en nance.
Denition 1.2.3 Processus de Wiener ou mouvement brownien. Un proces-
sus aleatoire W
t
; t 0 `a valeurs reelles est un processus de Wiener ou mouvement
brownien standard si
8 CHAPITRE 1. INTRODUCTION ET G

EN

ERALIT

ES
i) (W
t
) est un processus `a valeurs reelles `a accroissements independants et station-
naires ;
ii) la variable W
t
suit la loi normale de moyenne nulle et de variance t.
Une classe de processus tr`es importante en pratique et contenant les deux exemples
precedents est celle des processus de Markov. Pour ces processus, levolution future de la
variable etudiee conditionnellement `a son passe jusqu`a linstant present ne depend que
de son etat `a linstant present. Nous etudierons en particulier les processus de Markov
`a valeurs enti`eres, temporisation naturelle des chanes de Markov `a temps discret vues
en premi`ere annee (revisions indispensables).
1.3 Complements sur la transformee de Laplace
La transformee de Laplace est un outil analytique frequemment utilise dans letude
des variables aleatoires et des processus aleatoires. Nous trouverons de nombreuses
opportunites dapplication de cet outil dans la suite de ce texte. En particulier, il sera
interessant de lutiliser lors de letude des processus de renouvellement, pour resoudre
certaines equations fonctionnelles ou equations dierentielles. Dans ce paragraphe, nous
denissons la transformee de Laplace de certaines fonctions de IR
+
et nous montrons
`a travers quelques exemples linteret technique de cet outil.
Denition 1.3.1 Une fonction continue f de IR
+
dans IR est dordre exponentiel sil
existe > 0, t
0
> 0 et M > 0 tels que, pour tout t > t
0
,
[f(t)[ Me
t
.
La transformee de Laplace est denie comme un operateur integral sur lensemble
des fonctions dordre exponentiel.
Denition 1.3.2 On appelle transformee de Laplace dune fonction f dordre expo-
nentiel la fonction Lf denie par
s > , Lf(s) =
_
+
0
f(t)e
st
dt .
Commentaires. La transformee de Laplace dune fonction dordre exponentiel est
bien denie. En eet, pour tout s > ,
[Lf(s)[
_

0
[f(t)[e
st
dt

_
t
0
0
[f(t)[e
st
dt +M
_

t
0
e
(s)t
dt
M
0
+M
1
s
(1 e
(s)t
0
) <
1.3. COMPL

EMENTS SUR LA TRANSFORM

EE DE LAPLACE 9
Un propriete importante de loperateur de Laplace est quil determine presque par-
tout la fonction quil transforme.
Theor`eme 1.3.1 Soient f et g deux fonctions dordre exponentiel identique. Suppo-
sons que
s > , Lf(s) = Lg(s)
alors
f = g presque partout.
Demonstration. Resultat admis.
Commentaires. Le premier commentaire concerne lordre commun. Supposer que
deux fonctions sont de meme ordre exponentiel nest pas tr`es restrictif. En eet, la
denition de lordre est large et il est aise de choisir le meme pour les deux fonctions.
Le second commentaire est destine `a preciser la notion de presque partout. Cette ter-
minologie signie que le sous-ensemble de IR
+
pour lequel les fonctions f et g di`erent
est de mesure de Lebesgue nulle.
Exemple 1.3.1 Transformee de Laplace dune constante.
Cherchons `a calculer L1(s) pour tout s > 0 (la constante 1 est evidemment une
fonction dordre exponentiel pour laquelle peut etre choisi egal `a 0).
s > 0 , L1(s) =
_

0
e
st
dt =
1
s
.
Exemple 1.3.2 Transformee de Laplace de lexponentielle.
Soit a IR. Cherchons `a calculer Le
at
(s).
s > a , Le
at
(s) =
_

0
e
at
e
st
dt =
1
s a
.
Nous enoncons maintenant une propriete fondamentale de la transformee de Laplace.
Elle transforme un produit de convolution en un produit de fonctions classique.
10 CHAPITRE 1. INTRODUCTION ET G

EN

ERALIT

ES
Proposition 1.3.1 Soient f, g deux fonctions dordre exponentiel identique et la
constante correspondante. La transformee de Laplace du produit de convolution f g
deni par
t > 0 , f g(t) =
_
t
0
f(t x)g(x)dx .
est egale `a
s > , Lf g(s) = Lf(s)Lg(s) .
Demonstration. Nous laissons au lecteur le soin de verier que la transformee de
Laplace du produit de convolution est bien denie pour s > . Eectuons le calcul
Lf g(s) =
_

0
_
t
0
f(t x)g(x)e
st
dxdt
en posant u = t x et v = x. Nous obtenons
Lf g(s) =
_

0
_

0
f(u)g(v)e
s(u+v)
dudv .
Finalement, dapr`es le theror`eme de Fubini
Lf g(s) = Lf(s)Lg(s) .
Exemple 1.3.3 Calculer, pour tout s > 0,
Lt(s) , Lt
2
(s) , Lt
n
(s) n 1 .
Solution. Il sut de remarquer que t = 1 1(t). Lexemple 1.3.1 et la proposition
1.3.1 permettent decrire
Lt(s) = L1 1(s) = L1(s)L1(s) =
1
s
2
.
Par le meme raisonnement, nous pouvons ecrire
Lt
2
(s) = 2L1 t(s) =
2
s
3
et
Lt
n
(s) = nL1 t
n1
(s) =
n
s
Lt
n1
(s) =
n!
s
n+1
.
1.3. COMPL

EMENTS SUR LA TRANSFORM

EE DE LAPLACE 11
Exemple 1.3.4 Resoudre lequation fonctionnelle
s > 0 , Lf(s) =
1
s(s + 1)
.
Solution. On remarque que Lf(s) peut etre factorisee
s > 0 , Lf(s) =
1
s
1
s + 1
= L1(s)Le
t
(s) = L1 e
t
(s) .
Dapr`es le theor`eme 1.3.1, nous avons
t > 0 , f(t) = 1 e
t
=
_
t
0
e
x
dx = 1 e
t
.
La transformee de Laplace se comporte de mani`ere raisonnable vis `a vis de la derivation.
Proposition 1.3.2 Soit f une fonction dordre exponentiel derivable et dont la derivee
est continue. Alors
s > Lf

(s) = sLf(s) f(0) .


Demonstration. Nous avons
s > Lf

(s) =
_

0
f

(t)e
st
dt
Une integration par parties (realisee comme il se doit sur un intervalle borne) conduit
au resultat suivant
Lf

(s) = f(0) +s
_

0
f(t)e
st
dt .
Exemple 1.3.5 Resoudre le syst`eme dequations dierentielles
x

+ 2y

2y = t
x

+y

y = 1
avec la condition initiale x(0) = y(0) = 0.
Solution abregee. En eectuant la transformation de Laplace des deux membres,
on obtient, apr`es identication
x(t) = 2t t
2
/2
y(t) = t .
12 CHAPITRE 1. INTRODUCTION ET G

EN

ERALIT

ES
Transformee de Laplace dune variable aleatoire positive Pour une variable
reelle positive X admettant une densite, la transformee de Laplace est une notion
voisine de la fonction caracteristique. Il sagit en fait de la transformee de la densite
s IR
+
, L
X
(s) = E[e
sX
] =
_

0
e
sx
f
X
(x)dx.
Cette fonction est `a valeurs reelles donc plus facile `a manipuler sur le plan theorique que
la fonction caracteristique. Notons que les calculs `a eectuer sont identiques dans les
deux cas. Nous laissons au lecteur le soin den etablir les principales proprietes `a titre
dexercice en se reportant au paragraphe concernant la fonction caracterisque du cours
de premiere annee. Cette transformee est souvent preferee `a la fonction caracteristique
lorsque lon travaille avec des variables `a valeurs dans IR
+
.
Exercice 1. Calculer la transformee de Laplace dune variable de loi exponentielle
de param`etre > 0. En deduire lesperance et la variance de cette variable.
Exercice 2. Soit X une variable aleatoire positive de fonction de repartition F.
Demontrer que
LF(s) = sL
X
(s).
Exercice 3. Soient X
1
, . . . , X
n
des variables independantes de lois respectives c(
i
),

i
> 0. Determiner la transformee de Laplace de la variable
Y =
n

i=1
X
i
1.4 Revisions de probabilite : la loi exponentielle
Lorsque lon desire etablir un mod`ele mathematique dun phenom`ene reel, il est
souvent necessaire de faire de nombreuses hypoth`eses simplicatrices an danalyser le
mod`ele de mani`ere calculatoire. Une hypoth`ese simplicatrice souvent emise en pra-
tique est que les phenom`emes aleatoires etudies poss`edent une certaine independance
du passe, ou absence de memoire. Dans ce cas, la loi de certaines variables aleatoires
sera une loi exponentielle. Cette hypoth`ese simplicatrice se justie du fait de la sim-
plicite de calcul liee `a la cette loi mais aussi du fait quelle constitue souvent une bonne
approximation du phenom`ene reel. Par exemple, la loi exponentielle est la loi de la
duree de vie dun materiel qui ne suse pas au cours du temps. Un tel materiel poss`ede
un taux de destruction (taux de panne) constant dans le temps. Cette propriete dab-
sence de memoire sera mise en forme dans le premier paragraphe. La loi exponentielle
sera la seule loi qui poss`edera une telle propriete.
1.4. R

EVISIONS DE PROBABILIT

E : LA LOI EXPONENTIELLE 13
Cette section du cours de premi`ere annee est replacee ici pour lhomogeneite du
texte. Elle peut etre sautee par les el`eves `a laise.
1.4.1 Denition
Une variable aleatoire reelle X suit une loi exponentielle de param`etre > 0 si sa
densite est donnee par
f(x) =
_
e
x
, x 0
0, x < 0 .
Sa fonction de repartition est alors donnee par
F(x) =
_
x

f(x)dx =
_
1 e
x
si x 0
0 sinon.
La transformee de Laplace de la loi exponentielle est
s 0, L(s) = E[e
sX
]
=
_
+
0
e
sx
e
x
dx
=

+s
.
Les moments de la variable X sobtiennent par dierenciations successives de la trans-
formee de Laplace
E[X] = L

(0)
=
1

et
E[X
2
] = L

(0)
=
2

2
.
Des deux equations precedentes, on deduit aisement
V ar(X) =
1

2
.
Exercice 4. Resultat important. Soient X
1
, . . . , X
n
des variables independantes
de loi exponentielle de param`etre > 0. Demontrer que la loi de la variable S
n
egale
`a X
1
+. . . +X
n
est la loi Gamma G(n, ) de densite
f
X
1
+...+Xn
(x) =
_
e
x
(x)
n1
/(n 1)! , x 0
0 , x < 0 .
14 CHAPITRE 1. INTRODUCTION ET G

EN

ERALIT

ES
1.4.2 Absence de memoire
Denition 1.4.1 Une variable aleatoire X est dite sans memoire (ou sans usure) si
s, t 0, P(X > t +s [ X > t) = P(X > s) . (1.4.1)
Si X est la duree de vie dun materiel quelconque, lequation (1.4.1) sinterpr`ete de la
mani`ere suivante. Sachant le materiel en etat de bon fonctionnement au temps t, la
loi de probabilite de sa duree de vie future est la meme que celle de sa duree de vie
initiale. En dautres termes, le materiel ne suse pas.
Proposition 1.4.1 Une variable aleatoire de loi exponentielle est sans memoire.
Demonstration. La condition dabsence de memoire (1.4.1) se formule de la mani`ere
suivante
P(X > t +s ; X > t)
P(X > t)
= P(X > s) ,
soit
P(X > t +s) = P(X > t) P(X > s) . (1.4.2)
La condition (1.4.2) est evidemment satisfaite par la loi exponentielle.
Proposition 1.4.2 Une variable aleatoire sans memoire suit la loi exponentielle .
Demonstration. Soit X une variable possedant la propriete (1.4.1). On note
G(x) = P(X > x) .
Nous venons dobserver que la fonction G etait solution de lequation fonctionnelle
x, y IR
+
, g(x +y) = g(x)g(y) .
Un resultat danalyse tr`es classique garantit que les solutions continues (`a droite) de
cette equation sont de la forme
x IR
+
, g(x) = e
x
.
Ainsi, nous devons avoir
x IR
+
, P(X x) = 1 e
x
.
La propriete dabsence de memoire de la loi exponentielle se traduit sur une grandeur
appelee taux de panne ou taux de hasard.
Denition 1.4.2 Soit X une variable aleatoire reelle de densite f et de fonction de
repartition F. On appelle taux de hasard la fonction denie par
t 0 , r(t) =
f(t)
1 F(t)
. (1.4.3)
1.4. R

EVISIONS DE PROBABILIT

E : LA LOI EXPONENTIELLE 15
Cette grandeur sinterpr`ete de la mani`ere suivante. Supposons quun materiel de duree
de vie X soit en etat de bon fonctionnement au temps t > 0. On desire calculer la
probabilite dune panne dans lintervalle de temps (t, t + dt). Cette probabilite est
egale `a
P(X (t, t +dt) [ X > t) .
Or
P(X (t, t +dt) [ X > t) =
P(X (t, t +dt) ; X > t)
P(X > t)
=
P(X (t, t +dt) )
P(X > t)

f(t)dt
1 F(t)
= r(t)dt .
La fonction r(t) represente le taux (conditionnel) avec lequel un materiel cesse de
fonctionner `a la date t. Pour la loi exponentielle, ce taux se doit detre constant par
absence dusure. On verie bien
t 0 , r(t) = e
t
/e
t
= .
Proposition 1.4.3 Soit X une variable aleatoire positive amettant une densite f. Le
taux de hasard de X caracterise la loi de cette variable.
Demonstration. Notons que lequation (1.4.3) se formule de mani`ere equivalente
t 0 , r(t) =
F

(t)
1 F(t)
.
En integrant des deux cotes, on obtient
ln(1 F(t)) =
_
t
0
r(s)ds +k
soit
1 F(t) = e
k
exp
_

_
t
0
r(s)ds
_
.
En prenant t = 0, on obtient, puisque F(0) = 0,
F(t) = 1 exp
_

_
t
0
r(s)ds
_
.
Exercice 5. Determiner la loi dune variable aleatoire dont le taux de panne est egal
`a
a) r(t) = t , t 0 ,
b) r(t) = e
t
, t 0 .
16 CHAPITRE 1. INTRODUCTION ET G

EN

ERALIT

ES
1.5 Exercices de revision de probabilite
Exercice 6. Mickey Markov vient de faire lacquisition dune Buick limousine mod`ele
California de de 12 m`etres de long. Mais il na pas pense `a ranger son garage pour
pouvoir la rentrer chez lui. Alors, il doit la garer le long de la rue voisine comportant
12 places de parking. Huit vehicules plus modestes sont deja gares. Quelle chance !
Mickey trouve quatre places attenantes ! Mais cela est-il si surprenant ?
Exercice 7. (Source AB et David Bowie) Lengin spatial StarJojo pilote par le
Major Tom seloigne de la terre `a vitesse constante. Il envoie un message toutes les
secondes, mais son syst`eme gyroscopique est defectueux et le message est envoye dans
une direction aleatoire, de sorte que la probabilite quun message envoye `a une distance
r arrive `a la station de controle est proportionnelle `a 1/r
2
. Montrer qu`a partir dun
moment la station ne recevra presque s urement plus de message en provenance du
Major Tom?
Exercice 8. (Source AB) On suppose que le nombre de clients presents au magasin
Jojo Megastore suit une loi de Poisson de param`etre > 0. Dans ce magasin, chaque
client a la probabilite p de se faire voler son portefeuille. Quelle est la loi du nombre
de portefeuille voles ?
Exercice 9. Montrer que si M et N sont des variables aleatoires independantes
suivant une loi de Poisson de param`etres respectifs et , alors M + N suit la loi de
Poisson de param`etre +.
Exercice 10. (Source AB) Cyclisme. La distance maximale en km quun enfant
de cinq ans accepte de parcourir sur son velo avant de le laisser sur place est une
variable aleatoire de loi de Poisson de moyenne 2. Le tour de letang de Saint-Pierre-
lez-Echalotes fait trois kilom`etres.
a) Calculer la probabilite pour un enfant de terminer le tour du lac `a bicyclette.
b) Sept p`eres de famille accompagnent leurs enfants (un chacun) qui che-
vauchent `erement leurs VTT dans un periple dominical autour du lac.
On note N le nombre de p`eres qui termineront la grande boucle en portant
le velo de leur enfant. Determiner la loi de N. Calculer son esperance et sa
variance.
Exercice 11. Soit n un entier strictement positif. Une particule decrit une marche
aleatoire sur lensemble
E = 1, 2, . . . , 2n 1
de la mani`ere suivante. On note (X
k
) la suite des positions de la particule dans le
temps. La position initiale de la particule est X
0
= i. Si i < n alors la particule se
deplace en j = i +1. Si i > n alors la particule se deplace en j = i 1. Si i = n alors la
1.5. EXERCICES DE R

EVISION DE PROBABILIT

E 17
particule se deplace en une position j choisie au hasard de mani`ere uniforme dans E
mais dierente de n. A partir de la position X
1
, le processus est reitere `a lidentique.
a) Montrer que (X
k
) est une chane de Markov homog`ene dont on precisera la
matrice de transition.
b) On suppose n > 2. Montrer que la suite (X
k
) converge en loi.
c) Determiner la loi invariante de la chane (X
k
).
d) On suppose n = 2. Determiner la loi invariante de la chane (X
k
). On
suppose que X
0
= 2. Determiner la loi de la variable X
k
, pour tout k.
e) Calculer la position moyenne de la particule en regime stationnaire pour
n = 2 et pour n quelconque.
Exercice 12. On consid`ere une chane de Markov (X
n
)
n0
homog`ene, irreductible
dont lespace detat E est ni. Soit (p
ij
)
i,jE
la matrice de transition associee. Pour
tout couple i, j delements de E, on note f
(n)
ij
la probabilite pour que le premier passage
en j partant de i ait lieu au temps n.
a) Montrer, pour tout i, j E,
f
(n+1)
ij
=

k=j
p
ik
f
(n)
kj
.
b) On pose m
i,j
=

n=1
nf
(n)
ij
. Que represente cette grandeur ? Montrer
m
ij
= 1 +

k=j
p
ik
m
kj
.
Exercice 13. Probl`eme de la sentinelle.
Joe Blacksmith est enrole dans le XX
e
de cavalerie dans un fort du desert de lAri-
zona. Cest son jour de sentinelle. Il doit garder le fort dont la geometrie et celle dun
pentagone. Enerve par la monotonie du paysage, il decide de se deplacer dun sommet
`a lautre du pentagone selon une marche au hasard avec une probabilite p daller dans
le sens des aiguilles dune montre et 1 p daller dans le sens contraire. Pas de chance
pour Joe, cest ce jour l`a que Chacal Raleur, un indien sioux (et ruse de surcroit),
cherche `a sintroduire dans le fort par lun des 5 sommets.
a) Decrire les transitions de la chane de Markov associee `a la marche de Joe.
Quelle est la loi stationnaire de cette chane ?
b) Sachant que Joe parcourt une arete du pentagone en dix minutes et ayant
observe quil vient de quitter un sommet, quel sommet Chacal va-t-il choi-
sir ? De combien de temps peut-il esperer disposer (Application : on prend
p =
1
3
) ?
18 CHAPITRE 1. INTRODUCTION ET G

EN

ERALIT

ES
Exercice 14. Un message electronique doit etre transmis par lutilisateur dune
machine A vers lutilisateur dune machine C. Ce transfert seectue par lintermediaire
dune machine B. Mais Mickey Markov est administrateur du reseau et il y a parfois
des messages perdus ou detruits. On suppose que
le transfert de A vers B est eectif avec la probabilite p et echoue avec la proba-
bilite 1 p. En cas dechec, le message est retourne `a lutilisateur A;
le transfert de B vers C est eectif avec la probabilite q et echoue avec la pro-
babilite 1 q. En cas dechec, le message est `a nouveau retourne `a lutilisateur
A;
en cas dechec, A renouvelle lenvoi du message ;
tous les transferts sont independants entre eux.
On note (X
n
)
n0
la succession des machines sur lesquelles le message transite.
a) Demontrer que (X
n
)
n0
est une chane de Markov homog`ene despace detats
A, B, C, de condition initiale X
0
= A, dont on ecrira le matrice de tran-
sition P.
b) On sinteresse au nombre N de transitions necessaires pour que le message
atteigne son destinataire :
N = infn 1 , X
n
= C.
1) Demontrer que, pour tout entier n,
P(N n) = p
(n)
AC
o` u p
(n)
AC
est le coecient correspondant `a la ligne A et `a la colonne C de
la matrice P
n
, puissance n
e
de P.
2) En utilisant lidentite
P
n+1
= P P
n
,
demontrer la relation suivante :
p
(n+1)
AC
= (1 p) p
(n)
AC
+p(1 q) p
(n1)
AC
+pq .
3) Existe-t-il une suite constante solution particuli`ere de lequation de re-
currence
u
n+1
= (1 p) u
n
+p(1 q) u
n1
+pq ?
4) Que valent p
(0)
AC
et p
(1)
AC
?
On suppose maintenant p = q =
1
2
. Pour tout n 0, on pose v
n
= u
n
1.
Quelle est la forme generale de la solution de lequation de recurrence
satisfaite par la suite v
n

n0
?
5) En deduire P(N n) pour tout n IN.
6) Calculer E[N].
Chapitre 2
Processus de renouvellement
Il sagit dans ce chapitre detudier des processus aleatoires constitues de series
devenements pour lesquelles les durees separant les occurrences sont des variables
aleatoires strictement positives independantes et de meme loi. Le processus de Poisson
de param`etre > 0 est un exemple de reference pour une telle famille de processus.
En ce qui concerne le processus de Poisson, les variables inter-occurrences sont de
loi exponentielle de param`etre . Les processus de renouvellement interviennent dans
la modelisation de phenom`enes lies par exemple au renouvellement dun materiel, `a
la abilite dun syst`eme, aux instants darrivee de clients dans une le dattente, `a
loccurrence de sinistres pour une compagnie dassurance etc
2.1 Denitions
2.1.1 Processus et fonction de renouvellement
Soit F une fonction de repartition continue telle que F(0) = 0. Un processus de
renouvellement est un processus ponctuel sur IR
+
representant les instants doccur-
rence dun evenement tel que les durees inter-occurrences successives sont des variables
aleatoires reelles independantes, de meme loi, de fonction de repartition F. Un tel
processus peut etre deni indieremment par
la suite (X
n
) des durees entre les occurrences successives,
la suite (T
n
) des instants doccurrences
n 1 , T
n
= X
1
+. . . +X
n
,
le processus de comptage N
t
; t 0 o` u N
t
represente le nombre doccurrences
dans lintervalle [0, t]. En eet, on passe du processus de comptage aux instants
doccurrence par la relation suivante
n 0 , (N
t
n) = (T
n
t) . (2.1.1)
En premier lieu, nous cherchons `a caracteriser la loi de la variable T
n
egale au n
e
instant
doccurrence. Soit F
n
la fonction de repartition de la variable T
n
. Bien entendu, nous
19
20 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
avons
F
1
= F
et
T
n
= T
n1
+X
n
.
La formule etablie dans le cours de premi`ere annee montre que
F
2
(x) =
_

0
F(x y)dF(y) =
_
x
0
F(x y)dF(y) .
De meme, nous pouvons ecrire
F
n
(x) =
_
x
0
F
n1
(x y)dF(y) .
Dapr`es lequation (2.1.1), nous obtenons la loi de la variable N
t
pour tout t 0. En
eet, nous avons
n 0 , P(N
t
n) = F
n
(t) .
Lesperance de la variable N
t
denit pour tout t 0 une grandeur particuli`erement
importante appelee fonction de renouvellement.
Denition 2.1.1 On appelle fonction de renouvellement, la fonction denie sur IR
+
par
t 0 , M(t) = E[N
t
] .
Nous pouvons enoncer le resultat suivant.
Proposition 2.1.1
t 0 , M(t) =

n=1
F
n
(t) .
Demonstration. La demonstration utilise le fait suivant
E[N
t
] =

n=0
P(N
t
> n) =

n=1
F
n
(t) .
La fonction de renouvellement est donc denie comme une somme de fonctions de
repartition. Cela lui conf`ere un certain nombre de proprietes immediates. En particulier,
la fonction M est croissante, continue `a droite et
lim
t
M(t) = + .
Puisque les T
n
sont positives, nous avons M(0) = 0. Enn, il est utile de remarquer
que M(t) est toujours bien denie. Ce resultat merite un peu dattention. Il est lobjet
de la proposition suivante.
2.1. D

EFINITIONS 21
Proposition 2.1.2
t 0 , M(t) =

n=1
F
n
(t) < .
Demonstration. Nous avons, pour tout m n
F
n
(t) =
_
t
0
F
nm
(t y)dF
m
(y) .
Comme F
nm
est croissante,
y t , F
nm
(t y) F
nm
(t) .
Ainsi, nous pouvons ecrire
1 m n 1 , F
n
(t) F
nm
(t)F
m
(t)
De meme, pour tout r 1 et 0 k r 1
F
nr+k
(t) F
(n1)r+k
(t)F
r
(t)
F
k
(t)[F
r
(t)]
n
.
Pour tout t 0, il existe un r 1 tel que F
r
(t) < 1. Ceci implique que la serie converge
au moins aussi vite quune serie geometrique.
Exemple. Soit 0 < t < 1. On consid`ere le processus de renouvellement associe ` a la
loi uniforme sur lintervalle (0, 1).
a) Demontrer, par recurrence, que
n 1 , P(T
n
t) =
t
n
n!
.
b) Demontrer que
0 < t < 1 , M(t) = e
t
1 .
Solution abregee. Nous avons
0 < t < 1 , F
1
(t) = t
et
F
n
(t) = (F
n1
1)(t) =
t
n
n!
.
Le resultat suit facilement.
Nous donnons lexpression de la transformee de Laplace de la fonction de renouvel-
lement. Ce resultat sera utile dans la section suivante.
22 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Proposition 2.1.3 La transformee de Laplace de la fonction de renouvellement est
egale `a
s > 0, LM(s) =
LF(s)
1 Lf(s)
=
L
X
(s)
s(1 L
X
(s))
o` u f est la densite de la loi de renouvellement et L
X
la transformee de cette densite.
Demonstration. Nous avons
s > 0, LM(s) =

n=1
LF
n
(s).
Or LF
n
(s) = LF
n1
(s)Lf(s), et par recurrence,
LF
n
(s) = LF(s) (Lf(s))
n1
.
Le resultat annonce provient de la serie geometrique de raison Lf(s) < 1.
2.1.2 Temps residuel. Temps courant.
Nous donnons quelques denitions usuelles concernant les processus de renouvelle-
ment. Il sagit des temps residuel et courant.
Denition 2.1.2 Pour tout t 0, on denit
le temps residuel courant

t
= T
Nt+1
t
lage courant

t
= t T
Nt
le temps total courant

t
= T
Nt+1
T
Nt
associes `a un processus de renouvellement donne.
Commentaires. Le temps residuel courant est `a linstant t le temps quil reste `a
attendre pour la prochaine occurrence du processus. En guise dillustration, il sagit
du temps que lon passe `a larret dautobus lorsque lon arrive `a linstant t (dans cet
exemple, une occurrence est representee par larrivee dun bus). Lage courant est la
duree separant la date courante t de la derni`ere occurrence du processus et le temps
total courant est la somme des deux temps precedents

t
=
t
+
t
= X
Nt+1
.
2.1. D

EFINITIONS 23
2.1.3 Exemples
Nous terminons cette section en presentant deux exercice simples illustrant linteret
des processus de renouvellement.
Exemple 1 : Des trous dans le gruy`ere. Une suite de requetes arrivent `a un
serveur selon un processus de renouvellement dont la loi inter-arrivees a pour fonction
de repartition F. Au temps t = 0, le serveur lance lexecution une tache dont la duree
est determinee et vaut C > 0. Lorsquelle est interrompue par larrivee dune requete,
lexecution de cette tache est annulee puis reinitialisee et relancee immediatement apr`es
larrivee de la requete. Pour mener `a bien lexecution de la tache, le serveur doit donc
attendre le premier intervalle de renouvellement dune duree superieure `a C.
a) Soit N le rang de lintervalle de temps dans lequel lexecution de la tache
pourra etre achevee. Quelle est la loi de la variable aleatoire N ? Exprimer
sa fonction generatrice G
N
.
b) Soit T le temps dattente du premier intervalle de renouvellement dune
duree superieure `a C. Donner lexpression de T en fonction de N. Calculer
la transformee de Laplace de T.
c) Deduire E[T] de la question precedente.
d) On suppose que les requetes arrivent selon un processus de Poisson de
param`etre > 0. Donner lexpression de E[T] en fonction de .
Solution abregee.
a) La variable N egale au rang de lintervalle dans lequel lexecution de la
tache pourra etre achevee est une variable de loi geometrique de param`etre
p = 1 F(C) .
Sa fonction generatrice est donc egale `a
[z[ < 1 , G
N
(z) =
(1 F(C))z
1 F(C)z
.
b) Notons tout dabord que la loi conditionnelle de X sachant X C admet
pour densite
x C , f
XC
X
(x) =
f(x)
F(C)
.
De plus, la loi conditionnelle du vecteur aleatoire
T
(X
1
, . . . , X
n1
) sachant
que N = n admet pour densite
i, x
i
C , f
N=n
(X
1
,...,X
n1
)
(x
1
, . . . , x
n1
) =
n1

i=1
f(x
i
)
F(C)
o` u f est la densite commune des (X
i
). Puisque,
T = X
1
+. . . +X
N1
+C ,
24 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
nous avons
E[e
sT
] = e
sC
E[E[e
s(X
1
+...+X
N1
)
[ N]]
= e
sC

n=1
P(N = n)
__
C
0
e
sx
f(x)
F(C)
dx
_
n1
.
En utilisant la serie geometrique, nous obtenons
s > 0 , L
T
(s) = e
sC
1 F(C)
1
_
C
0
e
sx
f(x)dx
.
c) Nous obtenons par derivation
E[T] = C +
_
C
0
xf(x)dx
1 F(C)
.
Cette formule est evidemment equivalente `a la suivante
E[T] = C +E[N 1]E[X[(X < C)] .
d) Dans le cas de la loi exponentielle, nous trouvons
E[T] =
e
C
1

Exercice 15. Processus de defaillance.


Un syst`eme dont on suppose la reponse instantanee est sollicite `a des instants
aleatoires (T
n
) suivant un processus de renouvellement dont la loi a pour fonction de
repartition F.
`
A chaque sollicitation, le syst`eme a une probabilite p detre defaillant.
On suppose que les defaillances sont independantes du processus de sollicitations.
a) Montrer que la suite des instants successifs de defaillance denit un proces-
sus de renouvellement.
b) Donner lexpression de la transformee de Laplace de la loi associee aux
instants de defaillance en fonction de Lf, o` u f est la densite de la loi F.
c) Donner lexpression de la fonction de renouvellement.
d) Decrire le processus de defaillance lorsque F est la loi exponentielle de
param`etre > 0.
Solution abregee. Notons Y
1
linstant de la premi`ere defaillance. Nous avons
Y
1
= X
1
+ +X
N
2.2. PROCESSUS DE POISSON 25
o` u N est de loi ((p), independante des (X
n
). Les hypoth`eses dindependance garan-
tissent que le processus de defaillance est un processus de renouvellement dont la loi
est identique `a celle de Y
1
. Nous avons
L
Y
(s) =

n=1
P(N = n)(L
X
(s))
n
=
pL
X
(s)
1 qL
X
(s)
.
En notant M
p
la fonction de renouvellement du processus des defaillances, nous avons
LM
p
(s) =
L
Y
(s)
s(1 L
Y
(s))
=
1
s
pL
X
(s)
1 L
X
(s)
= pLM(s).
Nous avons donc
t 0, M
p
(t) = pM(t).
Lorsque les X
n
sont de loi c(), nous avons
L
Y
(s) =
p
p +s
,
et Y suit la loi c(p). Dans ce cas, nous verrons que le processus de sollicitation est
un processus de Poisson de param`etre > 0 et retrouverons cette propriete classique
dextraction plus loin.
2.2 Processus de Poisson
2.2.1 Processus de Poisson et renouvellement
Le processus de Poisson a ete presente durant le cours de premi`ere annee. Intuiti-
vement, il sagit de compter le nombre doccurrences devenements qui surviennent au
hasard et independamment les uns des autres au cours du temps. La denition classique
du processus de Poisson est la suivante.
Denition 2.2.1 Le processus de comptage N
t
; t 0 est un processus de Poisson
de taux > 0, si
i) le processus est `a accroissements independants ;
ii) le nombre doccurrences dans un intervalle de temps quelconque de longueur t
suit la loi de Poisson de param`etre t.
s, t 0 , P(N
t+s
N
s
= n) = e
t
(t)
n
/n! , n = 0, 1, ...
Commentaires. Il vient immediatement dune telle denition quun processus de
Poisson est un processus `a accroissements stationnaires et de plus
E[N
t
] = t .
Dans cette section, nous donnons une autre denition du processus de Poisson, vu
comme un processus de renouvellement.
26 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Denition 2.2.2 Soit (X
n
) un processus de renouvellement de loi F egale `a la loi
exponentielle de param`etre > 0. Soit
T
n
= X
1
+ +X
n
, pour n 1; T
0
= 0.
Le processus de comptage N
t
; t 0 deni par
N
t
= maxn : T
n
t
est appele processus de Poisson de taux > 0.
Pour comprendre la raison de lappellation processus de Poisson (plutot que pro-
cessus exponentiel), cherchons la loi de N
t
pour un t xe. Tout dabord, notons que
n IN , t > 0 , N
t
n T
n
t . (2.2.2)
Les variables aleatoires T
n
sont denies comme somme de n variables independantes
de loi c(). Par consequent, T
n
suit la loi Gamma G(n, ). Montrons quune variable
N
t
denie `a partir de la relation (2.2.2) suit la loi de Poisson de param`etre t. Soit
n IN, nous avons
P(N
t
n) = P(T
n
t)
=

n
(n 1)!
_
t
0
x
n1
e
x
dx
=

n
(n 1)!
I
n
En integrant par parties, on obtient
I
n
= [
x
n
n
e
x
]
t
0
+
_
t
0

x
n
n
e
x
ds .
Donc
P(N
t
n) =
(t)
n
n!
e
t
+

n+1
n!
I
n+1
.
Par consequent, puisque le dernier terme est egal `a P(N
t
n + 1),
P(N
t
= n) = P(N
t
n) P(N
t
n + 1) =
(t)
n
n!
e
t
.
Notons quil est possible de faire cette demonstration directement `a laide de la
transformee de Laplace. En eet, nous avons
LF
n
(s) = s
1
_

s +
_
n
= s
1
LG(n, )(s).
Par ailleurs, nous avons
P(N
t
= n) = P(T
n
t) P(T
n+1
t).
Ainsi, nous avons apr`es simplication
L P(N
t
= n)(s) =
1
_

s +
_
n+1
=
1
LG(n + 1, )(s)
Le resultat suit par inversion de la transformee de Laplace.
2.2. PROCESSUS DE POISSON 27
2.2.2

Equivalence des denitions
An de verier lequivalence des deux denitions, nous devons en particulier verier
que les accroissements sont independants et stationnaires. Nous supposons que le pro-
cessus de Poisson est deni comme un processus de renouvellement et nous procedons
en deux etapes (lemmes).
Lemme 2.2.1 Soit s > 0. Le processus deni par L
t
= N
t+s
N
s
, pour tout t 0 est
encore un processus de Poisson de param`etre > 0. Il est independant de N
r
, quel que
soit r s.
Demonstration. Nous donnons en fait lidee de la demonstration peu agreable `a
formaliser. Imaginons pour xer les idees que N
s
= 4. Ainsi, il y a eu 4 occurrences aux
temps T
1
= t
1
, T
2
= t
2
, T
3
= t
3
et T
4
= t
4
. Nous savons alors que le temps separant la
quatri`eme et la cinqui`eme occurrence doit verier
X
5
> s t
4
.
Puisque la loi exponentielle est sans memoire, nous avons
P(X
5
> t + (s t
4
) [ X
5
> s t
4
) = P(X
5
> t) = e
t
.
Ceci montre que la loi de la premi`ere arrivee du processus L
t
est la loi c() et que la
premi`ere arrivee dans le processus decale est independante des T
i
(i 4). Ce resultat
anticipe par ailleurs sur la description du temps residuel pour le processus de Poisson.
La loi de ce temps est exponentielle de param`etre .
Lemme 2.2.2 Le processus (N
t
) est `a accroissements independants. Si t
0
< t
1
< . . .
t
n
, alors
N
t
1
N
t
0
, . . . , N
tn
N
t
n1
,
sont des variables independantes.
Demonstration. Dapr`es le premier lemme, N
tn
N
t
n1
est independant de N
t
1
N
t
0
,
. . . , N
t
n1
N
t
n2
. Le resultat annonce sobtient par recurrence.
Ces lemmes traduisent une propriete fondamentale de renouvellement. Intuitive-
ment, le processus redemarre de la meme mani`ere `a nimporte quel instant positif.
`
A
tout instant, letat du processus est independant de tous les etats passes du processus.
En dautres termes, il sagit dun processus sans memoire.
Demonstration de lequivalence des propositions. Les lemmes precedents
donnent la premi`ere implication (la denition 2.2.2 entrane la denition 2.2.1). La
reciproque est fournie par le resultat suivant.
28 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Proposition 2.2.1 Supposons que le processus de Poisson est deni par la denition
2.2.1. Alors les variables aleatoires X
1
, . . . , X
n
sont independantes et de loi exponen-
tielle de param`etre .
Demonstration. Notons, tout dabord, que levenement (X
1
> t) se realise si et
seulement si il ny a aucune occurrence du processus de Poisson dans lintervalle (0, t).
Ainsi,
P(X
1
> t) = P(N
t
= 0) = e
t
.
Donc X
1
suit la loi exponentielle de param`etre . De plus,
P(X
2
> t) = E[ P(X
2
> t [ X
1
)] =
_

0
P(X
2
> t [ X
1
= s)e
s
ds .
Calculons
P(X
2
> t [ X
1
= s) = P(0 occurrence dans (s, s +t) [ X
1
= s)
= P(0 occurrence dans (s, s +t))
= P(N
t+s
N
s
= 0)
= e
t
.
Les deux derni`eres equations decoulent de la propriete daccroissements independants
et stationnaires du processus de Poisson. On conclut que X
2
suit la loi exponentielle
de param`etre et quelle est independante de X
1
. En repetant cet argument pour tout
n > 2, on demontre la proposition.
Commentaires. Nous avons vu en premi`ere annee et justierons `a nouveau dans la
suite une troisi`eme denition du processus de Poisson. Cette derni`ere denition met
laccent sur la caracterisation du processus de Poisson comme processus de Markov.
Dans ce contexte, lequivalence avec le renouvellement de loi exponentielle apparatra
immediat.
Denition 2.2.3 Le processus de comptage N
t
; t 0 est un processus de Poisson
de taux > 0, si
i) le processus est `a accroissements independants et stationnaires ;
ii) P(N
h
= 1) = h +o(h) ;
iii) P(N
h
2) = o(h).
2.2.3 Temps residuel et courant. Le paradoxe de linspection.
Considerons donc le processus de Poisson de param`etre > 0 comme un processus
de renouvellement de fonction de repartition
t 0 , F(t) = 1 e
t
.
Par denition, la fonction de renouvellement est egale `a
t 0 , M(t) = E[N
t
] .
2.2. PROCESSUS DE POISSON 29
La variable aleatoire N
t
admet pour loi la loi de Poisson de param`etre t. En consequence,
nous avons
t 0 , M(t) = t .
Le temps residuel courant est tel que
x 0 , P(
t
> x) = P(N
t+x
N
t
= 0) = P(N
x
= 0) = e
x
.
La loi du temps residuel est donc la loi exponentielle de param`etre . Le temps residuel a
donc meme loi que les durees inter-occurrences. Ceci peut paratre paradoxal puisque le
temps residuel est toujours plus court que la duree separant les occurrences precedant
et suivant linstant o` u il est mesure. Il est aussi remarquable que la loi du temps
residuel ne depende pas de t. En fait, ces proprietes traduisent labsence de memoire
du processus de Poisson et de la loi exponentielle.
Lage courant ne peut etre superieur `a t. Mais, pour tout x < t,
P(
t
> x) = P(N
t
N
tx
= 0) = P(N
x
= 0) = e
x
.
La fonction de repartition de cette variable aleatoire est donc donnee par
F
t
(x) =
_
1 e
x
si 0 x t ,
1 si x t .
Il sagit de la loi exponentielle tronquee en t.
Lesperance du temps total courant vaut donc
E[
t
] = E[
t
] +E[
t
] =
1

[1 + (1 e
t
)] .
Il faut remarquer que la loi de la variable
t
est dierente de la loi exponentielle (loi des
durees inter-occurrences). Lidentite precedente conduit en eet au paradoxe suivant
E[
t
] =
2 e
t

> E[X
i
] =
1

Lorsque t tend vers linni, le temps total courant separant deux occurrences succes-
sives du processus de Poisson est en moyenne deux fois plus long que la duree inter-
occurrences moyenne. Ce paradoxe est appele parfois appele paradoxe de linspection.
Linspection, i.e. lobservation de letat du processus au temps t, a pour eet dagrandir
la duree moyenne dattente de loccurrence suivante.
La loi conjointe du couple (
t
,
t
) se determine de la meme mani`ere
x 0 , 0 y t , P(
t
> x,
t
> y) = P(N
t+x
N
ty
= 0) = P(N
x+y
= 0) .
Ainsi, nous obtenons
P(
t
> x,
t
> y) =
_
e
(x+y)
si 0 y < t ,
0 si y t .
Ceci demontre que les variables aleatoires
t
et
t
sont independantes. Cette propriete,
equivalente `a labsence de memoire, caracterise le processus de Poisson.
30 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
2.2.4 Quelques exemples lies au processus de Poisson
Ce premier exemple presente un moyen de construire algorithmiquement des rea-
lisations de la loi de Poisson. Pour simuler le processus, nous verrons plus tard une
autre methode de simulation fondee sur le conditionnement (qui sav`ere plus ecace
en pratique).
Exemple 2.2.1 Soit un reel positif. La loi de la variable N en sortie de lalgorithme
suivant
X <- 1
N <- -1
Repeter
X <- X * ALEA
N <- N + 1
Tant que ( X > exp(-lambda) )
est la loi de Poisson de param`etre .
Solution. Pour un entier n xe, on cherche `a calculer la probabilite de levenement
(N n). La loi de N, caracterisee par sa fonction de repartition, se deduira de ce
calcul. On note (U
i
)
i1
la suite des appels au generateur ALEA.
n 1 , P(N n) = P( (U
1
> exp()) ( U
1
U
2
U
n
> exp()) )
= P( U
1
U
2
U
n
> exp() )
car les evenements (U
1
U
2
U
i
> exp())
i1
sont emboites. En passant au loga-
rithme, on obtient
P(N n) = P(
n

i=1
ln(U
i
) ).
Les variables X
i
= ln(U
i
) sont independantes et de loi c(1). Si lon introduit un
processus de Poisson

N
t
, t 0 de param`etre 1, on peut ecrire
P(
n

i=1
X
i
) = P(

N

n).
Ceci conduit `a
P(

N

n) = P(N n)
et N suit la loi de Poisson de param`etre .
Lexemple que nous presentons maintenant est particuli`erement important. Il montre
que si lon extrait des occurrences au hasard dans un processus de Poisson avec une
probabilite xe, on obtient de nouveau un processus de Poisson.
2.2. PROCESSUS DE POISSON 31
Exemple 2.2.2 Soit N
t
; t 0 un processus de Poisson de param`etre > 0. On
suppose que les occurrences successives du processus peuvent etre classees selon deux
types que lon note type I et type II. On suppose de plus que lorsquune occurrence
survient, elle est de type I avec probabilite p independamment de toutes les autres
occurrences du processus. On note respectivement N
1
t
et N
2
t
les nombres doccurrences
de type I et de type II survenues dans lintervalle de temps [0, t].
a)
`
A t 0 xe, quelle est la loi du couple (N
1
t
, N
2
t
) ? (On pourra conditionner `a
levenement (N
t
= k), k 0.)
b) En deduire, pour tout t 0, la loi de la variable N
1
t
.
c) Montrer, pour tout t 0, que les variables aleatoires N
1
t
et N
2
t
sont independantes.
d) Montrer que N
1
t
; t 0 et N
2
t
; t 0 sont des processus de Poisson
independants de param`etres respectifs p et (1 p).
Solution 1. En remarquant que N
t
= N
1
t
+N
2
t
, il devient judicieux de conditionner
`a la valeur de la variable N
t
. Ainsi, pour tout k, l IN,
P(N
1
t
= k ; N
2
t
= l) = E[ P(N
1
t
= k ; N
2
t
= l [ N
t
) ]
= P(N
1
t
= k ; N
2
t
= l [ N
t
= k +l) P(N
t
= k +l)
Il existe bien s ur C
k
k+l
mani`eres dordonner k occurrences de type I parmi k + l oc-
currences de types I et II. Ceci donne, compte tenu que N
t
suit une loi de Poisson de
param`etre t,
P(N
1
t
= k ; N
2
t
= l) = C
k
k+l
p
k
(1 p)
l
e
t
(t)
k+l
(k +l)!
=
(pt)
k
k!
((1 p)t)
l
l!
e
pt
e
(1p)t
Les variables N
1
t
et N
2
t
sont donc independantes (la loi du couple se factorise) et de loi
de Poisson de param`etres respectifs pt et (1 p)t.
On montre de la meme facon que les accroissements N
1
(t + s) N
1
t
et N
2
t+s
N
2
t
,
t, s 0 sont egalement poissoniens de param`etres ps et (1 p)s.
En se referant au cours (p. 189), le processus N
1
t
; t 0 est un processus de Poisson de
param`etre p si lon montre que ses accroissements sont independants. Soient s, t > 0,
on peut ecrire
P(N
1
s
= k ; N
1
t+s
N
1
s
= l) = E[ P(N
1
s
= k ; N
1
t+s
N
1
s
= l [ N
s
; N
t+s
N
s
)].
En conditionnant aux variables N
s
et N
t+s
N
s
, on fait disparaitre lalea lie au nombre
total doccurrences au temps t +s. Les accroissements N
1
t+s
N
1
s
et N
1
s
ne dependent
plus que des tirages de type I ou II et sont donc independants (conditionnellement `a
N
s
et N
t+s
N
s
). Ainsi
P(N
1
s
= k ; N
1
t+s
N
1
s
= l) = E[ P(N
1
s
= k [ N
s
; N
t+s
N
s
)
P(N
1
t+s
N
1
s
= l [ N
s
; N
t+s
N
s
)]
= E[ P(N
1
s
= k [ N
s
) ]
E[ P(N
1
t+s
N
1
s
= l [ N
t+s
N
s
)]
= P(N
1
s
= k) P(N
1
t+s
N
1
s
= l)
(2.2.3)
32 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
o` u lon a utilise, pour la deuxi`eme identite, lindependance des accroissements N
s
et
N
t+s
N
s
du processus de Poisson N
t
; t 0. Le meme raisonnement sapplique
avec un nombre ni daccroissements du processus N
1
t
; t 0 comme du processus
N
2
t
; t 0.
Solution 2. Puisque (N
t
) est un processus de renouvellement, et que les types
sont aectes independamment de (N
t
), il est clair que (N
1
t
) est aussi un processus de
renouvellement. Soit Y
1
linstant de premi`ere occurrence, nous avons
L
Y
1
(s) = G
N
(L
X
1
(s)) =
pL
X
1
(s)
1 (1 p)L
X
1
(s)
.
Or, nous avons
L
X
1
(s) =

+s
, s > 0
et
L
Y
1
(s) =
p
+s
+s
+s (1 p)
=
p
p +s
.
On reconnait la transformee de Laplace de la loi c(p).
2.2.5 Loi conditionnelle des instants de renouvellement
Soit N
t
; t 0 un processus de Poisson de param`etre > 0. Nous supposons que
le nombre doccurrences au temps t est egal `a n. Nous allons montrer, dans ce para-
graphe, que les n premiers instants doccurrence sont repartis de la meme mani`ere que
des variables independantes de loi uniforme sur lintervalle de temps (0, t) et rangees
dans lordre croissant. On dit dans ce cas que les variables correspondent aux statis-
tiques dordre dun echantillon de loi uniforme. Nous donnons ci-dessous une denition
precise.
Denition 2.2.4 Soient X
1
, . . . , X
n
, n variables aleatoires `a valeurs reelles. On dit
que X
(1)
, . . . , X
(n)
sont les statistiques dordre correspondant `a X
1
, . . . , X
n
si, pour tout
k = 1, . . . , n, X
(k)
est la k
e
plus petite valeur parmi X
1
, . . . , X
n
.
Convention. Sil y a egalite entre certaines variables, la statistique dordre est mal
denie. On decidera en cas degalite pour X
(k)
de choisir la variable de plus petit indice
parmi les ex aequo. Cette situation critique nintervient jamais dans la suite car les
variables que nous consid`erons admettent une loi `a densite.
Proposition 2.2.2 On suppose que X
1
, . . . , X
n
sont independantes et de meme loi de
densite f. Alors, la densite f

du vecteur (X
(1)
, . . . , X
(n)
) est
f

(x
1
, . . . , x
n
) = n!
n

i=1
f(x
i
)11
{x
1
<...<xn}
.
2.2. PROCESSUS DE POISSON 33
Demonstration. Considerons la permutation de 1, . . . , n et la transformation

de IR
n
dans lui-meme qui permute les coordonnees du vecteur (x
1
, . . . , x
n
)
(x
1
, . . . , x
n
) IR
n
,

(x
1
, . . . , x
n
) = (x
(1)
, , x
(n)
) .
Alors, pour tout sous-ensemble mesurable A x
1
< . . . < x
n
, nous avons
P( (X
(1)
, . . . , X
(n)
) A) =

P( (X
1
, . . . , X
n
)

(A))
=

_
(A)
f(x
1
) . . . f(x
n
)dx
1
. . . dx
n
.
Le changement de variable (lineaire)
(y
1
, . . . , y
n
) =
1

(x
1
, . . . , x
n
)
dans chacun des termes de la somme conduit, en remarquant que
[Jac

[ = 1,
`a
P( (X
(1)
, . . . , X
(n)
) A) = n!
_
A
f(y
1
) . . . f(y
n
)dy
1
. . . dy
n
o` u n! represente bien entendu le nombre de permutations des n indices.
Proposition 2.2.3 La loi conditionnelle des instants de renouvellement (T
1
, . . . , T
n
)
sachant (N
t
= n) est celle de n variables independantes de loi uniforme sur (0, t)
rangees dans lordre croissant. Elle admet pour densite
(t
1
, . . . , t
n
) IR
n
, f
Nt=n
(T
1
,...,Tn)
(t
1
, . . . , t
n
) =
n!
t
n
11
{0<t
1
<...<tnt}
.
Demonstration. Soient 0 < t
1
< t
n
t. Utilisons les variables inter-occurrences
(X
i
). Lobservation
(T
1
= t
1
; ; T
n
= t
n
; N
t
= n)
se realise si et seulement si
(X
1
= t
1
; X
2
= t
2
t
1
; ; X
n
= t
n
t
n1
; X
n+1
> t
n
t)
se realise aussi. Or, les (X
i
) sont independantes et de loi exponentielle de param`etre
> 0. Ceci implique que
f
Nt=n
(T
1
,...,Tn)
(t
1
, . . . , t
n
) =
1
P(N
t
= n)
f
X
1
(t
1
) f
X
2
(t
2
t
1
) . . . f
Xn
(t
n
t
n1
)P(X
n+1
> t
n
t) .
34 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Apr`es simplication, nous obtenons
f
Nt=n
(T
1
,...,Tn)
(t
1
, . . . , t
n
) =

n
e
tn
e
(ttn)
(t)
n
e
t
=
n!
t
n
.
Commentaires. Ce resultat nous permet de proposer un algorithme permettant
dobtenir une realisation du processus de Poisson sur lintervalle (0, t). On commence
par simuler une variable N selon la loi de Poisson de param`etre t. Puis on fait appel
N fois au generateur aleatoire pour obtenir N variables de loi uniforme sur lintervalle
(0, t). Il sut ranger ces variables dans lordre croissant an dobtenir les instants
doccurrence du processus. En langage R (ou S), cette simulation peut secrire
> N <- rpois(1, lambda *t) #simule la loi de Poisson
> U <- runif(N, 0, t) #echantillon de taille N de loi uniforme sur (0,t)
> T <- sort(U) #tri rapide
En sortie, la variable T contient les instants doccurrence du processus de Poisson de
param`etre au temps t. Si N = 0, la situation est triviale, T
0
= 0.
Le resultat poss`ede un interet applicatif certain. Il permet de justier que lon puisse
faire comme si les variables T
i
etaient independantes et de loi uniforme pour le calcul
de certaines esperances.
Proposition 2.2.4 Soient T
1
< < T
n
les instants doccurrence dun processus de
Poisson homog`ene N
t
; t 0 de param`etre > 0. Soit U une variable aleatoire de
loi uniforme sur lintervalle (0, t). Soit g une fonction de la variable reelle, integrable
sur (0, t). Alors
E[g(T
1
) . . . g(T
n
) [ N
t
= n] =
_
1
t
_
t
0
g(u)du
_
n
= E[g(U)]
n
.
Soient Y
1
, . . . , Y
n
des variables aleatoires reelles independantes et de meme loi. Soit h
une fonction de deux variables reelles telle que E[h(U, Y
1
)] < . Alors
E[h(T
1
, Y
1
) . . . h(T
n
, Y
n
) [ N
t
= n] = E[h(U, Y
1
)]
n
.
Demonstration. Nous demontrons la premi`ere armation. La seconde est laissee
en exercice. La demonstration repose sur la remarque que
(t
1
, . . . , t
n
) = g(t
1
) g(t
n
)
est invariante par la permutation des coordonnees. De plus, nous avons
E[g(T
1
) . . . g(T
n
) [ N
t
= n] =
n!
t
n
_
t
1
tnt
g(t
1
) g(t
n
)dt
1
dt
n
.
2.2. PROCESSUS DE POISSON 35
Ainsi, en considerant toutes les permutations, nous avons
E[g(T
1
) . . . g(T
n
) [ N
t
= n] =
1
t
n

_
t
(1)
t
(n)
t
g(t
1
) g(t
n
)dt
1
dt
n
.
Cela revient `a integrer sur (0, t)
n
E[g(T
1
) . . . g(T
n
) [ N
t
= n] =
1
t
n
_
(0,t)
n
g(t
1
) g(t
n
)dt
1
dt
n
.
et le resultat decoule du theor`eme de Fubini.
Nous terminons ce paragraphe par un exemple o` u le conditionnement intervient de
mani`ere utile. Cet exemple est representatif dun probl`eme de stock. Il pourrait tout
aussi bien concerner un organisme biologique.
Exemple 2.2.3 Une organisation non-gouvernementale dispose dune ressource ini-
tiale u 0. Des subventions arrivent `a cet organisme selon un processus de Poisson
N
t
; t 0 dintensite > 0. La n
e
subvention augmente les ressources dont dispose
lorganisme dune variable aleatoire Y
n
(n 1) de fonction de repartition F. les va-
riables (Y
n
) sont independantes. Les ressources sont dispersees par lorganisme `a une
vitesse qui est proportionnelle `a leur quantite selon un coecient de proportionnalite
. Conditionnellement `a labsence darrivee de subventions dans lintervalle [0, t], la
quantite de ressources R
t
dont dispose lorganisme au temps t est solution de lequation
R

= R
avec la condition initiale R
0
= u. Nous cherchons `a determiner la loi de la variable R
t
,
et plus precisement sa transformee de Laplace, pour en deduire par exemple lesperance
de R
t
.
Solution. Lintegration de lequation dierentielle qui dirige le comportement de R
t
conduit au resultat suivant
t 0 , R
t
=
Nt

k=0
Y
k
exp((t T
k
))
o` u lon a pose Y
0
= u et note T
k
linstant darrivee de la k
e
occurrence du proces-
sus de Poisson. An de donner lexpression de la transformee de Laplace de R
t
, nous
considerons que les arrivees du processus de Poisson sont independantes et distribuees
de mani`ere uniforme dans [0, t] conditionnellement `a N
t
= n. Ainsi, dapr`es la propo-
sition precedente,
s > 0 , E[e
s
P
N
t
k=0
Y
k
exp((tT
k
))
[ N
t
= n] = e
suexp(t)
E[e
sY
1
exp((tU))
]
n
36 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
o` u U est une variable de loi uniforme sur [0, t]. En integrant suivant les valeurs possibles
de N
t
, on obtient
s, t 0 , L
Rt
(s) = exp
_
sue
t

_
t
0
1 L
Y
1
(se
x
)dx
_
.
Si lon derive en 0 (sous le signe somme), on obtient
E[R
t
] = ue
t

_
t
0
e
x
L

Y
1
(0)dx = ue
t
+

(1 e
t
)E[Y
1
] .
Nous voyons que la valeur moyenne des ressources disponibles au temps t converge
rapidement vers une constante
lim
t
E[R
t
] =

E[Y
1
].
2.2.6 Exercices
Exercice 16. Soient N
t
; t 0 et M
t
; t 0 deux processus de Poisson
independants de param`etres respectifs > 0 et > 0. Pour tout t 0, on pose
L
t
= N
t
+M
t
.
Montrer que L
t
; t 0 est un processus de Poisson de param`etre +.
Solution abregee. Utiliser la denition du processus de Poisson comme un processus
de renouvellement. En superposant les deux processus, la loi de la premi`ere occurrence
Z
1
est egale `a la loi du minimum des temps de premi`ere occurence de chacun des deux
processus
Z
1
= minX
1
, Y
1
.
Puisque X
1
suit la loi c() et Y
1
suit la loi c(), nous obtenons que Z
1
suit la loi c(+).
Lindependance des variables inter-occurrences provient de labsence de memoire de la
loi exponentielle (independance du passe et temps residuel de loi exponentielle).
Exercice 17. Sachant quune occurrence exactement dun processus de Poisson de
param`etre a eu lieu dans lintervalle de temps (0, t), montrer que la loi de linstant
de cette occurrence dans lintervalle est la loi |(0, t).
Solution abregee. Soit x t, nous avons
P(X
1
x [ N
t
= 1) =
P(N
x
= 1 ; N
t
N
x
= 0)
P(N
t
= 1)
.
2.2. PROCESSUS DE POISSON 37
En utilisant lindependance des accroissements, nous avons
P(X
1
x [ N
t
= 1) =
x
t
e
(x+tx)
e
t
=
x
t
Exercice 18. Soient N
1
t
; t 0 et N
2
t
; t 0 deux processus de Poisson de
param`etres respectifs
1
> 0 et
2
> 0. On note S
1
n
et S
2
m
les instants respectifs des n
e
et m
e
occurrences des processus N
1
t
; t 0 et N
2
t
; t 0.
a) On suppose n = m = 1. Montrer que
P(S
1
2
< S
2
1
) =

1

1
+
2
.
b) On suppose n = 2 et m = 1. En conditionnant `a levenement (S
1
2
< S
2
1
),
montrer que
P(S
1
1
< S
2
1
) = (

1

1
+
2
)
2
.
c) Montrer, pour tout n, m > 0, que
P(S
1
n
< S
2
m
) =
n+m1

k=n
C
k
n+m1
(

1

1
+
2
)
k
(

2

1
+
2
)
n+m1k
.
(superposer les processus N
1
et N
2
)
Exercice 19. Soit N
t
; t 0 un processus de Poisson de param`etre > 0 et n un
entier positif. Montrer, pour tout 0 s < t et tout 0 k n, que
P(N
s
= k[N
t
= n) = C
k
n
(
s
t
)
k
(1
s
t
)
nk
.
En dautres termes, la loi conditionnelle de la variable N
s
sachant N
t
= n est la loi
binomiale de param`etres n et s/t.
Exercice 20. Au football, on suppose que les buts sont marques aux instants dun
processus de Poisson (N
t
) de param`etre > 0. Dans ce probl`eme, nous nous interessons
aux parties qui se sont terminees avec 2 buts marques. La duree dune partie est une
constante notee T.
1) Soit 0 < s < t < T et C
T
= [0, T][0, T] le carre de cote T. On denit lensemble
D(s, t) = (t
1
, t
2
) C
T
, t
1
s, t
2
t, t
1
t
2
.
Dessiner cet ensemble.
38 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
2) On consid`ere deux variables X et Y independantes, de loi uniforme sur (0, T) et
le couple (X

, Y

) construit en rangeant X et Y dans lordre croissant.


`
A laide
dun raisonnement geometrique, montrer que
0 < s < t < T, P(X

s; Y

t) = 2 P((X, Y ) D(s, t)).


En deduire que la fonction de repartition du couple (X

, Y

) verie
0 < s < t < T, P(X

s; Y

t) =
2st s
2
T
2
.
3) Soit T
1
linstant du premier but et T
2
linstant du second. Justier legalite
suivante
0 < s < t < T, P(T
1
s; T
2
t) = P(N
s
1; N
t
= 2 [ N
T
= 2).
4) En utilisant lindependance des accroissements du processus de Poisson, montrer
que
0 < s < t < T, P(T
1
s; T
2
t) =
2st s
2
T
2
.
(On prendra soin de bien distinguer deux cas, selon que deux buts sont marques
`a linstant s ou non.)
5) Comment simuler les deux instants de but `a laide dun generateur aleatoire de
loi uniforme ?
Exercice 21. Soit (u) une fonction positive, denie sur R
+
, integrable sur tout
intervalle de la forme (0, t), t > 0. On pose
t 0, (t) =
_
t
0
(u)du.
On dit que le processus de comptage (N
t
) est un processus de Poisson non-homog`ene
si
i) (N
t
) est `a accroissements independants ;
ii) N
t
N
s
suit la loi de Poisson de param`etre (t) (s), pour tout couple (s, t)
tel que s < t.
1) Soit T
1
linstant de premi`ere occurrence du processus. Calculer la probabilite de
levenement (T
1
> t). En deduire la loi de T
1
.
2) On note T
2
linstant de deuxi`eme occurrence du processus. Exprimer levenement
A
s,t
= (T
1
> s ; T
2
> t), 0 < s < t,
en fonction des accroissements N
s
et (N
t
N
s
). Calculer la probabilite
G(s, t) = P(A
s,t
).
2.2. PROCESSUS DE POISSON 39
3) En deduire lexpression de la densite conjointe du couple (T
1
, T
2
)
0 < t
1
< t
2
, f(t
1
, t
2
) = (t
1
)(t
2
)e
(t
2
)
.
(Indication : On pourra utiliser la relation f = G/st.)
4) Soit X
1
= T
1
et X
2
= T
2
T
1
. Determiner la densite conjointe du couple (X
1
, X
2
).
Les variables sont-elles independantes ?
Exercice 22. Mickey Markov rend visite `a son ami Khalid qui est rentre au bled pour
aider sa meme Aziza `a garder les ch`evres quelque part entre Marrakech et Agadir. De-
puis peu, il y a une belle quatre-voies qui coupe le pays et cela oblige Aziza et Khalid `a
faire un detour de 10 km pour mener les ch`evres au point deau le plus proche. Traver-
ser la route avec tout le troupeau prend environ 3 minutes et les vehicules, bien visibles
de tr`es loin, passent en moyenne toutes les minutes. Combien de temps en moyenne
va durer lattente avant de pouvoir faire traverser tout le troupeau? Application : Loi
uniforme.
Exercice 23. Mickey Markov est dans le Larzac au concert de soutien de Jose Bove.
Mais il fait tr`es chaud et le bar ne sert que la piquette bio dun petit producteur du
Languedoc. Mickey va se desalterer en moyenne toutes les 30 minutes. Cela a pour eet
daccrotre son taux debriete de 0.05 g (dalcool dans le sang). Lalcool est degrade de
mani`ere constante `a raison de 0.1 g par heure. Au debut, Mickey est `a jeun. Quel est
son taux moyen debriete apr`es 4h, 8h ?
Exercice 24. Lintervalle (0, 1) est muni de sa tribu de Borel. Soit 0 < t < 1 et I
t
un sous-ensemble mesurable de (0, 1) de mesure de Lebesgue
(I
t
) = t .
Soit N une variable aleatoire de loi de Poisson de param`etre egal `a 1.0. On choisit
aleatoirement de mani`ere uniforme et independante N points de lintervalle (0, 1). On
note N
t
le nombre de points appartenant `a I
t
.
a) Soit n 0. Quelle est la loi conditionnelle de la variable N
t
sachant que
N = n? En deduire que
E[N
t
[N = n] = nt .
b) Calculer E[N
t
].
c) Determiner la loi de la variable N
t
.
d) Montrer que Cov(N
t
, N) = t.
e) On suppose que T est une variable aleatoire independante de N et du tirage
des points dans (0, 1) admettant pour densite
f(t) = (e 1)
1
e
t
11
(0,1)
(t) .
Determiner la loi de la variable aleatoire N
T
. Calculer E[N
T
].
40 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Exercice 25. Soit N
t
; t 0 un processus de Poisson de param`etre > 0. On sup-
pose que chaque occurrence de ce processus est susceptible detre classee selon k types.
On suppose, de plus, que la probabilite pour quune occurrence soit de type i depend
de linstant t de cette occurrence et vaut p
i
(t) (

k
i=1
p
i
(t) = 1) independamment des
autres occurrences.
a) Soit N
i
t
, i = 1, . . . , k le nombre doccurrences de type i survenues `a linstant
t > 0. Demonter que, conditionnellement `a levenement (N
t
= n), n > 0, la
probabilite quil y ait une occurrence de type i dans lintervalle [0, t] est
p
i
=
1
t
_
t
0
p
i
(s)ds.
b) Calculer la probabilite conditionnelle
P(N
1
t
= n
1
, . . . , N
k
t
= n
k
[ N
t
=
k

i=1
n
i
= n).
c) Determiner la loi du n-uplet (N
1
t
, . . . , N
k
t
) pour tout t > 0. En deduire que
les variables N
i
t
sont des variables de loi de Poisson de moyennes respectives
egales `a
E[N
i
t
] =
_
t
0
p
i
(s)ds, i = 1, . . . , k.
Exercice 26. Transformee de Laplace du processus de Poisson.
On appelle transformee de Laplace dun processus de comptage N
t
; t 0 sur
IR
+
, la fonctionnelle denie sur le cone (
+
des fonctions mesurables reelles positives
sur (IR
+
, B(IR
+
)) pour tout f (
+
par :
(f) = E[e

R

0
f(t)dNt
].
a) Demontrer que la transformee de Laplace du processus de Poisson homog`ene
dintensite > 0 vaut pour tout f (
+
:
(f) = exp
_

_

0
(1 e
f(t)
)dt
_
.
On prouvera tout dabord ce resultat pour lindicatrice dun sous ensemble
borne de IR
+
puis on utilisera le fait que f est limite croissante de combi-
naisons lineaires positives de telles fonctions.
b) Un organisme de planication desire modeliser le temps necessaire `a une
decouverte ou `a la production dun resultat par une equipe de recherche
dans un domaine donne, par une variable T appelee temps dinnovation.
On suppose que :
2.3. EQUATIONS DE RENOUVELLEMENT ET APPLICATIONS 41
i) lequipe acquiert des connaissances nouvelles qui surviennent au cours
du temps selon un processus de Poisson homog`ene N
t
; t 0 din-
tensite > 0.
ii) Conditionnellement `a ce processus, le taux instantanne dinnovation
est, `a chaque instant t, proportionnel au nombre de connaissances
acquises jusqu`a cet instant, cest `a dire pour tout t 0 :

{Nu;0ut}
(t) := lim
t0
1
t
P(t T t + t [ T > t; N
u
; 0 u t)
:=
f
{Nu;0ut}
T
(t)
1 F
{Nu;0ut}
T
(t)
= N
t
, > 0.
1. Demontrer
t 0, 1 F
{Nu;0ut}
T
(t) = exp(
_
t
0
N
u
du).
2. Demontrer
_
t
0
N
u
du =
_

0
g(s)dN
s
, g(s) = 1
[0,t]
(s)(t s).
3. En deduire
F
T
(t) = 1 exp
_
(t (1
e
t

)
_
; t 0.
4. Calculer la densite de T.
5. Determiner le taux dinnovation (t), t 0. Tracer sa courbe representative
et interpreter.
Pour toute fonction derivable de IR
+
dans IR, lintegrale stochastique prise par
rapport au processus de Poisson est denie par
_
b
a
f(t)dN
t
= f(b)N
b
f(a)N
a

_
b
a
N
t
f

(t)dt.
2.3 Equations de renouvellement et applications
Cette section `a caract`ere theorique a pour objectif detablir les principaux resultats
lies au comportement asymptotique des processus etudies. Il sagit pour lessentiel de
resultats danalyse portant sur une famille dequations integrales connues sous le nom
dequations de renouvellement.
42 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
2.3.1 La fonction de renouvellement comme solution dune
equation fonctionnelle
Une fonction croissante G denie sur IR
+
continue `a droite et telle que G(0) = 0
induit une mesure positive sur IR
+
muni de sa tribu de Borel. Une telle mesure se note
et se denit grace aux valeurs prises sur les intervalles de IR
+
0 a b , ((a, b]) = G(b) G(a)
On dit parfois que est une mesure de Lebesgue-Stieljes. Une fonction de repartition
fournit un exemple standard dune telle mesure. Dans le paragraphe precedent, nous
avons demontre que la fonction de renouvellement M fournissait aussi un exemple de
mesure de Lebesgue-Stieljes (mais, dans ce cas precis, la mesure nest pas bornee).
Lintegrale se note
_
IR
+
fd =
_

0
f(x)dG(x) .
Lun des objectifs de la theorie du renouvellement est de decrire le comportement
asymptotique de la fonction de renouvellement M et plus generalement le compor-
tement asymptotique du processus lui-meme. Pour atteindre cet objectif, nous avons
besoin de montrer que M est solution dune certaine equation fonctionnelle.
Proposition 2.3.1 On consid`ere un processus de renouvellement de loi F et de fonc-
tion de renouvellement M. Alors,
t 0 , M(t) = F(t) +
_
t
0
M(t x)dF(x) .
Demonstration. Il sagit dutiliser le renouvellement en conditionnant `a linstant
de premi`ere occurrence du processus. Soit t > 0, nous avons
M(t) = E[E[N
t
[X
1
]] .
Or, nous avons
E[N
t
[X
1
= x] =
_
0 si t < x ,
1 +M(t x) si x t .
Finalement, en integrant, nous obtenons
M(t) =
_

0
E[N
t
[X
1
= x]dF(x) =
_
t
0
(1 +M(t x))dF(x) .
Cette equation, dite de renouvellement, poss`ede des proprietes que nous allons detailler
dans les paragraphes suivants.
Commentaires. En prenant la transformee de Laplace, lequation
t 0 , M(t) = F(t) +
_
t
0
M(t x)dF(x)
2.3. EQUATIONS DE RENOUVELLEMENT ET APPLICATIONS 43
devient
s > 0 , LM(s) = LF(s) +LM(s)(sLF(s)).
Ainsi, nous retrouvons de mani`ere simple la transformee de Laplace de la fonction de
renouvellement
LM(s) =
LF(s)
1 sLF(s)
.
2.3.2 Solution des equations de renouvellement
Soit F une fonction de repartition denie sur IR
+
et telle que F(0) = 0. On appelle
equation de renouvellement associee `a F, toute equation integrale de la forme
t 0 , A(t) = a(t) +
_
t
0
A(t x)dF(x) (2.3.4)
o` u A est un fonction inconnue et a est une fonction denie sur IR
+
donnee.
Commentaires. Bien entendu, la fonction de renouvellement est solution dune
equation de renouvellement. Dans ce cas precis, nous avons a(t) = F(t) pour tout
t 0.
Comme dans le paragraphe precedent, nous utilisons les notations suivantes
t 0 , F
1
(t) = F(t)
et, de proche en proche, pour tout n
t 0 , F
n
(x) =
_
t
0
F
n1
(t x)dF(x) .
Le theor`eme suivant est un resultat danalyse qui nous sera utile par la suite.
Theor`eme 2.3.1 Soit a une fonction denie sur IR
+
et bornee. Alors, lequation de
renouvellement associee `a F
t 0 , A(t) = a(t) +
_
t
0
A(t x)dF(x)
admet une solution unique, bornee sur tout intervalle ni, donnee par
t 0 , A(t) = a(t) +
_
t
0
a(t x)dM(x)
o` u
t 0 , M(t) =

n=1
F
n
(t) .
44 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Demonstration. Utiliser la transformee de Laplace.
Commentaires. Le resultat est immediat pour la fonction de renouvellement. Nous
pouvons le verier `a laide de lintegration par parties, ou bien de la transformee de
Laplace. En eet, lequation
t 0 , M(t) = F(t) +
_
t
0
M(t x)dF(x)
se transforme en
s > 0 , LM(s) = LF(s) +LM(s)(sLF(s)) = LF(s) + (sLM(s))LF(s).
Cette derni`ere factorisation montre que
t 0 , M(t) = F(t) +
_
t
0
F(t x)dM(x).
Le resultat poss`ede de nombreuses implications pour les processus de renouvellement.
Notons F la fonction de repartition des durees inter-occurrences. Rappelons que, pour
tout entier n, T
n
est linstant de n
e
occurrence du processus.
Proposition 2.3.2 On consid`ere un processus de renouvellement de fonction de re-
partition F et on suppose que E[X
1
] =
_

0
xdF(x) < , alors
E[T
Nt+1
] = E[X
1
](1 +E[N
t
]) .
Demonstration. Posons
A(t) = E[T
Nt+1
]
et conditionnons `a la valeur de la variable X
1
. Puisque
E[T
Nt+1
[X
1
= x] =
_
x si t < x ,
x +A(t x) si x t ,
nous obtenons, apr`es integration,
A(t) =
_
t
0
x +A(t x)dF(x) +
_

t
xdF(x) = E[X
1
] +
_
t
0
A(t x)dF(x) .
Ainsi, dapr`es le theor`eme 2.3.1,
A(t) = E[X
1
] +E[X
1
]
_
t
0
dM(x) = E[X
1
](1 +M(t)) .
2.3. EQUATIONS DE RENOUVELLEMENT ET APPLICATIONS 45
Commentaires.
`
A linstant t, nous avons
T
Nt+1
= X
1
+. . . +X
Nt+1
.
En moyenne, linstant de la prochaine occurrence est egal `a M(t) + 1 fois la moyenne
dune duree inter-occurrence. Nous aurions obtenu un resultat similaire si les variables
(X
i
) etaient independantes de N
t
(formule de Wald). Cette condition nest bien entendu
pas veriee. Toutefois, N
t
+ 1 est ce que lon appelle un temps darret et la formule de
Wald se generalise aux temps darret (voir lexercice suivant).
Exercice 27. Soit (X
n
) une suite de variables aleatoires independantes de meme
loi et telle que E[X
1
] < . On dit que N est un temps darret pour la suite (X
n
), si
levenement (N n) ne depend que de X
1
, . . . , X
n
. Soit N
t
; t 0 un processus de
renouvellement de loi F
a) Montrer que N = N
t
+ 1 est un temps darret.
b) Montrer que N
t
nest pas un temps darret.
c) Supposons que E[N] < . Demontrer la formule de Wald
E[
N

i=1
X
i
] = E[X
1
]E[N].
d) En deduire une nouvelle demonstration du resultat
E[T
Nt+1
] = E[X
1
](1 +M(t)).
Solution abregee. Nous avons
S
N
=
N

i=1
X
i
=

i=1
X
i
11
(Ni)
.
Puisque N est un temps darret, levenement (N i1) est independant de X
i
, X
i+1
, . . ..
Or, nous avons
E[S
N
] =

i=1
E[X
i
11
(Ni)
]
et
E[X
i
11
(Ni)
] = E[E[X
i
11
(Ni)
[X
i
, X
i+1
, . . .]] = E[X
i
E[11
(Ni)
]].
On en deduit que
E[S
N
] =

i=1
E[X
1
]P(N i) = E[N]E[X
1
].
46 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
2.3.3 Exemples et exercices
Nous traitons quelques exemples signicatifs, enonces sous forme dexercice.
Exercice 28. Creation dentreprise.
Une societe de service est sollicitee pour des contrats de durees aleatoires. Nous
supposons que les instants de sollicitation (T
n
) forment un processus de Poisson de
param`etre > 0. Par ailleurs, les durees des contrats (C
n
) forment un processus de
renouvellement de loi F. Toute sollicitation tombant au cours dun contrat est perdue.
Nous nous interessons `a linstant T o` u pour la premi`ere fois un contrat est perdu. On
note
V (t) la probabilite quaucune sollicitation ne soit perdue entre 0 et t, sachant
quun contrat commence `a linstant 0 ;
U(t) la probabilite quaucune sollicitation ne soit perdue entre 0 et t.
a) Impliquer V dans une equation fonctionnelle similaire `a une equation de
renouvellement. En deduire la transformee de Laplace de V .
b) Calculer la transformee de Laplace de U.
c) En deduire lesperance de T.
d) Application : la loi commune des C
i
est une loi exponentielle de param`etre
> 0.
e) Demontrer quen choisissant une constant R adequate, la fonction W(t) =
e
Rt
V (t) est solution dune equation de renouvellement. Utiliser les theor`eme
de renouvellement de la section suivante pour en deduire le comportement
asymptotique de V (t).
Solution. Pour montrer que V est solution dune equation fonctionnelle, nous condi-
tionnons `a linstant de premi`ere sollicitation
V
T
1
=x
(t) =
_
1 si t < x ,
V (t x) P(C
1
< x) si x t .
Ainsi, V est solution de lequation
t 0 , V (t) = e
t
+
_
t
0
V (t x)F(x)e
x
dx .
La transformee de Laplace de V est donc solution de
s > 0 , LV (s) =
1
s +
+LV (s)LF(s +) .
Apr`es resolution, nous obtenons
LV (s) =
1
( +s)(1 LF(s +))
.
Considerons le temps T correspondant au premier contrat perdu. Nous avons
t 0 , P(T > t) = V (t) .
2.3. EQUATIONS DE RENOUVELLEMENT ET APPLICATIONS 47
Ainsi
E[T] =
_

0
V (t)dt = LV (0)
soit
E[T] =
1

1
1 LF()
.
La fonction U nest pas solution dune equation de renouvellement. Toutefois en
conditionnant comme precedemment, nous obtenons
U
T
1
=x
(t) =
_
1 si t < x ,
V (t x) si x t .
En integrant, nous obtenons
t 0 , U(t) = e
t
+
_
t
0
V (t x)e
x
dx .
Ainsi la transformee de Laplace de U est
s > 0 , LU(s) =
1
s +
+

s +
LV (s) .
Supposons que la societe demarre sans contrat et considerons le temps T correspondant
au premier contrat perdu. Nous avons
t 0 , P(T > t) = U(t) .
Ainsi
E[T] =
_

0
U(t)dt = LU(0)
soit
E[T] =
1

(1 +
1
1 LF()
) .
Si la loi commune des C
i
est une loi exponentielle de param`etre > 0, alors
s > 0 , sLF(s) =

+s
et
E[T] =
2

2
.
Exercice 29. Compteur dimpulsion. Un compteur dimpulsions peut saverer
imparfait sil ne peut enregistrer toutes les impulsions auxquelles il est soumis (une
impulsion bloque en general le compteur pendant un temps aleatoire). On doit donc
distinguer le processus des impulsions eectives du processus des impulsions enregis-
trees et obtenir des renseignements sur le premier `a partir du second.
48 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Soit (X
i
)
i1
le processus des durees separant les impulsions eectives. On suppose
quil sagit dun processus de renouvellement de loi F. On suppose de plus que la
suite des durees pendant lesquelles le compteur reste bloque forme un processus de
renouvellement (Y
i
)
i1
dont la loi a pour fonction de repartition G. Ce dernier processus
est independant du processus des impulsions eectives. Nous souhaitons decrire le
processus (Z
i
)
i1
des temps dattente entre les impulsions enregistrees. On suppose
ensuite que (X
i
)
i1
est une processus de Poisson homog`ene de param`etre > 0.
Solution abregee. Nous avons
Z
1
= Y
1
+
Y
1
= T
N
Y
1
+1
o` u T
n
correspond `a linstant darrivee de la n
e
arrivee eective. Nous avons donc
z 0 , P(Z
1
z) =
_

0
P(Y
1
+
Y
1
z [ Y
1
= y)dG(y) =
_
z
0
F
y
(z y)dG(y) .
Si le processus darrivee est poissonnien, dintensite , alors
t 0 , F
y
(t) = 1 e
t
.
Ainsi, nous trouvons
z 0 , P(Z
1
z) =
_
z
0
G(z y)e
y
dy .
On peut terminer le calcul de mani`ere explicite lorsque G est connue en utilisant par
exemple la transformee de Laplace.
2.3.4 Le theor`eme de renouvellement
Le theor`eme de renouvellement precise le comportement asymptotique de la solution
dune equation de renouvellement
t 0 , A(t) = a(t) +
_
t
0
A(t x)dF(x)
lorsque la fonction a est bornee et integrable pour la mesure de Lebesgue sur IR
+
.
Il convient de noter que lequation veriee par la fonction de renouvellement M ne
poss`ede pas cette propriete.
Theor`eme 2.3.2 Theor`eme de renouvellement. Soit a une fonction mono-
tone sur IR
+
, telle que
_

0
[a(t)[dt < .
Soit F une fonction de repartition continue telle que F(0) = 0. Soit
=
_

0
xdF(x) .
2.3. EQUATIONS DE RENOUVELLEMENT ET APPLICATIONS 49
Alors la solution A de lequation de renouvellement (Eq. 2.3.4, ci-dessus) est telle que
lim
t
A(t) =
_
1

0
a(t)dt si < ,
0 si = .
Demonstration. Nous admettons ce resultat.
Nous donnons ci-dessous quelques applications de ce theor`eme ayant pour objectif de
determiner les loi limites des temps courants dun processus de renouvellement (temps
residuel, age courant, temps total).
Exemple 2.3.1 On consid`ere un processus de renouvellement de fonction de repartition
F. On suppose que lesperance E[X
1
] = est nie. Son temps residuel courant est
t 0 ,
t
= T
Nt+1
t .
Fixons y > 0 et posons
t 0 , A
y
(t) = P(
t
> y) .
Nous souhaitons montrer que
t
converge en loi lorsque t tend vers linni vers la loi
F

(y) =
1

_
y
0
P(X
1
> t)dt.
Solution. En conditionnant `a la premi`ere occurrence du processus, nous obtenons
P(
t
> y [ X
1
= x) =
_
_
_
1 si x > t +y ,
0 si t < x t +y ,
A
y
(t x) si 0 < x t.
apr`es integration, nous avons
A
y
(t) =
_

0
P(
t
> y [ X
1
= x)dF(x)
=
_
t
0
A
y
(t x)dF(x) +
_

t+y
dF(x)
= a
y
(t) +
_
t
0
A
y
(t x)dF(x)
La fonction
t 0 , a
y
(t) = 1 F(t +y)
est monotone, positive. On peut aussi verier que cette fonction est integrable
_

0
1 F(t +y)dt =
_

y
P(X
1
> t)dt < E[X
1
] < .
50 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Les hypoth`eses du theor`eme de renouvellement sont satisfaites. Lapplication de ce
theor`eme conduit au resultat suivant
lim
t
A
y
(t) = lim
t
1 F
t
(y) =
1

_

0
a
y
(t)dt
Une translation `a lorigine permet de formuler lequation precedente de la mani`ere
suivante
F

(y) =
1

_
y
0
P(X
1
> t)dt.
Commentaires. Pour illustrer ce resultat, considerons le processus de Poisson de
param`etre . Nous avons
F(y) = 1 e
y
, y 0.
Ainsi, le resultat precedent est egal `a
F

(y) =
_
y
0
e
t
dt = 1 e
y
, y 0.
Nous retrouvons ainsi un resultat connu (voir la section concernant le processus de
Poisson)
Exercice 30. Determiner la loi asymptotique du temps residuel pour le processus de
renouvellement de loi |(0, 1).
Solution abregee. Nous avons E[X
1
] = 1/2 et pour tout y [0, 1],
F

(y) = 2
_
y
0
(1 t)dt = 2y y
2
.
Proposition 2.3.3 Petit theor`eme de renouvellement. On consid`ere un pro-
cessus de renouvellement de fonction de repartition F et on suppose que E[X
1
] =
_

0
xdF(x) < . Alors,
lim
t
M(t)
t
=
1
E[X
1
]
.
Intuition. Nous avons dapr`es lidentite de Wald
E[T
Nt+1
]
t
= E[X
1
]
1 +M(t)
t
.
2.3. EQUATIONS DE RENOUVELLEMENT ET APPLICATIONS 51
De plus, dapr`es le resultat precedent,
E[T
Nt+1
] = t +E[
t
] t +E[

]
Puisque E[

] < , le resultat est immediat.


Demonstration. Nous donnons une demonstration directe de ce resultat. Technique,
elle peut etre omise en premi`ere lecture. Pour demontrer legalite precedente, nous
proc`edons en deux etapes.
Etape 1. La relation
T
Nt+1
> t
est toujours veriee. Dapr`es la proposition 2.3.2, nous avons
t 0 , E[X
1
](1 +M(t)) > t .
Ceci implique
t 0 ,
M(t)
t
>
1
E[X
1
]

1
t
et
liminf
t
M(t)
t

1
E[X
1
]
.
Etape 2. Il sagit de demontrer que lon peut inverser linegalite precedente. Pour
ce faire, choisissons un reel > 0 et posons
i 1 , X

i
= min(, X
i
) .
Considerons maintenant le processus de renouvellement associe la fonction de repartition
des X

i
. Nous notons M

la fonction de renouvellement correspondante. Puisque


X

i
,
nous avons
M(t) M

(t)
et
E[T

t
+1
] t + .
Ceci implique que
E[X

1
](1 +M(t)) t +
et
M(t)
t

1
E[X

1
]
+
1
t
(

E[X

1
]
1) .
Finalement, puisque peut etre arbitrairement grand
limsup
t
M(t)
t
lim

1
E[X

1
]
=
1
E[X
1
]
.
52 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Les inegalites obtenues aux etapes 1 et 2 montrent que la limite existe et que
lim
t
M(t)
t
=
1
E[X
1
]
.
Commentaires. Ce resultat traduit un comportement asymptotique poissonnien
des processus de renouvellement. Lorsque t est grand, le nombre moyen doccurrences
par unite de temps est constant et egal, comme pour le processus de Poisson, `a linverse
de lesperance des durees inter-occurrences.
Nous terminons ce paragraphe en presentant quelques exercices supplementaires en
application des resultats de la theorie du renouvellement.
Exercice 31. Loi limite de lage courant. On consid`ere un processus de
renouvellement de fonction de repartition F. On suppose que lesperance E[X
1
] est
nie. L age courant est
t 0 ,
t
= t T
Nt
.
a) Montrer lidentite des evenements
x, y 0 , (
t
> x;
t
> y) = (
ty
> x +y)
b) En deduire que la loi limite de lage courant est identique `a la loi limite du
temps residuel.
Exercice 32. Loi limite du temps courant. On note
t
le temps courant dun
processus de renouvellement de fonction de repartition F, de moyenne > 0 et on pose
t 0 , K
z
(t) = P(
t
> z) .
a) Montrer que K
z
est solution dune equation de renouvellement.
b) En deduire
lim
t
K
z
(t) =
1

_

0
1 F(maxz, t) dt =
1

_

z
xdF(x).
c) Retrouver le fait que

a meme loi que X


1
+ X
2
dans le processus de
Poisson.
d) A laide de linegalite de Schwarz, demontrer
E[ lim
t

t
] .
Exercice 33. Soit (X
n
)
n1
un processus de renouvellement de fonction de repartition
F. On suppose, de plus, E[X
1
] = et
2
[X
1
] =
2
nies. On note
t
le temps residuel
au temps t associe `a ce processus et U(t) = E[
t
].
2.3. EQUATIONS DE RENOUVELLEMENT ET APPLICATIONS 53
a) Impliquer U(t) dans une equation de renouvellement.
b) Montrer que
lim
t
U(t) =

2
+
2
2
.
Exercice 34. Pour un processus de renouvellement N
t
; t 0 de fonction de
renouvellement M, demontrer, `a laide dune equation de renouvellement, que
E[N
2
t
] = 2
_
t
0
[M(t x) +
1
2
]dM(x).
Exercice 35. Soit N
t
; t 0 un processus de renouvellement de loi F, tel que
=
_

0
xdF(x) < .
Demontrer la loi forte des grands nombres
N
t
t

1

lorsque t .
Attention ce resultat nimplique pas le petit theor`eme de renouvellement !
Solution abregee. Utiliser que
T
Nt
N
t

t
N
t

T
Nt+1
N
t
+ 1
N
t
+ 1
N
t
Exercice 36. Soit U un nombre pris au hasard dans (0, 1). On denit Y
t
= c si
U > 1/t et Y
t
= c +t sinon. Montrer que Y
t
c ps et que E[Y
t
] c + 1.
Exercice 37. Vie Communautaire. Mickey Markov vit dans un F3 avec 5 autres
collocs, et personne naime se preter aux taches menag`eres. Mickey et ses collocataires
se nourrissent exclusivement de pizzas, et le menage se resume `a descendre la poubelle
lorquelle contient n botes de pizza vides. Il ny a pas dheure pour les pizzas, et on
suppose que chaque colloc porte une bote vide dans la poubelle selon un taux propre
egal `a
i
(i = 1, . . . , 6). Cest celui qui trouve la poubelle pleine qui doit la descendre.
Determiner la loi du temps ecoule avant que Mickey descende la poubelle pour la
premi`ere fois. Calculer son esperance et sa variance. Calculer lesperance conditionnelle
de ce temps sachant que Mickey na toujours pas descendu de poubelle au temps t.
Etudier le processus des instants de descente de poubelle de Mickey.
54 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Exercice 38. Sante publique. La republique centrale du Brouzoukstan vient de
connatre une terrible epidemie de SRAGG (Syndrome Retro Actif GuiliGuili) pendant
lete. Pour faire face et secourir la population desemparee, le ministre de la Sante
rentre des Bahamas et prend une mesure durgence. Un numero de telephone gratuit
est ouvert, et un expert competent repond aux questions. Mickey Markov a decroche
lemploi. Mickey dispose dune (seule) ligne. Il peut seulement recevoir des appels. Un
appel est perdu sil survient pendant quune conversation est en cours. On note
T
i
linstant du i
e
appel ;
C
i
la duree de la i
e
conversation;
U(t) la probabilite quaucun appel ne soit perdu entre 0 et t, sachant que la ligne
est libre `a linstant 0.
On suppose que les appels (T
n
) se succ`edent selon un processus de Poisson de param`etre
> 0 et que les (C
n
) forment un processus de renouvellement de loi F. On note T
linstant du premier appel perdu. Calculer la transformee de Laplace de la fonction de
repartition F
T
et en deduire lesperance du temps dattente du premier appel perdu
quand la ligne est libre `a linstant 0. Application : la loi commune des C
i
est une loi
exponentielle de param`etre > 0.
2.4 Applications
2.4.1 Sommes aleatoires indexees par un processus de renou-
vellement
Dans de nombreuses situations pratiques, un co ut est associe `a chaque occurrence
dun processus de renouvellement. Par exemple, la valeur dune automobile decrot
apr`es chaque choc sur la carrosserie. Dans ce cas, le processus de renouvellement cor-
respond au processus des chocs. Pour une compagnie dassurance, un montant est
associe ` a chaque occurrence de sinistre dont est victime un client. Le co ut en question
peut aussi representer la somme depensee par un client dans un service. Dans ce der-
nier cas, il est positif. Formellement, nous considerons un processus de renouvellement
(X
n
)
n1
de fonction de repartition F et N
t
; t 0 son processus de comptage. Une
variable aleatoire Y
n
est associee `a la n
e
occurrence de ce processus (elle peut etre po-
sitive ou negative et elle depend eventuellement de X
n
). On suppose que les variables
aleatoires (Y
n
)
n1
sont independantes et de meme loi. Le co ut total au temps t > 0 est
une variable aleatoire notee C(t) denie par
C(t) =
Nt

n=1
Y
n
.
Pour des raisons evidentes de prevision, il est tr`es important de pouvoir contr oler
le co ut total. La prevision permet par exemple de determiner la date optimale pour
renouveller un materiel (lautomobile de lexemple precedemment cite), de xer le taux
de cotisation pour lassurance, de gerer des stocks pour un centre commercial etc.
2.4. APPLICATIONS 55
En general, il est extremement dicile de determiner avec exactitude la loi de la
variable C(t). Nous nous contenterons ici detudier le comportement asymptotique de
cette variable. Cela constitue un bel exemple dutilisation des processus de renouvelle-
ment.
Proposition 2.4.1 On consid`ere un processus de renouvellement (X
n
) de fonction de
repartition F et une suite (Y
n
) de variables aleatoires reelles independantes et de meme
loi. On suppose de plus que
E[X
1
] < et E[[Y
1
[] < .
Alors le co ut asymptotique moyen est egal `a
lim
t
E[C(t)]
t
=
E[Y
1
]
E[X
1
]
.
Intuition. Nous avons
E[C(t)]
t
= E[
Y
1
+ +Y
Nt
N
t
N
t
t
].
Puisque N
t
tend vers linni, nous pouvons appliquer la loi forte des grands nombres
Y
1
+ +Y
Nt
N
t
E[Y
1
] p.s.
Ainsi, nous avons
lim
t
E[C(t)]
t
= lim
t
E[
E[Y
1
] N
t
t
] =
E[Y
1
]
E[X
1
]
,
dapr`es le petit theor`eme de renouvellement.
Demonstration. Nous procedons en plusieurs etapes pour une preuve directe.
1
e
etape. Tout dabord, montrons que la fonction denie par
t 0 , A(t) = E[Y
Nt+1
]
est solution dune equation de renouvellement. En conditionnant `a la premi`ere occur-
rence du processus de renouvellement, nous obtenons
x > t , E[Y
Nt+1
[ X
1
= x] = E[Y
1
[ X
1
= x]
et
x t , E[Y
Nt+1
[ X
1
= x] = E[Y
NtNx+Nx+1
[ X
1
= x]
= E[Y
N
tx
+1
]
56 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Apr`es integration, nous obtenons
t 0 , A(t) =
_

0
E[Y
Nt+1
[ X
1
= x]dF(x)
= a(t) +
_
t
0
A(t x)dF(x)
o` u
t 0 , a(t) =
_

t
E[Y
1
[ X
1
= x]dF(x) .
Il est immediat de verier que la fonction a est bornee. En eet,
t 0 , [a(t)[ E[[Y
1
[] < .
Dapr`es le theor`eme de renouvellement, nous avons donc
t 0 , A(t) = a(t) +
_
t
0
a(t x)dM(x)
o` u M est la fonction de renouvellement.
2
e
etape. Il est clair que a(t) converge vers 0 lorsque t tend vers linni. Soit > 0.
Il existe t
0
> 0 tel que
t > t
0
, [a(t)[ < .
Ceci entrane, pour tout t > t
0
, que
_
t
0
[a(t x)[dM(x)
_
tt
0
0
[a(t x)[dM(x) +
_
t
tt
0
[a(t x)[dM(x)
= M(t t
0
) +E[[Y
1
[](M(t) M(t t
0
))
et
_
t
0
[a(t x)[dM(x)
t

M(t t
0
)
t
+E[[Y
1
[]
(M(t) M(t t
0
))
t
.
Dapr`es le petit theor`eme de renouvellement (proposition 2.3.3), nous avons
lim
t
M(t t
0
)
t
= lim
t
M(t)
t
=
1
E[X
1
]
et par suite, puisque est arbitraire,
lim
t
A(t)
t
= 0.
3
e
etape. Voici comment lon conclut `a partir du resultat precedent. Nous avons
E[C(t)] = E[
Nt+1

n=1
Y
n
Y
Nt+1
] = E[Y
1
]E[N
t
+ 1] E[Y
Nt+1
] .
2.4. APPLICATIONS 57
et
lim
t
E[C(t)]
t
=
E[Y
1
]
E[X
1
]
.
Commentaires. A la n de la demonstration precedente, nous avons utilise la rela-
tion suivante
E[
Nt+1

n=1
Y
n
] = E[Y
1
]E[N
t
+ 1] .
Elle repose sur la generalisation de la formule de Wald classique pour les temps darret.
2.4.2 Remplacement preventif
Ce paragraphe concerne une strategie de remplacement preventif dun materiel
susceptible de tomber en panne. La duree de vie dun materiel est une variable aleatoire
X de fonction de repartition F. Une politique de remplacement preventif consiste `a
renouveller systematiquement le materiel d`es quil tombe en panne ou quil a depasse
une duree de bon fonctionnement egale `a a > 0. Nous cherchons en premier lieu `a
determiner la loi de probabilite conditionnelle de la variable X sachant que X < a.
Elle est denie par la fonction de repartition suivante
t 0 , G
a
(t) = P(X t[X < a) =
_
F(t)
F(a)
si t a ,
1 sinon.
Si X
a
est une variable de fonction de repartition G
a
, alors son esperance est egale `a
E[X
a
] =
_
a
0
xdF(x)
F(a)
.
On sinteresse `a la variable aleatoire T correspondant `a linstant du premier remplace-
ment eectivement preventif. Remarquons que T peut secrire de la mani`ere suivante
(par convention

0
1
= 0)
T = a +
N

i=1
Y
i
o` u les variables Y
i
sont independantes et ont meme loi que que la variable X
a
. En ce
qui concerne N, nous avons
k 0 , P(N = k) = F(a)
k
(1 F(a)) .
La variable N est donc une variable de loi geometrique decalee vers 0. Nous obtenons
alors
E[T] = a +E[N]E[X
a
] = a +
_
a
0
xdF(x)
1 F(a)
.
58 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
On note H la fonction de repartition de la variable aleatoire T a. Montrons que lon
peut ecrire, pour tout t > 0,
H(t) = 1 F(a) +F(a)
_
t
0
H(t x)dG
a
(x)
o` u G
a
est la fonction de repartition de la variable X
a
. Nous avons en eet
t 0 H(t) =

k=0
P(
k

n=1
Y
n
< t) P(N = k)
= 1 F(a) +

k=1
P(
k

n=1
Y
n
< t)F(a)
k
(1 F(a))
= (1 F(a))
_
1 +
_
t
0

k=1
P(
k1

n=1
Y
n
< t x)F(a)
k1
dG
a
(x)
_
= 1 F(a) +F(a)
_
t
0
H(t x)dG
a
(x) .
o` u G
a
est la fonction de repartition de G
a
. La transformee de Laplace de la variable
aleatoire T se deduit du calcul precedent. En eet,
s > 0 , L
T
(s) = sLH(s)e
sa
=
1 F(a)
1 F(a)LX
a
(s)
e
sa
.
Les dierents moments de T peuvent etre calcules `a partir de cette expression.
Remarque. Le calcul de la transformee de Laplace de la variable T peut seectuer
directement `a partir de la representation precedente
T = a +
N

i=1
Y
i
.
Un processus de co ut est associe `a la politique de remplacement preventif de la
mani`ere suivante.
Lorsque lon peut renouveler le materiel avant quil ne soit hors dusage, le co ut
est Z
1
= C
1
> 0.
Lorsque le materiel tombe en panne avant le remplacement preventif, le co ut est
Z
1
= C
1
+C
2
o` u C
2
> 0.
Soit C(t) le co ut total au temps t associe `a la politique de remplacement preventif.
Nous avons
t 0 , C(t) =
Nt

n=1
Z
n
o` u N
t
; t 0 est le processus de renouvellement associe `a la fonction de repartition
t 0 , V (t) =
_
F(t) si t a
1 sinon.
2.4. APPLICATIONS 59
Lesperance de cette loi est
E =
_
a
0
xdF(x) +a(1 F(a)) .
Lesperance de Z
1
est
E[Z
1
] = C
1
P(X > a) + (C
1
+C
2
)P(X a) .
Finalement, le co ut moyen asymptotique associe `a la politique de remplacement preventif
est
C
1
+F(a)C
2
_
a
0
xdF(x) +a(1 F(a))
.
Commentaires. Il est tr`es facile dutiliser cette formule pour optimiser le rem-
placement preventif. On choisira a de sorte `a minimiser le co ut moyen asymptotique.
En general, cela se fait numeriquement.
Exercice 39. Mickey Markov ne roule quen 2CV. Il voudrait calculer la meilleure
date pour revendre sa 2CV du moment, dont la duree de vie est une variable de loi
uniforme sur (0, 20) ans. Comme cest une voiture de collection, il peut la vendre 1500
euros en etat de fonctionnement, en seulement 500 euros si elle est en panne. Pouvez-
vous laider ?
2.4.3 Renouvellement alterne
A un instant donne considere comme instant initial, un syst`eme est mis en fonction-
nement. Ce syst`eme est susceptible detre en derangement ou bien de tomber en panne.
A la suite dune panne ou dun derangement, le syst`eme est remis en marche apr`es une
periode de maintenance dune duree aleatoire. On suppose que les durees de bon fonc-
tionnement (X
n
)
n1
constituent une suite de variables aleatoires independantes et de
meme loi, de fonction de repartition F continue, tandis que les durees de reparation
(Y
n
)
n1
independantes entre elles et de la suite (X
n
), de meme loi de fonction de
repartition G continue.
Nous nous interessons `a la disponibilite du syst`eme au temps t > 0. Cette grandeur,
notee A(t) est egale `a la probabilite que le syst`eme soit en fonctionnement `a linstant
t.
Proposition 2.4.2 Les instants successifs (Z
n
)
n1
de remise en fonctionnement du
syst`eme forment un processus de renouvellement de fonction de repartition
t 0 , H(t) =
_
t
0
G(t x)dF(x) .
60 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Demonstration. Nous avons
n 1 , Z
n
= X
n
+Y
n
.
Ainsi
t 0 , H(t) =
_
t
0
G(t x)dF(x) .
La theorie du renouvellement permet de determiner le comportement asymptotique de
la disponibilite du syst`eme.
Proposition 2.4.3 Supposons que E[X
1
] < . Alors, nous avons
lim
t
A(t) =
E[X
1
]
E[X
1
+Y
1
]
Demonstration. La demonstration repose sur le fait que la fonction A(t) est solution
de lequation de renouvellement suivante
A(t) = [1 F(t)] +
_
t
0
A(t z)dH(z) .
En eet, en conditionnant `a Z
1
= z, nous obtenons
t 0 , A
Z
1
=z
(t) =
_
A(t z) si z t
P(X
1
> t [ Z
1
= z) sinon.
Ainsi,
A(t) =
_
t
0
A(t z)dH(z) +
_

t
P(X
1
> t [ Z
1
= z)dH(z) .
Mais, on a evidemment
P(X
1
> t [ Z
1
= z) = 0
si z t et donc
_

t
P(X
1
> t [ Z
1
= z)dH(z) = 1 F(t) .
En notant que 1 F est bornee et integrable, dintegrale egale `a E[X
1
], nous avons
dapr`es le theor`eme de renouvellement
lim
t
A(t) =
E[X
1
]
E[X
1
+Y
1
]
.
Dans le cas ou le syst`eme verie lhypoth`ese dabsence dusure, la fonction de dispo-
nibilite peut etre parfois calculee explicitement. Nous supposons par exemple que les
durees de fonctionnement suivent la loi exponentielle de param`etre > 0 et que les
2.4. APPLICATIONS 61
durees de reparation suivent la loi exponentielle de param`etre > 0. La transformee
de Laplace de A est alors egale `a
s > 0 , LA(s) =
+s
s
2
+s( +)
.
Lexpression de A(t) se deduit par inversion de la transformee de Laplace.
t 0 , A(t) =

+
+

+
e
(+)t
.
Commentaires. Ce cas particulier peut etre modelise `a laide dun processus de
Markov binaire. Ce formalisme sera presente dans un chapitre ulterieur. Nous laisserons
alors au lecteur le soin de retrouver les resultats precedents en utilisant un processus
de Markov `a deux etats. On pourra poursuivre par lexercice donne ci-dessous.
Exercice 40. Les fonctions de repartition F et G sont `a nouveau celles de lois
exponentielles de param`etres respectifs > 0 et > 0. On consid`ere la grandeur V (t)
egale `a la duree totale de fonctionnement `a linstant t
t 0 , V (t) =
_
t
0
11
{le systeme fonctionne a l

instant s}
ds .
Pour executer une tache precise, on doit solliciter le syst`eme pendant une duree de
globale de fonctionnement c xee. On sinteresse au temps eectif necessaire pour
accomplir cette tache (reparations comprises) soit
T(c) = inft > 0 : V (t) = c.
a) Montrer que lon peut ecrire T(c) = c +

Nc
n=1
Y
n
. En deduire la fonction
caracteristique la variable T(c).
b) Montrer que E[T(c)] = c(
+

).
c) Montrer que V ar(T(c)) = 2c

2
.
d) Montrer que la variable aleatoire
T(c) c( +c)

2c
converge en loi vers une variable gaussienne centree reduite lorsque c tend
vers linni.
e) En deduire une valeur approchee, lorsque c est grand, du temps au bout
duquel avec une probabilite 0.95 la tache sera terminee.
62 CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Chapitre 3
Analyse du risque
Dans ce chapitre, nous decrivons le mod`ele classique de risque pour une compagnie
dassurance. Dans le domaine de lactuariat, on qualie de risque la probabilite de
banqueroute de la compagnie, cest-`a-dire la probabilite pour que son capital devienne
nul un jour, du fait dun mauvais calcul du taux de cotisations des assures ou de
sinistres trop importants `a couvrir.
3.1 Presentation du mod`ele
Dans le mod`ele le plus simple, une compagnie dassurance dispose dun capital
initial positif u, chire dans une unite quelconque. Au cours du temps, le capital de
cette compagnie peut evoluer en fonction des cotisations des assures, de la frequence des
sinistres dont sont victimes les assures et des montants `a rembourser que ces sinistres
occasionnent.
On convient de noter u +X
t
le capital au temps t. On suppose que
les occurrences des sinistres suivent un processus de Poisson N
t
; t 0 de
param`etre > 0 ;
le sinistre k occasionne pour la compagnie une perte aleatoire Z
k
> 0 ;
les cotisations des assures sont capitalisees lineairement au cours du temps `a un
taux constant c > 0.
Nous interpretons les param`etres de ce mod`ele en remarquant que represente linten-
site des sinistres et c est appele le taux de cotisation. Dans la pratique, les cotisations
sont rarement capitalisees contin ument au cours du temps, mais en general `a des ins-
tants discrets. Lhypoth`ese de linearite est simplicatrice, et nous supposons donc que
les prelevements des cotisations chez les assures seront faits de mani`ere homog`ene et
constante dans le temps. Conditionnellement `a levenement N
t
= 0, la valeur du capital
de la compagnie au temps t est donc egal `a u +ct.
On suppose, de plus, que les variables aleatoires (Z
k
)
k1
correspondant au montants
des remboursement forment un processus de renouvellement de loi F, et telle que
E[Z
k
] =
63
64 CHAPITRE 3. ANALYSE DU RISQUE
et
V ar(Z
k
) =
2
.
Denition 3.1.1 Nous appelons processus de risque, le processus deni par
t 0, X
t
= ct
Nt

k=1
Z
k
avec la convention habituelle

0
1
= 0.
Il vient immediatement de cette denition que le capital de la societe au temps t
est egal `a u +X
t
. De plus, le risque moyen pour un intervalle (0, t] est egal `a
E[X
t
] = ct E[N
t
] = (c )t.
Nous notons
=
c

=
c

1
que nous appelons le coecient relatif de securite. On suppose par la suite que > 0,
cela garantit que le processus de risque derive presque-s urement vers +. Dapr`es la
loi forte des grands nombres,
lim
t
X
t
t
= c p.s..
En eet, nous avons
t 0,
T
Nt
N
t

t
N
t

T
Nt+1
N
t
.
Dapr`es la loi forte des grands nombres, nous avons
T
Nt
N
t

p.s.
et
N
t
t
p.s.
Ceci entraine
X
t
t
= c

Nt
i=1
Z
i
N
t
N
t
t
c p.s.
Puisque > 0, (X
t
) devient negatif (i.e., passe sous laxe 0t) un nombre ni de fois.
Denition 3.1.2 Nous appelons probabilite de ruine, la fonction denie par
u 0, (u) = P( t > 0 t.q. u +X
t
0)
Il sera parfois plus commode dutiliser la probabilite de non-ruine
u 0, (u) = 1 (u)
3.2. LARGUMENT DE RENOUVELLEMENT 65
3.2 Largument de renouvellement
Nous montrons que la probabilite de non-ruine est solution dune equation integro-
dierentielle ;
Proposition 3.2.1 Soit f
Z
1
la densite de probabilite de la variable Z
1
. Nous avons

(u) =

c
(u)

c
f
Z
1
(u).
Demonstration. De mani`ere habituelle, la premi`ere etape permettant de calcul (u)
est de conditionner au premier sinistre, et de remarquer que le capital de lassurance se
comporte de mani`ere identique `a u+X
t
mais `a partir de la valeur initiale u+cT
1
Z
1
.
Nous avons donc
(u) = P( non ruine ) = E[P( non ruine [ T
1
; Z
1
)]
et
(u) = E[(u +cT
1
Z
1
)]
En utilisant la densite conjointe du couple (T
1
, Z
1
)
x > 0, z > 0 , f
(T
1
,Z
1
)
(x, z) = e
x
f
Z
1
(z),
nous obtenons
(u) =
_

0
e
x
_
u+cx
0
(u +cx z)dF(z)dx.
Le changement de variable ane x u+cx, nous permet de simplier cette equation.
Nous obtenons en denitive le resultat suivant
(u) =

c
e
u/c
_

u
e
x/c
_
x
0
(x z)dF(z)dx.
Nous verions que est une fonction dierentiable, et la dierenciation conduit au
resultat enonce.
Lintegration de lequation integro-dierentielle conduit `a une autre relation plus
simple.
Proposition 3.2.2 Nous avons
(u) = (0) +

c
_
u
0
(u z)(1 F(z))dz.
Demonstration. On utilise la transformee de Laplace. Lequation dierentielle

(u) =

c
(u)

c
f
Z
1
(u),
66 CHAPITRE 3. ANALYSE DU RISQUE
devient
sL(s) = (0) +

c
(L(s)(1 sLF(s))) .
En divisant par s, nous obtenons
L(s) =
(0)
s
+

c
_
L(s)(
1
s
LF(s))
_
.
Puisque
(
1
s
LF(s)) = L(1 F)(s),
nous avons
L = L((0) +

c
(1 F)),
et le resultat decoule de linjectivite de la transformee de Laplace.
Dapr`es le theor`eme de convergence monotone, nous obtenons lorsque u que
() = (0) +

c
().
Puisque () = 1, nous avons
(0) =

c
=
1
1 +
, si > c.
Finalement, (0) ne depend de la distribution des montants occasionnes par les sinistres
qu`a travers sa moyenne . Plus precisement est le montant moyen rembourse par
unite de temps. Ce resultat est montre que lanalyse est robuste si lon modie la loi
F sans changer sa moyenne.
3.3 Remboursements de loi exponentielle
Un cas particulier interessant est celui des montants de remboursement des sinistres
selon la loi exponentielle
F(x) = 1 exp(x/), x > 0.
Cest lun des rares cas que lon pourra resoudre compl`etement.
Proposition 3.3.1 Lorsque F est la loi exponentielle de param`etre 1/, nous avons
u 0, (u) =
1
1 +
e
u/(1+)
Demonstration. Nous avons
(u) = (0) +

c
_
u
0
(u z)e
z/
dz.
`
A nouveau, le resultat sobtient en prenant la transformee de Laplace des deux termes
`a identier.
3.4. LAPPROXIMATION DE CRAMER-LUNDBERG 67
3.4 Lapproximation de Cramer-Lundberg
Lapproximation de Cramer-Lundberg decrit le comportement asymptotique de la
probabilite de ruine lorsque le capital initial u tend vers linni. Ce comportement sera
typiquement exponentiellement decroissant comme dans le paragraphe precedent. Pour
decrire ce comportement asymptotique, nous utiliserons les resultats de la theorie du
renouvellement.
Une premi`ere remarque est que (u) est solution de lequation
(u) = a(u) +

c
_
u
0
(u z)(1 F(z))dz
o` u
a(u) =

c
_

u
(1 F(z))dz.
Cette equation nest sans doute pas une equation de renouvellement car

c
_

0
(1 F(z))dz =
1
1 +
< 1.
mais lidee de la transformer en une telle equation par une normalisation adequate est
tentante. Supposons quil existe une constante R telle que

c
_

0
e
Rz
(1 F(z))dz = 1.
Une telle constante sappelle lexposant de Lundberg. Une integration montre que lex-
posant de Lundberg est solution de lequation
cr

= h(r)
_

0
e
rz
dF(z) 1. (3.4.1)
Nous supposons que b(u) = e
Ru
a(u) est une fonction bornee, monotone et integrable.
Proposition 3.4.1 (Approximation de Cramer-Lundberg) Soit R une solution positive
de lequation 3.4.1. Nous avons
lim
u
e
Ru
(u) =

h

(R) c/
.
Demonstration. Nous verions desormais que
g(z) =

c
e
Rz
(1 F(z))
est bien la densite dune loi de probabilite. En multipliant par e
Ru
, nous obtenons
e
Ru
(u) = e
Ru
a(u) +
_
u
0
e
R(uz)
(u z)g(z)dz.
68 CHAPITRE 3. ANALYSE DU RISQUE
Cette derni`ere equation est une equation de renouvellement, le theor`eme de renouvel-
lement permet de conclure que
lim
u
e
Ru
(u) =
C
1
C
2
o` u
C
1
=

c
_

0
e
Ru
_

u
(1 F(z))dzdu
et
C
2
=
_

0
zg(z)dz.
Concernant le calcul de C
1
, en utilisant Fubini pour inverser lordre dintegration, nous
obtenons
C
1
=
_

0
_
z
0
e
Ru
du

c
(1 F(z))dz =
1
R
(1 /c).
Finalement, cela se simplie en
C
1
=
1
R

1 +
.
En integrant par parties, et en utilisant que h

(R) sexprime de la mani`ere suivante


h

(R) =
_

0
ze
Rz
dF(z),
et que la primitive de ze
Rz
est (z/R 1/R
2
)e
Rz
, nous obtenons
C
2
=
1
1 +
1
R
(h

(R) c/).
Revenons maintenant sur lexemple de la section precedente : le cas o` u F est la loi
exponentielle de moyenne . Dans ce cas, nous avons
h(r) =
r
1 r
et lexposant de Lundberg se calcule `a laide la formule
R
1 R
=
cR

.
Cela donne
R =

(1 +)
.
De plus, nous avons
h

(R) = (1 +)
2
et nous retrouvons bien que
lim
u
e
Ru
(u) =
1
1 +
.
3.5. MAJORATION DE LA PROBABILIT

E DE RUINE 69
3.5 Majoration de la probabilite de ruine
Nous considerons dans cette section une approche dierente pour majorer la pro-
babilite de ruine. Cette approche est fondee sur lintroduction dune martingale expo-
nentielle et elle constitue une demarche courante pour les questions datteinte.
Comme nous le verrons plus loin, une martingale (M
t
) est un processus aleatoire
sans tendance, cest-`a-dire que lesperance conditionnelle de la variable M
t
sachant le
passe du processus jusquau temps s t est tout simplement M
s
E[M
t
[ M
s
, 0 s

s] = M
s
avec labus ociel de notation utilise pour le conditionnement (voir le paragraphe sur
les martingales dans le chapitre sur le mouvement brownien). Nous supposons de plus
que les variables M
t
sont integrables.
Un temps darret pour un processus est un temps aleatoire tel que levenement
( t) ne depend que du passe du processus au temps t, pour tout t 0. Par ailleurs,

t
= inf(t, ) est aussi un temps darret, cette fois necessairemement borne. Dans une
version simpliee, le theor`eme darret senonce de la mani`ere suivante. Ce resultat est
tr`es utile pour estimer des probabilites de ruine.
Proposition 3.5.1 Soit un temps darret borne, i.e, < t
0
< . Alors
E[M

] = E[M
0
].
Dune mani`ere similaire `a celle utilisee lors de letude des temps datteinte de marche
brownienne, nous introduisons le processus aleatoire
M
t
=
e
r(u+Xt)
L
Xt
(r)
.
Notons que
L
Xt
(r) = E[e
rXt
] = e
crt
E[e
r
P
N
t
k=1
Z
k
].
En conditionnant selon les valeurs de N
t
, nous obtenons
E[e
r
P
N
t
k=1
Z
k
] =

k=0
P(N
t
= k)E[e
rZ
1
]
k
= e
t(E[e
rZ
1
]1)
.
Finalement, nous avons
L
Xt
(r) = e
t(h(r)rc)
e
tg(r)
.
Notons (u) le temps de ruine (atteinte de 0). Il sagit dun temps darret non borne,
et nous avons
(u) = P((u) < ).
70 CHAPITRE 3. ANALYSE DU RISQUE
Proposition 3.5.2 Le processus (M
t
) est une martingale, aussi appelee martingale de
Wald.
Demonstration. Nous utilisons lindependance des accroissements de (X
t
). Cette
propriete provient du fait que les (Z
k
) sont independantes et que le processus (N
t
) est
`a lui-meme accroissements independants. Soit s < t, les variables X
s
et X
t
X
s
sont
donc independantes. Do` u
E[e
r(u+Xt)
[ M
s
, s

s] = E[e
r(u+Xs)
e
r(XtXs)
[ M
s
, s

s] = M
s
L
Xs
(r) E[e
r(XtXs)
].
Nous avons donc
E[e
r(u+Xt)
[ M
s
, s

s] = M
s
L
Xs
(r)L
XtXs
(r).
Puisque L
Xs
(r)L
XtXs
(r) = L
Xt
(r), nous obtenons le resultat anonce.
Proposition 3.5.3 (Inegalite de Lundberg) Nous avons
u 0, (u) e
Ru
o` u R est lexposant de Lundberg.
Demonstration. Soit t
0
< . Considerons = (u) (u est xe pour la demonstration)
et
0
=
t
0
. Dapr`es la proposition 3.5.1, nous avons
E[M

0
] = M
0
= e
ru
.
En conditionnant, nous avons
E[M

0
] = E[M

0
[ t
0
] P( t
0
) +E[M

0
[ > t
0
] P( > t
0
),
et
E[M

0
] E[M

0
[ t
0
] P( t
0
) = E[M

[ t
0
] P( t
0
).
Par ailleurs, nous avons u + X

0 si ( t
0
) est realise. Ceci entrane, en utilisant
linegalite de Jensen (pour la fonction 1/x),
E[M

[ t
0
]
1
E[L
X
(r) [ t
0
]
E[e
g(r)
[ t
0
].
En reunissant les deux inegalites, nous avons
P( t
0
)
e
ru
E[e
g(r)
[ t
0
]
.
En prenant le sup sur lintervalle (0, t
0
] dans lesperance, puis en faisant t
0
, nous
avons
(u) e
ru
sup
t0
e
t(h(r)rc)
.
Dans cette derni`ere inegalite, r est une variable libre quelconque. Un choix possible est
evidemment lexposant de Lundberg tel que
h(R) Rc = 0,
qui conduit au resultat annonce.
Chapitre 4
Processus de Markov et Files
dattente
4.1 Processus de Markov
Les processus aleatoires que lon consid`ere dans ce chapitre ont un large champ
dapplication dans la modelisation de syst`emes reels. Ce sont des processus en temps
continu analogues aux chanes de Markov etudiees dans le cours de premi`ere annee. Ils
se caracterisent par la propriete de memoire `a court terme suivante. Connaissant letat
du processus au temps present, la prediction de letat futur se fait independamment
du passe du processus. Un exemple de processus de Markov en temps continu a dej`a
ete rencontre. Il sagit du processus de Poisson. Si lon pose pour etat au temps t
le nombre total darrivees `a cet instant, le processus de Poisson est un processus de
Markov `a valeurs dans N et qui neectue des sauts que de letat n vers letat (n + 1),
n 0. Un tel processus sappelle un processus de naissance pure. Plus generalement,
un mod`ele dont les durees inter-transitions sont de loi exponentielle et qui eectue des
transitions entre les etats n et (n + 1) ou (n 1) uniquement est appele processus de
naissance et de mort. On trouve des processus de naissance et de mort dans letude de
populations biologiques par exemple, mais aussi lors de letude de les dattente. Dans
ce cas, le processus de naissance et de mort modelise la longueur de la le dattente.
4.1.1 Denitions
Soit X
t
; t 0 un processus aleatoire `a valeurs enti`eres.
Denition 4.1.1 On dit que le processus X
t
; t 0 est un processus de Markov si,
pour tout s, t 0, i, j IN et x
u
IN, 0 u < s,
P(X
t+s
= j [ X
s
= i, X
u
= x
u
, 0 u < s) = P(X
t+s
= j [ X
s
= i) .
En dautres termes, un processus de Markov est un processus ayant la propriete
suivante. La loi conditionnelle de la variable future X
t+s
sachant letat present X
s
71
72 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
et toute lhistoire du processus jusquau temps s ne depend que du present et est
independante du passe. Si, de plus,
P
ij
(s, t) = P(X
t+s
= j [ X
s
= i)
ne depend pas de s, le processus X
t
; t 0 est dit homog`ene. Tous les processus de
Markov consideres dans ce chapitre seront homog`enes.
Supposons quun processus de Markov homog`ene X
t
; t 0 se trouvait en i
au temps t = 0 et quil nait pas quitte cet etat durant lintervalle de temps [0, t].
Cherchons `a caracteriser la loi conditionnelle de la variable aleatoire T
i
egale `a la duree
de sejour dans letat i. Soit s, t 0
P(T
i
> t +s [ T
i
> t) = P(T
i
> t +s [ X
t
= i) par la propriete de Markov,
= P(T
i
> s) par homogeneite.
Ainsi, la variable T
i
poss`ede la propriete dabsence de memoire qui caracterise la loi
exponentielle. Le param`etre de cette loi depend de letat i. On note ce param`etre
i
.
Cette propriete dabsence de memoire sugg`ere une mani`ere intuitive de construire un
processus de Markov homog`ene quelconque.
1) Pour tout i dans IN, le temps de sejour dans letat i (avant deectuer une
transition vers un autre etat) est une variable aleatoire de loi exponentielle de
param`etre
i
.
2) Lorsque le processus quitte letat i, il choisit daller en j ,= i avec la probabilite
p
ij
. Les probabilites de transition verient donc
p
ij
0 ;

j=i
p
ij
= 1 .
3) Toutes les durees de sejour sont independantes entre elles, et independantes des
etats de la chane.
Commentaires. En dautres termes, un processus de Markov est un processus aleatoire
qui eectue des transitions detat en etat suivant une chane de Markov (la chane in-
cluse) de probabilites de transition p
ij
et tel que le temps passe dans chaque etat avant
den visiter un autre est de loi exponentielle. Si les temps de sejour netaient pas des va-
riables independantes, alors la prediction de la valeur future du processus devrait tenir
compte des temps passes dans chaque etat. Ceci est en contradiction avec la propriete
de Markov.
Exemple 4.1.1 Simulation. Lalgorithme suivant simule la variable X
T
du pro-
cessus X
t
; t 0 `a un temps T arbitraire. Lalgorithme est initialise de mani`ere
quelconque.
Solution.
4.1. PROCESSUS DE MARKOV 73
t := 0
Choisir un entier X
Repeter
i := X
Si ( nu[i] = 0 ) alors t := T
Sinon
Choisir j avec la probabilite p[i][j]
X := j
t := t - log(ALEA) / nu[i]
FinSi
Jusqua (t > T) .
Dans le cas o` u
i
= 0 (nu[i] = 0), letat i est dit absorbant. Quand le processus entre
dans i, il y sejourne indeniment.
Exemple 4.1.2 Un syst`eme reparable. Un syst`eme est constitue dun compo-
sant dont la duree de vie suit la loi exponentielle de param`etre (penser `a une ampoule
electrique, par exemple). Lorsque le composant tombe en panne, il est remplace par un
composant identique. La duree de reparation est aleatoire, de loi exponentielle de pa-
ram`etre . Montrer que letat du syst`eme au temps t evolue selon un processus de
Markov dont on precisera les param`etres.
Solution. Il sagit dun processus susceptible de prendre deux etats que nous notons
0 et 1. La valeur 0 code pour letat de panne et 1 pour letat de bon fonctionnement.
Alors

0
= et p
0,1
= 1
et

1
= et p
1,0
= 1 .
4.1.2 Equations de Kolmogorov
Soit X
t
; t 0 un processus de Markov `a valeurs enti`eres. Pour tout couple
(i, j) IN IN, on pose
i ,= j ,
ij
=
i
p
ij
.
La vitesse avec laquelle le processus sort de letat i est
i
et la probabilite avec laquel il
entre dans j est p
ij
. Ainsi, on peut interpreter
ij
comme le taux avec lequel le processus
partant de i entre en j. Bien entendu

i
=

j=i

i
p
ij
=

j=i

ij
et
i ,= j , p
ij
=
ij
/
i
.
74 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
Ainsi, la donnee de la famille
ij
; i ,= j determine compl`etement le processus en
question. Posons, pour tout i, j IN et s, t 0,
P
ij
(t) = P(X
t+s
= j [ X
s
= i) .
Il sagit de la probabilite conditionnelle pour que le processus en i au temps s se trouve
en j au temps t+s. Par homogeneite, cette grandeur ne depend pas de s. La proposition
suivante justie la denomination de taux de transition appliquee aux
ij
.
Proposition 4.1.1 Pour tout i IN, h > 0
1 P
ii
(h) =
i
h +o(h) ;
P
ij
(h) =
ij
h +o(h) lorsque j ,= i .
Demonstration. Nous avons, pour tout j ,= i, h > 0
P(X
h
= j [ X
0
= i) = P(T
i
< h)p
ij
+o(h)
=
i
hp
ij
+o(h)
=
ij
h +o(h) .
La premi`ere assertion est evidente. Elle traduit simplement le fait que

j
P
ij
(h) = 1 .
La proposition suivante etablit une propriete de semigroupe pour les probabilites de
transition analogue `a celle demontree auparavant pour les chanes de Markov.
Proposition 4.1.2 Propriete de semigroupe.
s, t 0, P
ij
(t +s) =

kIN
P
ik
(t) P
kj
(s) .
Demonstration. Conditionner aux valeurs de X
t
et appliquer la propriete de Mar-
kov.
Denition 4.1.2 Generateur innitesimal. On appelle generateur innitesimal
la matrice dont le terme general est
ij
pour i ,= j et
i
pour le terme diagonal dordre
i. Cette matrice est notee
=
_
_
_
_

0

01

02
...

10

1

12
...
. .
. .
_
_
_
_
.
4.1. PROCESSUS DE MARKOV 75
Notons p(t) la loi de la variable aleatoire X
t
i IN, p
i
(t) = P(X
t
= i) .
La loi p(t) peut se calculer comme la solution dun syst`eme dierentiel lineaire. Les
equations de ce syst`eme sont appelees equations de Kolmogorov.
Theor`eme 4.1.1 Equations de Kolmogorov.
d
dt
p = p,
Soit
j IN,
d
dt
p
j
=

i=j
p
i

ij

j
p
j
.
Commentaires. Les equations de Kolmogorov traduisent la dynamique du syst`eme
independamment de la condition initiale. Lorsque lespace detat du processus est ni
et que la loi initiale (loi de la variable X
0
) est precisee, il y a une solution unique aux
equations de Kolmogorov (il sagit dun probl`eme de Cauchy).
Demonstration. Soit h > 0. Dapr`es la formule des probabilites totales, nous avons
j IN , P(X
t+h
= j) =

i
P(X
t+h
= j[X
t
= i)p
i
(t) .
Dapr`es la propriete dhomogeneite, nous avons
j IN , P(X
t+h
= j[X
t
= i) = P(X
h
= j[X
0
= i) .
Ainsi,
p
j
(t +h) =

i
P(X
h
= j[X
0
= i)p
i
(t)
=

i=j
p
i
(t)
ij
h +p
j
(t)(1
j
h) +o(h)
dapr`es la proposition 4.1.1. Nous avons donc
p
j
(t +h) p
j
(t)
h
=

i=j
p
i
(t)
ij

j
p
j
(t) +
o(h)
h
.
Le resultat suit lorsque h 0.
Exemple 4.1.3 exemple 4.1.2 (suite). Ecrire les equations de Kolmogorov
76 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
Solution. Dans cette situation, le generateur est donne par
=
_


_
Les equations de Kolmogorov sont
p

0
= p
0
+p
1
p

1
= p
0
p
1
En utilisant la relation,
p
0
(t) +p
1
(t) = 1 ,
On resout ce syst`eme pour trouver
p
0
(t) =

+
+ (p
0
(0)

+
) e
(+)t
p
1
(t) =

+
+ (p
1
(0)

+
) e
(+)t
4.1.3 Processus de Poisson
Le processus de Poisson de param`etre > 0 est un processus de Markov. En eet,
nous avons, pour tout i 0

i
= et p
i,i+1
= 1 .
Dans cette section, nous justions laspect intuitif du processus de Poisson en obtenant
la loi de Poisson `a partir des equations innitesimales. La reference `a la denition de
processus de Markov ne sera pas directement utilisee dans ce qui suit. Nous pouvons
en fait donner une alternative `a la denition 2.2.1, la denition 2.2.3.
Denition 4.1.3 Le processus de comptage N
t
; t 0 est un processus de Poisson
de taux > 0, si
i) le processus est `a accroissements independants et stationnaires ;
ii) P(N
h
= 1) = h +o(h) ;
iii) P(N
h
2) = o(h) .
Commentaires. Un argument heuristique permet de bien comprendre pourquoi la
loi de Poisson intervient de mani`ere naturelle. Considerons lintervalle de temps (0, t)
que nous subdivisons en n sous intervalles de longueur egale `a t/n. La probabilite pour
quune occurrence survienne dans (kt/n, (k + 1)t/n) est approximativement egale `a
t/n. Puisque les occurrences sont independantes, le nombre N
t
doccurrences dans
(0, t) suit la loi binomiale B(n, t/n). Lapproximation binomiale-Poisson montre
que lon peut considerer que N
t
suit la loi de Poisson de param`etre nt/n = t. Nous
justions ceci de mani`ere rigoureuse dans le theor`eme suivant.
4.1. PROCESSUS DE MARKOV 77
Theor`eme 4.1.2 Les denitions sont equivalentes.
Demonstration. Nous montrons que denition 2.2.3 = denition 2.2.1. Posons
p
n
(t) = P(N
t
= n) .
Montrons dans un premier temps que p
0
est solution dune certaine equation dierentielle
p
0
(t +h) = P(N
t+h
= 0)
= P(N
t
= 0 ; N
t+h
N
t
= 0)
= P(N
t
= 0) P(N
t+h
N
t
= 0)
= p
0
(t) [1 h +o(h)] .
Dans la troisi`eme equation, nous avons utilise lassertion i). Nous avons pu poursuivre
en combinant ii) et iii) pour aboutir `a la derni`ere equation. On obtient nalement
p
0
(t +h) p
0
(t)
h
= p
0
(t) +
o(h)
h
.
En passant `a la limite h 0, on obtient
p

0
= p
0
.
Lintegration de cette equation lineaire dordre un conduit, en tenant compte de la
condition initiale p
0
(0) = 1, `a
p
0
(t) = e
t
.
En procedant de la meme mani`ere, pour tout n > 0, il vient
p
n
(t +h) = P(N
t+h
= n)
= P(N
t
= n; N
t+h
N
t
= 0)
+ P(N
t
= n 1 ; N
t+h
N
t
= 1)
+
n

k=2
P(N
t
= n k ; N
t+h
N
t
= k) .
Par lassertion iii), le dernier terme est dordre o(h). En utilisant `a nouveau lassertion
i), on otient
p
n
(t +h) = p
n
(t) p
0
(h) p
n1
(t) p
1
(h) +o(h)
= (1 h) p
n
(t) +hp
n
(t) +o(h) .
Soit, en passant `a la limite h 0
p

n
(t) = p
n
(t) +p
n1
(t) . (4.1.1)
Posons
q
n
(t) = e
t
p
n
(t) .
78 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
Alors, en multipliant les deux termes par e
t
, lequation (4.1.2) se formule de mani`ere
equivalente
d
dt
q
n
(t) = q
n1
(t) .
On termine la demonstration en veriant par recurrence que
q
n
(t) =

n
t
n
n!
est lunique solution de ce syst`eme sous la condition q
n
(0) = 0. La reciproque est facile
`a etablir. Cest un exercice.
4.1.4 Comportement asymptotique
Nous cherchons `a caracteriser le comportement asymptotique dun processus de
Markov homog`ene X
t
; t 0 dont lespace detat est egal `a IN. Supposons que la
variable X
t
converge en loi vers une loi et supposons que linversion des signes

et
lim soit licite. On obtient, par les equations de Kolmogorov
0 =

ji

i
.
soit
0 =
et, evidemment

i
= 1 .
Par analogie avec les chanes de Markov, nous cherchons des conditions sous lesquelles
ce syst`eme admet une solution unique. Pour simplier la discussion, nous nous limitons
`a des ensembles detat nis. Lexistence dune solution au syst`eme
0 =
est garantie par le fait que 0 est toujours valeur propre de . Un vecteur propre associe
`a la valeur propre 0 est
_
_
_
_
1
.
.
1
_
_
_
_
.
Lunicite dune solution stationnaire est, comme pour les chanes, liee `a une notion de
connexite du diagramme de transition du processus X
t
; t 0.
Denition 4.1.4 Le processus X
t
; t 0 est dit irreductible si
i, j , k
1
, . . . , k
n
t.q.
ik
1
> 0 et . . . et
knj
> 0 .
4.1. PROCESSUS DE MARKOV 79
Linterpretation est la meme que pour les chanes. Le probl`eme de la periodicite ne se
pose pas puisque les temps de transition sont aleatoires. On admet le resultat suivant
Theor`eme 4.1.3 Si le processus X
t
; t 0 est irreductible, alors la variable X
t
converge en loi quand t vers la loi solution de
0 = .
independamment de la loi de la condition initiale X
0
.
Exemple 4.1.4 exemple 4.1.2 (suite). Loi stationnaire.
Solution. Dans cet exemple, on verie facilement lirreductibilite. La resolution des
equations de Kolmogorov permet de verier lunicite du comportement asymptotique.
En eet, X
t
converge en loi vers la loi
(

+
,

+
) .
4.1.5 Exercices
Exercice 41. On consid`ere le processus aleatoire X
t
; t 0 deni sur lensemble
E = 1, 2, 3
de la mani`ere suivante. Les temps de sejour dans letat 1 sont des variables independantes
de loi exponentielle de param`etre egal `a 3.0. Lorsque le processus sort de cet etat,
il eectue une transition vers letat 2 avec la probabilite 2/3 et vers letat 3 avec la
probabilite 1/3. Les temps de sejour dans letat 2 sont des variables independantes de
loi exponentielle de param`etre egal `a 1.0. Lorsque le processus sort de letat 2, il
eectue une transition obligatoire vers letat 1. Letat 3 est un etat absorbant.
a) Montrer que X
t
est un processus de Markov homog`ene (decrire le generateur
innitesimal de ce processus).
b) Ecrire les equations de Kolmogorov de ce processus.
c) On suppose que le processus demarre dans letat 1 et on sinteresse au temps
datteinte de letat 3
T = inft 0 , X
t
= 3 .
Determiner la loi de T `a laide des equations precedentes.
Solution abregee. Le generateur est egal `a
=
_
_
3 2 1
1 1 0
0 0 0
_
_
.
80 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
Soit p
i
(t) = P(X
t
= i), pour tout i = 1, 2, 3. Nous avons
p

3
= p
1
et
p

3
= p

1
= 3p
1
+p
2
Puisque p
2
= 1 p
1
p
3
, nous avons
p

3
= 1 4p

3
p
3
.
Par ailleurs, nous avons
t 0, P(T t) = p
3
(t)
et p
3
(0) = 0, p

3
(0) = p
1
(0) = 1. Lintegration de lequation dierentielle conduit ` a la
solution suivante
P(T t) = 1
1
2
(1 1/

3)e
(2+

3)t

1
2
(1 + 1/

3)e
(2

3)t
.
Exercice 42. Un syst`eme est constitue de deux elements independants dont les
durees de vie sont des variables aleatoires de lois c(
1
) et c(
2
). Lorsque lelement i
(i = 1, 2) tombe en panne, il est remplace par un element dont les caracteristiques sont
identiques. La duree de remise en fonctionnement du syst`eme est une variable aleatoire
de loi c(
i
) independante de la duree de vie de lelement en defaut.
a) Decrire les dierents etats du syst`eme et les probabilites de transition entre
ces dierents etats pendant un intervalle de temps innitesimal.
b) En deduire que le processus devolution de ce syst`eme est markovien. Don-
ner son generateur innitesimal.
c) Existe-t-il un regime stationnaire ? Le caracteriser.
Solution abregee. Pour un couple de variables independantes (X
1
, X
2
) de loi mar-
ginales c(
1
) et c(
2
), la loi du minimum
Z = min(X
1
, X
2
) ,
est la loi c(
1
+
2
). De plus nous avons
P(X
1
< X
2
) =
_

0
P(X
2
> t)
1
e

1
t
dt =

1

1
+
2
.
Avec les conventions de notation 0 pour panne et 1 pour bon fonctionnement, nous
avons 4 etats
E = (0, 0), (1, 0), (0, 1), (1, 1).
4.1. PROCESSUS DE MARKOV 81
Dapres la remarque precedente, la loi du temps de sejour dans (0, 0) est la loi c(
1
+
2
)
et la probabilite de transition de (0, 0) vers (1, 0) est
1
/(
1
+
2
). Le taux de transi-
tion entre ces deux etats est donc
1
. Les autres taux se deduisent de raisonnements
similaires. En n de compte, le generateur est
=
_
_
_
_
(
1
+
2
)
1

2
0

1
(
1
+
2
) 0
2

2
0 (
2
+
1
)
1
0
2

1
(
1
+
2
)
_
_
_
_
.
La loi de probabilite invariante se deduit de la remarque que les 2 composants sont
independants. Donc nous avons

(i,j)
=
1
i

2
j
, i, j = 0, 1
o` u
1
et
2
sont les lois invariantes associees `a chacun des composants

1
=
_

1

1
+
1
,

1

1
+
1
_
et

2
=
_

2

2
+
2
,

2

2
+
2
_
.
Exercice 43. Un syst`eme est constitue de trois composants A, B, C dont les durees
de vie sont des variables aleatoires X, Y, Z independantes de lois respectives c(), c()
et c(). A linstant initial, les trois composants sont en etat de bon fonctionnement. La
mise en defaut de C ou la mise en defaut des deux composants A et B (simultanement)
entranent la panne du syst`eme.
a) Decrire les dierents etats susceptibles detre pris par le syst`eme au cours
du temps.
b) Soit W
t
letat du syst`eme au temps t 0. Montrer que W
t
; t 0 est un
processus de Markov homog`ene. Preciser son graphe de transitions et son
generateur innitesimal.
c) Ecrire les equations de Kolmogorov associees `a ce processus puis les resoudre.
d) Soit T la duree de vie du syst`eme. A laide de la question precedente, donner
une expression de la probabilite P(T > t).
e) En deduire E[T].
Solution abregee. Considerons les 4 etats suivants. Dans letat 1, les 3 composants
A, B, C fonctionnent. Dans letat 2, A est en panne alors que B, C fonctionnent. Dans
82 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
letat 3, B est en panne alors que A, C fonctionnent. Dans letat 4, le syst`eme est en
panne. Le generateur correspondant `a W
t
est decrit par
=
_
_
_
_
( + +)
0 ( +) 0 ( +)
0 0 ( +) ( +)
0 0 0 0
_
_
_
_
.
Letat 4 est absorbant. Dapr`es les equations de Kolmogorov, nous avons
p

1
= ( + +)p
1
.
Ceci conduit `a
t 0, p
1
(t) = exp(( + +)t).
De plus, nous avons
p

2
= p
1
( +)p
2
.
En prenant la transformee de Laplace
2
(s) = Lp
2
(s), nous obtenons

2
(s) =

(s + +)(s + + +)
=
_
1
s + +

1
s + + +
_
.
Nous inversons
t 0, p
2
(t) = e
(+)t
e
(++)t
.
De meme, nous obtenons
t 0, p
3
(t) = e
(+)t
e
(++)t
.
Finalement, nous avons
t 0, P(T > t) = 1 p
4
(t) = p
1
(t) +p
2
(t) +p
3
(t)
et
E[T] =
_

0
P(T > t)dt =
1
+
+
1
+

1
+ +
Pour des valeurs de param`etre toutes egales `a 1, nous observons que E[T] = 2/3. Cette
valeur naturellement inferieure `a la duree de vie du composant C.
Exercice 44. On consid`ere un processus de Markov X
t
, t 0 sur E = 1, 2, 3
de generateur
=
_
_
0
0
0
_
_
> 0 .
a) Representer le graphe de transition, ecrire les equations de Kolmogorov et
determiner la loi stationnaire de ce processus.
4.1. PROCESSUS DE MARKOV 83
b) Pour tout t 0, on pose p
0
(t) = P(X
t
= 0). Montrer que p
0
est solution de
lequation dierentielle
p

0
+ 3p

0
+ 3
2
p
0
=
2
. (4.1.2)
c) Montrer que les solutions de lequation (4.1.2) sont de la forme
t 0 , p(t) =
1
3
+e
3t/2
_
Acos(

3
2
t) +Bsin(

3
2
t)
_
o` u A et B sont des constantes reelles.
d) On suppose X
0
= 1. Quelle est la valeur de p

0
(0) dans ce cas ? Determiner
p
0
et tracer la courbe correspondante en fonction de t 0.
Exercice 45. Un syst`eme est compose de deux unites identiques dont les durees de
vie sont des variables independantes de loi c(). En cas de panne de lune des deux
unites, le syst`eme continue `a fonctionner avec la probabilite c. Lunite en panne est
alors reparee avec un taux egal `a (i.e la duree de reparation est une variable aleatoire
de loi c()). Lorsque le systeme ne fonctionne plus, on le remplace avec un taux par
un syst`eme neuf identique.
a) Modeliser ce syst`eme par un processus de Markov `a trois etats. En donner
le generateur.
b) Ecrire les equations de Kolmogorov. Resoudre ce systeme dans le cas
= 1, = 1, = 1, c = 1/2.
Conclusions ? En deduire la disponibilite du syst`eme `a linstant t cest `a dire
la probabilite pour qu`a linstant t le syst`eme soit en etat de fonctionner.
c) La notion de duree de vie cest `a dire la duree du fonctionnement en continu
est interessante pour lutilisateur. Pour letudier, on rend letat de panne
absorbant en supprimant la possibilite de reparation. Ecrire les equations
de Kolmogorov relatives `a ce syst`eme et le resoudre pour
= 1, = 1, c = 1/2.
En deduire la loi du comportement en continu. Conclusions ?
Exercice 46. Soit Z
t
, t 0 un processus de Markov `a valeurs dans lespace
detats 1, 2, 3, 4, 5, 6 de generateur egal `a :
_
_
_
_
_
_
_
_
3 2 1 0 0 0
0 2 0 2 0 0
0 0 3 0 1 2
0 1 0 1 0 0
0 0 4 0 4 0
0 0 2 0 0 2
_
_
_
_
_
_
_
_
84 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
a) Representer le diagramme de transitions elementaires de ce processus.
b) Supposons Z
0
= 1. Quelle est la loi du temps total passe dans letat 1 ?
c) Supposons Z
0
= 2. Determiner la loi de Z
t
pour tout T 0. Il y a t il
convergence en loi de la variable Z
t
lorsque t tend vers linni ?
d) Supposons Z
0
= 5. Montrer que, pour tout t 0, la loi de la variable Z
t
est donnee par le sextuplet
(0, 0, 2
t
(1
t
), 0, (1
t
)
2
,
2
t
)
o` u
t
est une fonction de t que lon determinera. En deduire la convergence
en loi de la variable Z
t
lorsque t tend vers linni.
e) Decrire lensemble des probabilites stationnaires.
f) La loi de Z
0
etant donnee, quelle est la limite en loi de Z
t
lorsque t tend
vers linni ?
Exercice 47. Un syst`eme est decrit par 3 etats dierents. Les etats 1 et 2 corres-
pondent au bon fonctionnement du syst`eme, alors que letat 3 correspond `a letat de
panne. On suppose que levolution du syst`eme dans le temps peut etre modelisee `a
laide dun processus de Markov (X
t
)
t0
`a valeurs dans E = 1, 2, 3 de generateur
=
_
_
( +)
( +)
0
_
_
o` u , et sont des constantes strictement positives. On suppose que X
0
= 1.
1) Quelles sont les lois de probabilite invariantes associees au generateur ? Le
processus (X
t
)
t0
converge-t-il en loi ?
2) Quelle est la loi du temps de sejour dans letat 1 avant la premi`ere visite en 2
ou 3 ?
3) Calculer la probabilite de levenement
A
t
= Le syst`eme est en panne au temps t ,
pour tout t 0.
4) On note S
t
le temps total passe en etat de panne entre les instants 0 et t.
Ecrire S
t
comme lintegrale entre 0 et t de la fonction indicatrice dun evenement
dependant du temps. Calculer E[S
t
], pour tout t 0, et
lim
t
E[S
t
]
t
.
5) Calculer la probabilite pour que le syst`eme se trouve dans letat 1 au temps t.
4.2. PROCESSUS DE NAISSANCE ET DE MORT 85
4.2 Processus de naissance et de mort
4.2.1 Denition
Denition 4.2.1 Un processus de naissance et de mort est un processus de Markov
homog`ene `a valeurs dans IN tel que

i i+1
=
i
,

i i1
=
i
,

i j
= 0 si j ,= i, i 1, i + 1 ,
o` u
i
0,
i
0 et i IN.
Commentaires. On interpr`ete un tel processus en admettant que X
t
est la taille
dune population `a linstant t. Si la population se compose de i individus au temps t, le
taux instantane de naissance dun nouvel individu est
i
tandis que le taux instantane
de disparition dun individu est
i
.
Le generateur dun processus de naissance et de mort est
=
_
_
_
_

0

0
. . .

1
(
1
+
1
)
1
. .
0
2
(
2
+
2
)
2
.
0 0 . . .
_
_
_
_
Les equations de Kolmogorov dun processus de naissance et de mort sont
p

0
=
0
p
0
+
1
p
1
p

j
=
j1
p
j1
(
j
+
j
)p
j
+
j+1
p
j+1
, j 1 .
Les processus de naissance purs sont des processus pour lesquels
i IN,
i
= 0 .
Dans ce cas, nous avons
p

0
=
0
p
0
p

j
=
j1
p
j1

j
p
j
, j 1 .
On retrouve le processus de Poisson dintensite quand
i
= . La solution de ces
equations est alors
p
j
(t) = e
t
(t)
j
j!
, j 0 .
On dit quun processus de naissance et de mort nexplose pas en temps ni si
t 0 , P(X
t
< ) =

nIN
P(X
t
= n) = 1 .
Remarque. On peut montrer quun processus de naissance et de mort nexplose pas
en temps ni si et seulement si la serie

1/
i
diverge.
86 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
4.2.2 Comportement asymptotique
Theor`eme 4.2.1 Une condition necessaire et susante pour quun processus de nais-
sance et de mort irreductible admette une unique loi stationnaire est que la serie
S =

j=1

1
. . .
j1

2
. . .
j
soit convergente. Dans ce cas, la distribution stationnaire est donnee par

0
=
1
1 +S
et

j
=

0

1
. . .
j1

2
. . .
j

0
, j 1.
Demonstration. Dapr`es les resultats du paragraphe precedent, on doit avoir
= 0 et

j=0

j
= 1
soit

0
+
1

1
= 0

0
(
1

1
+
1

1
) +
2

2
= 0

j1

j1
(
j

j
+
j

j
) +
j+1

j+1
= 0
. = .
. = .
De ces premi`eres equations, on tire

1
=

0

2
=

0

0
. = .

j
=

0

1

j1

2

j

0
. = .
La deuxi`eme condition secrit donc S
0
+
0
= 1 soit
0
= 1/(1+S). Le syst`eme admet
donc une solution ssi S < .
4.2. PROCESSUS DE NAISSANCE ET DE MORT 87
4.2.3 Exercices
Exercice 48. - Processus de Yule -
On consid`ere un processus de naissance pur X
t
, t 0 dans lequel chacun des
individus peut donner naissance `a un nouvel individu avec un taux > 0.
a) Ecrire les equations de Kolmogorov de ce processus.
b) En supposant que la population initiale comporte un seul individu, montrer
que la variable X
t
est, pour tout t 0, de loi ((e
t
).
c) En deduire que la population nexplose pas en temps ni et donner la taille
moyenne de cette population au temps t.
d) Montrer que la variable X
t
e
t
converge L
2
vers 1 lorsque tend vers zero.
Exercice 49. Un biologiste observe une population cellulaire qui evolue de la mani`ere
suivante.
Le nombre initial de cellules est egal `a n > 1 ;
une cellule se divise aux instants aleatoires dun processus de Poisson de pa-
ram`etre > 0.
lorsquune nouvelle cellule est apparue, son processus de division est independant
des autres cellules.
Soit X
t
le cardinal de la population cellulaire au temps t > 0.
a) Montrer que X
t
; t 0 est un processus de Markov dont on precisera les
taux.
b) A laide des equations de Kolmogorov, montrer que
E[X
t
] = nexp(t).
c) Soit T
1
< T
2
< . . . la suite des instants de creation de nouvelles cellules.
Justier que les variables X
n
= T
n
T
n1
sont independantes. Quelle est
la loi de X
n
?
d) Demontrer
ln(1 +m/n)/ E[T
m
] ln(1 +m/(n 1))/.
Exercice 50. Un syst`eme en periode de test est susceptible de produire un nombre
aleatoire N
t
de defaillances au temps t > 0. An de prendre en compte lamelioration
de ce syst`eme au cours du temps, on mod`elise lintensite conditionnelle du processus
N
t
, t 0 de la mani`ere suivante

t
=

1 +N
t
, > 0 , > 0.
a) Verier que N
t
, t 0 est un processus de Markov `a valeurs enti`eres
dont on determinera les taux de transitions.
88 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
b) Montrer que
dE(N
t
)
dt
= E[

1 +N
t
].
c) Verier que la fonction denie pour tout x > 0 par
g(x) =

1 +x
est convexe. En deduire, `a laide de linegalite de Jensen,
E[N
t
]

1 + 2t 1
2
.
d) Quelle est la loi de lintervalle de temps X
n
separant les ni`eme et (n+1)i`eme
defaillances ? Les variables (X
i
) sont elles independantes ?
e) Soit T
n
linstant de n
e
occurrence. Calculer E[T
n
].
f) Deduire de la question precedente les equations des estimateurs de maxi-
mum de vraisemblance des param`etres et au vu dune observation
(X
1
= x
1
, . . . , X
n
= x
n
) des n premiers intervalles inter-defaillances.
g) Reprendre la question precedente au vu dune observation (X
1
= x
1
, . . . , X
n
=
x
n
, N
t
= n) du processus au temps t.
4.3 Files dattente
Lorigine des travaux sur les phenom`enes dattente remonte aux annees 1909-1920
avec les travaux de A.K. Erlang concernant le reseau telephonique de Copenhague.
La theorie mathematique sest ensuite developpee notamment grace aux contributions
de Palm, Kolmogorov, Khintchine, Pollaczek etc et fait actuellement toujours lobjet
de nombreuses publications scientiques. Cette theorie setend ensuite `a de nombreux
champs dapplication comme la gestion de stocks, les telecommunications en general,
la abilite de syst`emes complexes etc. Actuellement, les reseaux de les dattente in-
terviennent dans la conception de nouveaux ordinateurs et dans levaluation des per-
formances des syst`emes existants. Voici une liste non exhaustive de probl`emes concrets
abordes par la theorie des les dattente.
Combien de lignes telephoniques doit on gerer pour que lattente de communica-
tion soit raisonnable ?
Combien de caisses dans un supermarche ? Comment adapter le type de guichets
(caisses rapides, etc) et leur nombre au ux des clients ?
Comment gerer les feux de circulation dans une grande agglomeration an dob-
tenir un trac uide ?
Comment determiner le nombre optimal de postes `a un peage autoroutier ?
4.3.1 Description dun syst`eme de le dattente
Un syst`eme de le dattente se decrit par un processus darrivee de clients, un
mecanisme de service et une discipline dattente.
4.3. FILES DATTENTE 89
A. Processus darrivee. Nous supposons que les clients arrivent independamment
les uns des autres. Les durees inter-arrivees (X
n
)
n1
sont donc independantes. Nous
supposons de plus que ces variables sont de meme loi : le processus darrivee est un
processus de renouvellement. Voici une liste darrivees possibles et les notations as-
sociees :
arrivees `a intervalles reguliers (chane de montage) : D (deterministe),
arrivees poissonniennes : M (Markov),
arrivees `a intervalles suivant une loi dErlang : E
k
egale `a la loi gamma G(k, ),
arrivees `a intervalles suivant une loi generale : GI.
B. Discipline de service. Les durees de services (Y
n
)
n1
sont des variables positives
independantes et de meme loi. Voici une liste de services possibles et les notations
associees :
services de duree constante : D (deterministe),
services de duree suivant une loi exponentielle : M (Markov),
services de duree suivant une loi dErlang : E
k
,
services de duree suivant une loi generale : G.
C. Discipline dattente. Nous listons ci-dessous les dierentes disciplines dattente.
FIFO Premier arrive, premier servi
FCFS idem
LIFO Dernier arrive, premier servi
LCFS idem
RSS Selection au hasard dun client en attente
Cette liste nest pas compl`ete. On peut denir dautres types de priorite. Il faut alors
declarer precisement la mani`ere dont les clients entrent en service. Lorsquil y a plu-
sieurs serveurs en particulier, on peut par exemple
aecter les clients aux serveurs par rotation,
creer une le dattente unique,
creer une le dattente par serveur.
D. Classication des les dattente. Il existe une nomenclature pour classer les
les dattente. Cette nomenclature est denie de la mani`ere suivante. Une le dattente
specique est designee par le symbole
Arrivee / Service / Nombre de serveurs / Capacite maximale de la le / Nombre
maximal de clients potentiels / Discipline de service
90 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
Exemple 4.3.1 La le decrite par le symbole
M/M/1/5//LIFO
est une le dont les arrivees se font selon un processus de Poisson. Les services suivent
la loi exponentielle et la le est constituee dun unique serveur. On ne peut accepter
plus de 5 clients en attente alors que le nombre de clients potentiels est illimite. La
discipline de service est celle du dernier arrive premier servi.
Convention. La plupart du temps seul les trois premiers items sont species pour
decrire une le dattente. Par defaut, on utilise la convention suivante
Capacite maximale de la le :
Nombre maximal de clients potentiels :
Discipline de service : FIFO.
Ainsi la le dattente
M/M/1///FIFO
se note simplement
M/M/1 .
Convention. On note le taux darrivee des clients. Cela signie que lesperance de
la duree separant deux arrivees successives est
E[X
1
] =
1

.
On note le taux de service. Cela signie que lesperance de la duree de service est
E[Y
1
] =
1

.
Lintensite de trac sexprime de la mani`ere suivante
=

=
E[Y
1
]
E[X
1
]
.
Ce rapport de deux durees est une variable sans dimension. On lexprime pourtant
souvent dans une unite appelee Erlang.
Nous notons X
t
le nombre de clients en attente ou en service `a linstant t. La
theorie des les dattente sinteresse en particulier `a letude du processus X
t
; t 0
et `a son comportement asymptotique. Si ce processus admet un regime stationnaire
independamment de la condition initale, nous notons
n 0 ,
n
= lim
t
P(X
t
= n),
et

n=0

n
= 1 .
4.3. FILES DATTENTE 91
On dit alors que le processus X
t
; t 0 est regulier.
Les notations suivantes seront utiles par la suite. Nous notons L le nombre de
clients dans letat stationnaire et L
q
le nombre de clients en attente dans le regime
stationnaire. Ainsi, nous avons, pour la le M/M/1,
n 0 ,
n
= P(L = n)
et
L
q
=
_
L 1 si L 1 ,
0 si L = 0 .
Nous notons encore W la duree de sejour dun client en regime stationnaire et nous
admettrons nalement la celebre formule suivante connue sous la denomination de
formule de Little
E[L] = E[W] .
Cette formule exprime tout simplement le fait quen regime stationnaire le nombre
moyen de client dans la le est egal au taux darrivee des clients multiplie par le temps
moyen dattente des clients. Cette formule rappelle un comportement poissonnien de
la longueur de la le dattente en regime stationnaire.
4.3.2 Files dattente formant un processus de naissance et de
mort
Une le dattente simple : M/M/1. Dans une le dattente M/M/1, les clients se
presentent `a un serveur selon un processus de Poisson de param`etre et sont servis les
uns apr`es les autres. Les durees de service sont independantes et de loi exponentielle
de param`etre . Nous nous interessons `a levolution du nombre X
t
de clients presents
dans la le dattente ou en service au temps t > 0. Le processus X
t
; t 0 est un
processus de naissance et de mort de taux
i IN ,
i
= ,
i
= .
Posons = /. La serie S secrit
S = +
2
+
3
+. . .
Elle converge ssi < . On a alors
j IN ,
j
= (1 )
j
et est une loi geometrique decalee `a gauche (i.e partant de 0).
La condition < est bien entendu equivalente `a la condition < 1. Ainsi, un
regime stationnaire peut exister si (et seulement si) lintensite de trac est inferieure `a
cent pour cent. On voit de plus limportance synthetique que joue ce param`etre lorsque
lon calcule le nombre moyen de clients en regime stationnaire
E[L] =

n=0
n
n
=

1
,
92 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
la longueur moyenne de la le dattente
E[L
q
] = E[(L 1)11
(L1)
] =

n=1
(n 1)
n
=

2
1
,
et la duree moyenne dattente en regime stationnaire
E[W] =

(1 )
.
Nous pouvons enoncer le resultat suivant.
Proposition 4.3.1 Soit 0 < < . Dans le syst`eme M/M/1, la variable aleatoire W
egale `a la duree de sejour des clients dans le syst`eme en regime stationnaire suit une
loi exponentielle de param`etre (1 ) = .
Demonstration. Sachant quil y a n clients dans le syst`eme lorsquun nouveau client
arrive, nous avons
W = Y
1
+. . . +Y
n+1
.
Le temps dattente du nouveau client est la somme de n + 1 durees de services : celle
du nouveau client, celle du client en service, plus celles des (n 1) autres clients. Un
conditionnement classique donne la densite de la variable W
t 0 , f
W
(t) =

n=0

n
f
Y
1
+...+Y
n+1
(t) .
En prenant la transformee de Laplace des deux termes, nous obtenons
Lf
W
(s) =

n=0

n
[Lf
Y
1
(s)]
n+1
= (1 )

n=0

n
_

+s
_
n+1
=
(1 )
(1 ) +s
Do` u, apr`es inversion
t 0 , f
W
(t) = (1 )e
(1)t
.
Commentaires. Il est possible, dans ce cas tr`es simple de verier sans diculte la
formule de Little.
Application. Temps de reponse dun ordinateur. Considerons un ordinateur ne
tolerant quun seul utilisateur de son processeur `a la fois. On connecte n terminaux `a
4.3. FILES DATTENTE 93
cet ordinateur. Le fonctionnement de ce syst`eme va alors etre identique `a celui dune le
dattente M/M/1. Supposons que le temps de traitement dune tache sur le processeur
soit exponentiellement distribue de moyenne 500 ms. Supposons encore que lintervalle
de temps entre deux requetes provenant dun meme terminal suive une loi exponentielle
de moyenne 20 s. Les param`etres de la le dattente sont alors
= 2 et =
n
20
.
Le taux = n/20 se justie si lon se rappelle quune superposition de processus de
Poisson independants de param`etre est `a nouveau un processus de Poisson dont le
param`etre est n. Par denition, le temps de reponse sera egal `a lesperance du temps
dattente dans le syst`eme c.a.d E[W]. Les calculs precedents ont montre que
E[W] =
1

=
20
40 n
.
La condition `a imposer pour que lordinateur puisse traiter toutes les taches est
<
soit
n < 40 .
Pour n = 36 par exemple, nous trouvons un temps de reponse egal `a 5 secondes. On
verra que si lordinateur tol`ere deux utilisateurs simultanement, le mod`ele mathematique
est M/M/2 et le temps de reponse pour 36 terminaux devient
E[W] = 0.28 sec,
soit un temps de reponse vingt fois moindre.
La le dattente M/M/s. Dans cette le dattente, les arrivees se font selon un
processus de Poisson de param`etre , les temps de services sont des variables aleatoires
de loi exponentielle de param`etre . A la dierence de la le M/M/1, le syst`eme nest
pas constitue dun unique serveur mais dun nombre arbitraire s de serveurs (s 1).
dans ce cas, on a encore un processus de naissance et de mort avec, pour tout n 0,

n
=
et

n
=
_
n si n s,
s si n > s.
On consid`ere pour ce syst`eme une intensite de trac normalisee par le nombre de
serveurs
=

s
.
94 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
Le regime stationnaire du processus de naissance et mort associe existe si et seulement
si
< 1 .
Nous avons, pour tout n 0,

n
=
_
_
_
(s)
n
n!

0
si n s,
(s)
n
s!s
ns

0
si n > s
et

0
=
_
s1

n=0
(s)
n
n!
+
(s)
s
s!(1 )
_
1
.
Exercice 51. Demontrer que la longueur moyenne de la le dattente en regime
stationnaire est egale `a
E[L
q
] =
s
s

s+1
(1 )
2
s!

0
Solution. La longueur L
q
est egale `a 0 si L s et elle est egale `a Ls sinon. Nous
avons donc
E[L
q
] =

n=s+1
(n s)
(s)
n
s!s
ns
=
s
s

s
s!

n=1

n
.
La le dattente M/M/1/k. Dans cette le dattente markovienne, il ny a quun
seul serveur, mais la capacite du syst`eme est limitee `a k clients au total. Cela signie que
les clients qui arrivent lorsque le syst`eme est sature sont denitivement rejetes. Avec
les conventions de notation utilisees precedemment, nous avons aaire `a un processus
de naissance et de mort de taux denis pour tout n 0 par

n
=
et

n
=
_
si n < k,
0 si n k.
Puisque la capacite est limitee, nous obtenons un regime stationnaire independant des
conditions initiales quelle que soit la valeur de lintensite de trac = /. Nous avons
n 0 ,
n
=
0

n
et, pour ,= 1,

0
=
1
1
k+1
.
4.3. FILES DATTENTE 95
Exercice 52. Pour ,= 1, montrer que le nombre moyen de clients en regime
stationnaire est egal `a
E[L] =

1

(k + 1)
k+1
1
k+1
.
4.3.3 Files dattente M/GI/1.
Des clients arrivent `a une unite de service `a des instants aleatoires suivant un
processus de Poisson homog`ene dintensite > 0. Quand le serveur est occupe, les
clients attendent leur tour. Les durees de service des clients successifs sont des variables
aleatoires reelles independantes de meme loi de probabilite de fonction de repartition
G et de moyenne
1

et de variance
2
. Pour tout n > 0, on note X
n
le nombre total de
clients dans lunite de service `a linstant de depart du n
e
client servi et A
n
le nombre
de clients arrives pendant le service du n
e
client.
Proposition 4.3.2 La suite (X
n
) est une chane de Markov de matrice de transition
_
_
_
_
_
_
a
0
a
1
a
2
a
3
.
a
0
a
1
a
2
a
3
.
0 a
0
a
1
a
2
a
3
0 0 . . .
0 0 0 . . .
_
_
_
_
_
_
o` u
k 0 , a
k
=
_

0
e
t
(t)
k
k!
dG(t) .
Demonstration. La demonstration sappuie sur la remarque suivante. Pour tout n,
X
n+1
=
_
X
n
1 + A
n+1
si X
n
> 0,
A
n+1
si X
n
= 0.
Par le caract`ere poissonnien du processus darrivee, la variable aleatoire A
n+1
est
independante des variables X
n
, . . . , X
1
. En consequent, le processus (X
n
) poss`ede la
propriete de Markov. De plus, nous avons
P(X
n+1
= j [ X
n
= i) =
_
P(A
n+1
= j i + 1) si i > 0 ,
P(A
n+1
= j) si i = 0 .
Les variables (A
n
) sont independantes et de meme loi. La chane (X
n
) est donc ho-
mog`ene. Sachant que la duree du n
e
service est egale `a t, nous avons
P(A
n
= k [ duree du n
e
service = t) =
e
t
(t)
k
k!
.
96 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
Ainsi, apr`es conditionnement, nous avons
a
k
= P(A
n
= k) =
_

0
e
t
(t)
k
k!
dG(t) .
Commentaires. Lapproche utilisee lors de la la demonstration de ce resultat consiste
`a associer au processus X
t
, t 0 qui nest pas markovien, des instants
1
,
2
, . . . pour
lesquels (X
n
) est une chane de Markov. Cette chane de Markov est appelee chane
incluse du processus et les instants
1
,
2
, . . . sont appeles instants de regeneration du
processus. Cette approche est permise par lhypoth`ese darrivee poissonnienne et ne
pourrait etre utilisee dans le cadre dune le dattente GI/GI/1 par exemple...
Nous etudions maintenant le comportement asymptotique de la le dattente `a travers
le comportement de la chane incluse.
Proposition 4.3.3 La chane de Markov (X
n
) est irreductible, aperiodique. Elle ad-
met une unique loi de probabilite invariante si et seulement si
=

< 1 .
Dans ce cas, nous avons
k 0 , lim
n
P(X
n
= k) =
k
,
o` u est une loi de probabilite sur N de fonction generatrice egale `a
[z[ < 1 , G(z) =
(1 )A(z)
1
1A(z)
1z
.
o` u
A(z) =

k=0
a
k
z
k
.
Demonstration. Cherchons les solutions du syst`eme = P. Il secrit ici

n
= a
n
(
0
+
1
) +a
n1

2
+ +a
0

n+1
, n 0 .
Multiplions par z
n
. En sommant toutes les equations, nous obtenons
G(z) = (
0
+
1
)A(z) +
2
zA(z) +
3
z
2
A(z) +
=
0
A(z) +
A(z)
z
[G(z)
0
]
4.3. FILES DATTENTE 97
On tire de cette equation
G(z) =

0
A(z)
1
1A(z)
1z
.
Cette equation admet une solution convenable si G(1) = 1. Comme A(1) = 1 et
lim
z1
1 A(z)
1 z
= A

(1) = ,
il faut donc que

0
= 1 > 0 .
Ceci equivaut `a
< 1 .
Nous terminons ce paragraphe en enoncant la formule de Pollaczek-Khintchine. Cette
formule decrit le temps moyen passe dans le syst`eme en regime stationnaire.
Proposition 4.3.4 (Pollaczek-Khintchine) Pour la le M/GI/1, nous avons
E[W] =
1

+

2

2
+
2
2(1 )
.
Demonstration. Considerons la fonction de Heavyside
x IR , H(x) =
_
0 si x 0 ,
1 si x > 0 .
La variable X
n+1
se reecrit
X
n+1
= X
n
+A
n+1
H(X
n
) .
Elevons les deux membres au carre
E[X
2
n+1
] = E[X
2
n
]+E[A
2
n+1
]+E[U
2
(X
n
)]+2E[X
n
A
n+1
]2E[X
n
U(X
n
)]2E[A
n+1
U(X
n
)] .
Soit L la longueur de la le en regime stationnaire. Nous avons
lim
n
E[X
n
] = E[L] .
Notons que
E[H(X
n
)] = P(X
n
> 0)
et que
lim
n
E[H(X
n
)] = lim
n
E[A
n
] = 1
0
= .
Apr`es calculs, il vient
0 = lim
n
E[A
2
n+1
] + + 2E[L] 2E[L] 2
2
.
Comme V ar(A
n+1
) =
2

2
+
2
(exercice `a traiter `a laide de la transformee de Laplace),
on a
E[L] = +

2

2
+
2
2(1 )
.
Le resultat decoule de la formule de Little.
98 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
4.3.4 Exercices
Exercice 53. Determiner la loi stationnaire de la le dattente M/M/s/k.
Exercice 54. Determiner la loi stationnaire de la le dattente M/M/1//k. Calculer
E[L].
Exercice 55. Determiner la loi stationnaire de la le dattente M/M/. Calculer
E[L].
Exercice 56. Salon de coiure. Des clients arrivent dans un salon de coiure
pour hommes suivant un processus de Poisson homog`ene dintensite . Une proportion
p dentre eux desirent une coupe de cheveux et 1 p un rasage. Les durees de service
sont de lois exponentielles de param`etres
1
et
2
dans chaque cas. Lorsquun client
arrive et trouve deux clients (1 en service, 1 en attente), il se decourage.
Soit X
t
letat du salon `a linstant t. Il y a cinq etats possibles.
a) 0 : pas de clients ;
b) 1 et 2 : 1 ou 2 clients, celui qui est en service se fait coier ;
c) 3 et 4 : 1 ou 2 clients, celui qui est en service se fait raser.
Quelle est la proportion de clients perdus en regime stationnaire ?
Exercice 57. Un serveur est sollicite par larrivee de clients selon un processus
de Poisson de param`etre = 1. Les durees de service des clients sont des variables
aleatoires independantes de loi c(), = 1. Le serveur traite une seule requete `a la fois
et tol`ere au plus un client en attente. Les clients qui arrivent et trouvent le syst`eme
sature sont rejetes.
a) Montrer que lon peut modeliser levolution ce syst`eme `a laide dun proces-
sus de Markov `a trois etats. Donner le graphe de transition de ce processus
en precisant les taux associes.
b) Ecrire les equations de Kolmogorov associees `a ce processus.
c) Exprimer la probabilite quun client soit rejete au temps t.
d) Chaque service occasionne un gain > 0 pour le serveur. Quel est le gain
asymptotique moyen par unite de temps ?
Exercice 58. Des clients arrivent dans un syst`eme constitue de deux serveurs. Le
processus de comptage associe `a larrivee des clients est un processus de Poisson de
param`etre > 0. Lorsquun client trouve les deux serveurs libres, il se dirige vers lun
dentre eux avec une probabilite egale `a 1/2. Lorsquun serveur est occupe et lautre
libre, le client se dirige vers le serveur libre. Lorsque les deux serveurs sont occupes,
le client est rejete denitivement du syst`eme. A linstant initial, les deux serveurs
sont libres. Toutes les durees de services sont independantes et de loi exponentielle de
param`etre > 0.
4.3. FILES DATTENTE 99
a) Montrer que lon peut modeliser levolution du nombre de clients presents
dans le syst`eme par un processus de Markov `a valeurs dans 0, 1, 2, de
generateur
=
_
_
0
( +)
0 2 2
_
_
.
Montrer que ce processus admet une unique loi stationnaire. Determiner
cette loi.
b) On suppose desormais que = = 1. Quelle est la probabilite stationnaire
pour quun client soit rejete du syst`eme `a son arrivee ? Quel est le nombre
moyen de clients presents dans le syst`eme en regime stationnaire ?
c) On note p
2
(t) la probabilite pour que les deux serveurs soient occupes au
temps t > 0. Montrer que p
2
est solution du probl`eme dierentiel
_
p

2
= 5p

2
5p
2
+ 1
p
2
(0) = p

2
(0) = 0
En deduire lexpression de p
2
(t) pour tout t > 0.
Exercice 59. Temps passe dans la le M/M/1. Des clients se presentent `a un
serveur independamment les uns des autres. Nous supposons que les durees separant
deux arrivees consecutives sont des variables aleatoires de loi exponentielle de pa-
ram`etre < 1. Les clients sont servis par ordre darrivee, puis sortent du syst`eme. Les
durees de services sont independantes et de loi exponentielle de param`etre 1. Soit N
t
le nombre de clients presents dans le syst`eme au temps t.
1) Soit h > 0 et n 1. Demontrer que
P(N
t+h
= n + 1 [ N
t
= n) = h +o(h),
et
P(N
t+h
= n 1 [ N
t
= n) = h +o(h).
2) Montrer que (N
t
) est un processus de Markov homog`ene `a valeurs dans IN.
Decrire le generateur aleatoire de ce processus.
3) Demontrer que le processus (N
t
) admet une mesure de probabilite invariante
unique telle que
i IN,
i
= K
i
, K > 0.
Deduire la valeur de K.
On suppose desormais et dans le reste du probl`eme que le syst`eme est `a lequilibre,
cest `a dire P(N
0
= i) =
i
, et on sinteresse au temps total T que passe un client
dans le syst`eme.
100 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
4) Soit S
i+1
une variable aleatoire de loi Gamma G(i+1, 1).
`
A laide dun argument
de conditionnement, demontrer que
P(T t) = K

i=0

i
P(S
i+1
t).
5) En introduisant la loi de Poisson, demontrer que
P(S
i+1
t) = e
t

j>i
t
j
j!
.
6) En deduire la loi de T et le temps moyen passe par un client dans le syst`eme.
Exercice 60. Un syst`eme est constitue de n serveurs independants. Chaque serveur
est susceptible detre libre (etat 0) ou occupe (etat 1). La duree dun service est une
variable aleatoire de loi exponentielle de param`etre > 0. Lorsque le serveur est libre,
il le reste pendant une duree de loi exponentielle de param`etre 1. Toutes les durees
sont independantes.
1) On suppose que n = 1 et quau temps t = 0, le serveur est libre.
Determiner la probabilite pour que le serveur soit occupe au temps t > 0. Soit
T une variable aleatoire de loi exponentielle de param`etre > 0, independante
du syst`eme. Deduire du calcul precedent la probabilite pour que le serveur soit
occupe au temps T.
2) On suppose desormais que n > 1. Soit N
t
le nombre de serveurs occupes au
temps t > 0.
a) Soit i un entier strictement positif et X
1
, . . . , X
i
des variables aleatoires inde-
pendantes de loi exponentielle de param`etre > 0. Determiner la loi de la
variable
Y
i
= min
1i
X

.
b) Montrer que (N
t
) est un processus de Markov homog`ene de taux de transition
_
_
_

i,i+1
= n i si 0 i < n

i,i1
= i si 0 < i n

i,j
= 0 si j ,= i 1, i, i + 1.
Donner le generateur innitesimal de ce processus ainsi que son graphe de
transition.
3) On pose = 1/. Montrer que le processus converge en loi vers une unique loi
invariante telle que
1 i n,
i
= C
i
n

0
.
Reconnatre dans la loi invariante une loi connue.
4) On suppose que n = 30 et = 2.
`
A laide du theor`eme central limite, donner
une valeur approchee de la probabilite pour que, en regime stationnaire, au moins
80% des serveurs soient libres.
4.3. FILES DATTENTE 101
5) On consid`ere `a nouveau la variable T de la question 1). Calculer le nombre
moyen de clients dans le syst`eme au temps T sachant que N
0
= 0.
Exercice 61. File dattente M/G/ - Un mod`ele de migration.
Des oiseaux migrateurs arrivent dans une zone A selon un processus de Poisson
dintensite > 0 et y sejournent un temps aleatoire de fonction de repartition G avant
de repartir. On note X
t
le nombre doiseaux repartis de la zone au temps t > 0 et Y
t
le nombre doiseaux encore presents dans la zone au temps t (X
t
+Y
t
= N
t
).
a) Soit 0 < s t. Quelle est la probabilite p(s) pour quun oiseau arrive au
temps s soit parti au temps t ?
b) Montrer que X
t
et Y
t
sont des variables de loi de Poisson dont on determinera
les moyennes respectives.
c) Soit s, t > 0. Calculer les probabilites associees aux occurrences (arrivees
doiseau) de types suivants
type 1 : un oiseau arrive avant t et repart entre t et t +s :
type 2 : un oiseau arrive avant t et repart apr`es t +s ;
type 3 : un oiseau arrive entre t et t +s et repart apr`es t +s ;
type 4 : tous les autres cas de gure.
d) Soit N
i
= N
i
t+s
le nombre doccurrences de type i = 1, 2, 3, 4 au temps t+s.
Quelle est la loi de N
i
, i = 1, 2, 3, 4.
Verier que
Y
t
= N
1
+N
2
et
Y
t+s
= N
2
+N
3
.
Calculer Cov[Y
t
, Y
t+s
].
Exercice 62.
`
A propos de la le M/M/1. Partie 1. Un syst`eme est
constitue dune le dattente de type M/M/1. Le processus darrivee des clients dans
le syst`eme est un processus de Poisson de param`etre > 0. Les durees de services sont
independantes et de loi exponentielle de param`etre > 0. On note X
t
le nombre de
clients dans le syst`eme au temps t 0. On consid`ere le premier instant pour lequel ce
nombre est egal `a n 1 :
T
n
= inft 0 ; X
t
= n .
Pour tout m n 1, on note F
m,n
la fonction de repartition de la loi conditionnelle
de la variable T
n
sachant X
0
= m
t 0 , F
m,n
(t) = P(T
n
t [ X
0
= m)
et f
m,n
la densite de probabilite associee.
1) Determiner F
0,1
et f
0,1
.
102 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
2) On suppose que n 2 et m n 2. Montrer que
t 0 , F
m,n
(t) =
_
t
0
F
m+1,n
(t x)dF
m,m+1
(x) .
3) On note
m,n
la transformee de Laplace de la fonction f
m,n
. Montrer que
s > 0 , n 2 ,
0,n
(s) =
0,1
(s)
1,2
(s) . . .
n1,n
(s) .
4) Soit
m
la duree de sejour dans letat m, 1 m n 1.
a) Quelle est la loi de
m
?
b) Montrer que
t 0 , F
m,m+1
(t) =

+
P(
m
t)+

+
_
t
0
F
m1,m+1
(tx)(+)e
(+)x
dx .
c) A laide des questions 2 et 4b), montrer que
s > 0 ,
m,m+1
(s) =

s + +(1
m1,m
(s))
.
d) Calculer
0,1
,
1,2
,
2,3
et
0,3
.
e) Verier que
E[T
3
[ X
0
= 0] =
3

+
2

2
+

2

3
.
5) Soit n 2. On note = /.
a) Montrer que
E[T
n
[ X
0
= n 1] =
1

(1 +E[T
n1
[ X
0
= n 2]) .
b) En deduire que
E[T
n
[ X
0
= n 1] =
n

i=1

.
c) Montrer que
E[T
n
[ X
0
= 0] =
n

i=1
E[T
i
[ X
0
= i 1] .
d) En deduire la valeur de E[T
n
[ X
0
= 0] pour ,= 1. Quelle est la valeur de
cette esperance pour = 1 ? Commenter ces dierents resultats en fonction
des valeurs de .
Exercice 63.
`
A propos de la le M/M/1. Partie 2.
On suppose maintenant que la capacite de la le dattente est limitee. Le nombre de
clients dans le syst`eme (en service ou en attente) ne peut exceder K = 3. Un client qui
trouve le syst`eme sature `a son arrivee est denitivement rejete. On note Z
t
le nombre
de clients dans le syst`eme au temps t 0. On suppose que Z
0
= 0.
4.3. FILES DATTENTE 103
1)

Ecrire les equations de Kolmogorov associees au processus de Markov Z
t
; t
0. Decrire la loi stationnaire de ce processus.
2) En regime stationnaire, quel est le nombre moyen de clients rejetes par unite de
temps ?
3) Lorsque le syst`eme atteint letat de saturation, il est instantanement reinitialise
`a zero. Tous les clients sont ainsi perdus. Cette reinitialisation engendre un co ut
aleatoire Y
i
desperance nie egale `a . On suppose que les variables Y
i
sont
independantes. Determiner la valeur de la limite
c = lim
t
E[

Nt
i=1
Y
i
]
t
,
N
t
designe le nombre de fois o` u le syst`eme atteint letat de saturation dans
lintervalle de temps (0, t).
Exercice 64. Des clients arrivent `a un serveur selon un processus de Poisson de
param`etre = 1. Les durees de service sont des variables aleatoires independantes de loi
exponentielle de param`etre > 0. On consid`ere que le syst`eme bloque instantanement
lorsque n clients se trouvent dans le syst`eme (n 1). Lors dun blocage, tous les clients
presents sont perdus, et la duree de remise en fonction du syst`eme est une variable
aleatoire de loi exponentielle de param`etre > 0. On modelise letat de cette le
dattente au temps t 0 `a laide dune variable aleatoire X
t
`a valeurs dans lensemble
0, 1, . . . , n 1, B. Les valeurs enti`eres correspondent au nombre de clients dans le
syst`eme et le symbole B `a letat de blocage.
1) Soit h > 0 et i = 0, . . . , n 2. Montrer que P(X
h
= i + 1 [ X
0
= i) = h + o(h)
et que P(X
h
= B [ X
0
= n 1) = h +o(h) . Pour tout i = 1, . . . , n 1, montrer
que P(X
h
= i 1 [ X
0
= i) = h +o(h) .
2) Justier que (X
t
)
t0
est un processus de Markov. Donner son generateur in-
nitesimal et son graphe de transition.
3) On consid`ere la loi de probabilite denie sur lensemble 0, 1, . . . , n1, B de
la mani`ere suivante. Pour tout k = 1, . . . , n,

nk
=
B
k1

i=0

i
.
Montrer que la loi est invariante pour le processus (X
t
)
t0
. Montrer que

B
=
(1 )
2
(1 )
2
+ (n(1 ) (1
n
))
.
La variable X
t
converge-t-elle en loi lorsque t tend vers linni ?
4) On suppose que n = 3, = 2 et = 0.5. Combien de clients en moyenne sont
presents dans le syst`eme en regime stationnaire ?
5) On suppose que n = 2 et que le syst`eme ne comporte aucun client `a linstant
initial. On consid`ere la variable aleatoire T egale `a linstant de premier blocage,
104 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
ainsi que sa fonction repartition notee F. Montrer que F est solution de lequation
dierentielle
F

+ (2 +)F

+F = 1 .
(On pourra utiliser les equations de Kolmogorov associees au processus corres-
pondant `a = 0). Resoudre cette equation dierentielle.
Exercice 65. Des clients arrivent `a un serveur selon un processus de Poisson de
param`etre > 0 et sont servis selon des durees de loi exponentielle de param`etre . Le
serveur est susceptible detre en etat de blocage pour une raison independante des ar-
rivees de clients (panne du serveur, par exemple). La transition vers un etat de blocage
seectue avec un taux egal `a et les durees de blocage sont de loi exponentielle de
param`etre . A chaque service est associe un gain positif aleatoire X, de loi exponen-
tielle de moyenne . A chaque blocage est associee une perte Y egale `a fois la duree
de blocage. De plus, lors dun blocage, tous les clients de la le dattente sont perdus.
An daugmenter le prot realise, on decide dinstaller un second serveur. Le r ole
du second serveur est de relayer le premier en cas de blocage. On dira que le potentiel
de relais de ce serveur est p sil peut couvrir la proportion p des blocages. Linstallation
du serveur de relais a un co ut qui est fonction de son potentiel de relais
C(p) = Kp
2
.
Lobjectif de ce (gros) exercice est de determiner la valeur de p qui maximise le prot
realise en moyenne sur une periode xee de longueur T. Il comporte une partie theorique
dans laquelle on essayera de determiner une approximation convenable du prot moyen
`a laide des outils standards du cours (formule de Wald, processus de Poisson composes,
renouvellement, etc). Il comportera une partie pratique o` u lon simulera la variable de
prot pour dierentes valeurs de p. On sugg`ere danalyser les donnees produites par la
simulation `a laide des methodes de regression lineaire.
Pour xer les idees, on pourra choisir les dierents param`etres de la mani`ere suivante
1.0
1.5
0.5
1.0
1.0
1.0
K 4 40
T 10 100
Exercice 66. On consid`ere une le dattente M/M/1/k de taux darrivee egal `a
et de taux de service egal `a . On note L
k
la taille de la le en regime stationnaire.
4.3. FILES DATTENTE 105
a) Montrer que
n k , P(L
k
= n) = P(L

= n [ L

k) .
b) Calculer la longueur moyenne de la le dattente en regime stationnaire.
En deduire le temps moyen passe par un client dans le syst`eme en regime
stationnaire.
Exercice 67. Une forme produit pour deux les dattente en reseau.
Des clients en sortie dune le M/M/1 sont diriges vers un second serveur dont
les durees de service sont de loi exponentielle de meme param`etre que dans le premier
serveur. On note X
t
le nombre de clients presents dans le premier service au temps t et
Y
t
le nombre de clients presents dans le second. Montrer que le couple (X
t
, Y
t
) converge
en loi et que asymptotiquement, les deux variables sont independantes. En deduire les
lois marginales asymptotiques.
106 CHAPITRE 4. PROCESSUS DE MARKOV ET FILES DATTENTE
Chapitre 5
Mouvement brownien et diusions
Le mouvement brownien est le plus cel`ebre des processus aleatoires. Il doit son
appellation au biologiste anglais Brown qui le decouvre en 1828 lors de lobservation
du mouvement extremement desordonne des particules de pollen dans un uide. La
theorie mathematique a debute en 1900-1905 (Bachelier, Enstein) et sest poursuivie
vers 1930 jusqu`a nos jours. Ce processus intervient maintenant dans de nombreux
mod`eles de phenom`enes naturels, physiques ou economiques.
5.1 Limite de marches aleatoires
5.1.1 Marche aleatoire dans Z
d
Une marche aleatoire dans Z
d
est une chane de Markov en temps discret qui visite
des points aleatoirement dans cet ensemble en modiant de la valeur +1 ou -1 une
coordonnee du point courant. An de denir rigoureusement cette chane de Markov,
considerons lensemble des directions de Z
d
. Cet ensemble est constitue des d vecteurs
unitaires e
1
, . . . , e
d
et de leurs vecteurs opposes e
1
, . . . , e
d
(2d directions au total).
Soit
Y =
T
(Y
1
, . . . , Y
d
)
un vecteur aleatoire de loi uniforme sur lensemble de ces directions
i d , P(Y = e
i
) = P(Y = e
i
) =
1
2d
.
Des calculs elementaires montrent que, pour tout k = 1, . . . , d,
P(Y
k
= 1) = P(Y
k
= 1) =
1
2d
et
P(Y
k
= 0) = 1
1
d
.
En consequence, le vecteur Y est desperance nulle
E[Y ] = 0
107
108 CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
et de matrice de covariance diagonale (homothetique)
K
Y
=
1
d
I
o` u I est la matrice identite de dimension d d. Considerons une suite (Y
n
) de vecteurs
aleatoires independants de meme loi que Y . La suite denie par
n 1 , X
n
= Y
1
+. . . +Y
n
est appelee marche aleatoire dans Z
d
.
Proprietes des marches aleatoires Certaines proprietes de la suite (X
n
) decoulent
immediatement de sa denition. En particulier,
a) le processus `a temps discret X
n
, n 1 est un processus `a accroissements
independants. En eet, les accroissements sont denis de la mani`ere suivante
n, k 1 , X
n,k
= X
n+k
X
n
= Y
n+1
+. . . +Y
n+k
.
Par lindependance des variables de la suite (Y
n
), les accroissements dis-
tincts et disjoints sont necessairement independants.
b) Le processus `a temps discret X
n
, n 1 est une chane de Markov ho-
mog`ene sur lensemble Z
d
. Les probabilites de transition dune telle chane
sont donnees par les relations suivantes
i, j Z
d
, p
ij
=
_
1
2d
si |i j| = 1
0 si |i j| , = 1 .
c) Lesperance et la matrice de covariance de la variable Y
n
se calculent faci-
lement. Nous avons
n 1 , E[X
n
] =
n

k=1
E[Y
k
] = 0
et
n 1 , K
Xn
= nK
Y
1
=
n
d
I
Notons nalement que la valeur quadratique moyenne dune marche aleatoire est
toujours egale `a
E[[[X
n
[[
2
] =
n

k=1
E[|Y
k
|
2
] = n .
5.1. LIMITE DE MARCHES AL

EATOIRES 109
Propriete de recurrence. On dit quun etat dune chane de Markov `a temps dis-
cret est recurrent si la chane y revient presque-s urement au bout dun nombre ni
detapes. Considerons une matrice de transition P denie sur un ensemble detats E
denombrable. Deux etats i et j sont equivalents si
m, n 1 ; p
m
ij
> 0 et p
n
ji
> 0 .
Pour cette relation, la recurrence est une propriete de classe. Si deux etats i et j sont
dans la meme classe dequivalence alors i est recurrent si et seulement si j lest. Le
resultat suivant nous servira par la suite `a caracteriser la propriete de recurrence.
Proposition 5.1.1 Soit P une matrice de transition denie sur un ensemble detats
E denombrable. Alors, i E est recurrent si et seulement si

n=1
p
n
ii
= + .
Commentaires. Nous pouvons considerer que la propriete decrite ci-dessus est une
denition de la recurrence de letat i. Pour linterpreter, notons que la condition

n=1
P(X
n
= i [ X
0
= i) <
implique que les evenements (X
n
= i) se produisent p.s en nombre ni, dapr`es le
lemme de Borel-Cantelli. De plus, pour compter le nombre de retours en i, nous posons
N
i
=

n=1
11
(Xn=i)
.
Conditionnellement au depart en i, la condition enonce simplement que le nombre
moyen de retours est inni
E[N
i
[ X
0
= i] =

n=1
p
n
ii
= .
Nous appliquons maintenant ce resultat `a letude des marches aleatoires sur E = Z,
E = Z
2
et E = Z
3
. Dans les trois cas, les chanes de Markov sont irreductibles. Il sut
donc detudier la recurrence de letat i = 0.
Exemple 5.1.1 Marche aleatoire dans Z.
Solution. La marche aleatoire dans Z est denie de la mani`ere suivante. Soit 0 <
p < 1 et q = (1 p), alors
P(Y = +1) = p
110 CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
et
P(Y = 1) = q .
La probabilite detre en 0 `a letape 2n est donnee par
p
2n
00
= C
n
2n
p
n
q
n
=
(2n)!
n!n!
p
n
q
n
`
A letape (2n + 1), nous avons
p
2n+1
00
= 0 .
La formule de Stirling
n! n
n+
1
2
e
n

2
implique que
p
2n
00

(4pq)
n

n
.
Comme pq 1/4, la serie diverge ssi p = q =
1
2
. Dans ce cas, 0 est recurrent. Dans le
cas contraire, on dit que 0 est transient.
Exemple 5.1.2 Marche aleatoire dans Z
2
.
Solution. On se deplace dans chacune des 4 directions avec une probabilite egale `a
1/4. Dans ce cas, la probabilite detre en 0 `a letape 2n est donnee par
p
2n
00
=

k+l=n
(2n)!
k!k!l!l!
1
4
(
2n)
En utilisant, la relation
n

k=0
C
k
n
C
nk
n
= C
n
2n
,
nous avons
p
2n
00

1
4
(
2n)
(C
n
2n
)
2
Nous avons, grace `a la formule de Stirling,
p
2n
00

1
n
.
Il sagit du terme general dune serie divergente. Donc 0 est recurrent.
Exemple 5.1.3 Marche aleatoire dans Z
3
.
5.1. LIMITE DE MARCHES AL

EATOIRES 111
Solution. On se deplace dans chacune des 6 directions avec une probabilite egale `a
1/6. Dans ce cas, on demontre que
p
2n
00

3

3
2
3/2
n
3/2
.
Il sagit cette fois du terme general dune serie convergente. la probabilite de retour en
zero est une constante cel`ebre en probabilite appelee constante de Polya. Elle est egale
`a
p(3) = 1
1
u
3
= 0.340537
Precisement, on peut montrer que
u
3
=

6
32
3
(
1
24
)(
5
24
)(
7
24
)(
11
24
).
Donc, tous les etats sont transients. La marche se comporte donc sensiblement
dieremment en dimension 3.
5.1.2 Le mouvement brownien standard
De la meme mani`ere que les marches aleatoires, le mouvement brownien modelise un
mouvement desordonne et sans orientation privilegiee. Toutefois, les marches aleatoires
sont des processus aleatoires dont le temps et lespace sont discrets. Pour le mouvement
brownien, le temps et lespace seront des dimensions continues. Nous allons dans ce pa-
ragraphe decrire le mouvement brownien comme la limite de suite de marches aleatoires.
Pour rendre continus `a la fois le temps et les distances parcourues, un element de temps
t et un element de distance x sont introduits. Le mouvement brownien standard est
obtenu comme limite, quand t et x tendent vers zero, de marches aleatoires o` u les
pas de longueur x se succ`edent `a des intervalles de duree t. Pour t et x xes,
on pose
t 0, X

t
= xX
t/t
ou r| designe la partie enti`ere du reel r.
Commentaires. Le processus X

t
, t 0 est une marche aleatoire dont les tran-
sitions se succ`edent tous les intervalles de temps t et dont les accroissements sont de
longueur x.
Les proprietes suivantes sobtiennent immediatement.
Lesperance de X

t
est egale `a
E[X

t
] = xE[X
t/t
] = 0 .
La matrice de covariance de X

t
est egale `a
K
X

t
= (x)
2
K
X
t/t
= (x)
2

t
t
|
1
d
I .
112 CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
La valeur quadratique moyenne de X

t
est
E[|X

t
|
2
] = (x)
2

t
t
| .
Notre objectif est de faire tendre `a la fois x et t vers 0. Pour assurer lexistence
dune limite, nous souhaitons que la norme quadratique moyenne reste nie. Pour cela,
nous imposons
t =
1
n
et
x =
_
d
n
,
o` u n est un entier positif. Le processus correspondant est note X
(n)
t
, t 0. Voici
maintenant la denition du mouvement brownien standard.
Denition 5.1.1 Un processus aleatoire X
t
, t 0 `a valeurs dans R
d
est appele
mouvement brownien standard si
i) pour tout 0 t
0
< t
1
< . . . < t
n
, les variables aleatoires X
t
i
X
t
i1
sont
independantes (accroissements independants).
ii) Pour tout i 1, laccroissement X
t
i
X
t
i1
admet pour loi la loi gaussienne
dans R
d
de moyenne nulle et de matrice de covariance (t
i
t
i1
) I.
Rappelons que la convergence en loi dun processus aleatoire est equivalente `a la
convergence en loi de tous les vecteurs de dimension nie extraits de ce processus.
Theor`eme 5.1.1 Lorsque n , le processus X
(n)
t
, t 0 converge en loi vers un
mouvement brownien standard.
Demonstration. Nous donnons lidee de la demonstration en dimension 1. Le pro-
cessus aleatoire X
(n)
t
, t 0 est `a accroissements independants puisquil sagit dun
marche aleatoire. Il en est de meme quand n , pour le processus X
t
, t 0.
Soit maintenant s < t. Nous souhaitons montrer que les accroissements sont de loi
gaussienne. Alors,
X
(n)
t
X
(n)
s
=
1

n
(X
nt
X
ns
)
=
1

n
(Y
ns+1
+ +Y
nt
)
=
_
nt| ns|

n
1
_
nt| ns|
(Y
ns+1
+ +Y
nt
) .
Clairement, nous avons
lim
n
_
nt| ns|

n
=
_
(t s)
5.1. LIMITE DE MARCHES AL

EATOIRES 113
et, dapr`es le theor`eme central limite, la variable
Z
n
=
1
_
nt| ns|
(Y
ns+1
+ +Y
nt
)
converge en loi vers la loi normale ^(0, 1).
Denition 5.1.2 Un processus aleatoire X
t
, t 0 reel est un mouvement brownien
standard `a une dimension si
X(0) = 0 ;
X
t
, t 0 est un processus `a accroissements independants ;
X
t
, t 0 est un processus `a accroissements stationnaires : la loi de laccrois-
sement X
t+s
X
t
est independante t pour tout s, t 0.
pour tous t > 0, X
t
est une variable aleatoire gaussienne de moyenne 0 et de
variance t.
Pour un tel processus, on peut en particulier remarquer que
P([X
t
[ 1.96

t) 0.95 .
Ceci signie quavec une probabilite egale `a 95 pour 100, le mouvement brownien au
temps t se trouve `a linterieur de la parabole
x
2
= (1.96)
2
t .
5.1.3 Continuite des trajectoires
Dire quun processus aleatoire X
t
, t 0 est continu cest, par denition, dire que
lim
h0
X
t+h
X
t
= 0 .
Selon le type de convergence de cette variable aleatoire, on obtient une continuite plus
ou moins forte. La plus faible des notions de continuite est liee `a la convergence en loi.
Elle est evidemment veriee. Nous allons demontrer une continuite en probabilite pour
le mouvement brownien standard.
Proposition 5.1.2 Soit > 0 et X
t
, t 0 un mouvement brownien standard (di-
mension 1). On a
lim
h0
1
h
P([X
t+h
X
t
[ > ) = 0 .
Demonstration. Soit h > 0. Par denition, laccroissement X
t+h
X
t
admet pour
loi ^(0, h). Donc
1
h
P([X
t+h
X
t
[ > ) =
2
h
_

2h
e

x
2
2h
dx
< 2
_

2
1
h
3/2
e

x
2h
dx
=

1
h
3/2
2h

2
2h
114 CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
Le dernier terme converge vers 0 lorsque h 0.
Commentaires. On demontre aussi (de mani`ere tr`es technique) que
presque toutes les trajectoires sont continues sur R
+
,
presque toutes les trajectoires sont nulle part derivables.
Pour terminer ce paragraphe, citons la loi du logarithme itere qui precise le com-
portement asymptotique du mouvement brownien standard.
Proposition 5.1.3 Soit X
t
, t 0 un mouvement brownien standard (dimension
1). On a
limsup
t
X
t
_
2t ln ln(t)
= 1 p.s.
5.1.4 Le mouvement brownien comme processus gaussien
Un processus aleatoire est dit gaussien si tous les vecteurs nidimensionnels extraits
sont gaussiens. Precisons cette denition.
Denition 5.1.3 Soit X
t
, t 0 un processus aleatoire reel. Il est gaussien si, pour
tous t
1
, . . . , t
n
le vecteur aleatoire
T
(X
t
1
, . . . , X
tn
) est un vecteur gaussien dans R
n
.
La loi de probabilite dun processus aleatoire gaussien est enti`erement caracterisee
par sa fonction moyenne
t R
+
, m(t) = E[X
t
]
et par sa fonction de covariance
s, t R
+
, k(s, t) = Cov(X
s
, X
t
) .
Proposition 5.1.4 Le mouvement brownien standard est un processus aleatoire gaus-
sien de moyenne nulle et de fonction de covariance
s, t R
+
, k(s, t) = min(s, t) .
Demonstration. Soit X
t
, t 0 un mouvement brownien standard. Soient 0
t
1
< t
2
< . . . < t
n
. Les variables reelles X
t
1
, X
t
2
X
t
1
, . . ., X
tn
X
t
n1
sont independantes
et gaussiennes. Le vecteur aleatoire
Z =
T
(X
t
1
, . . . , X
tn
)
se deduit par une transformation lineaire : il sagit donc dun vecteur gaussien. De plus,
pour tout s t, nous avons, par independance des accroissements,
E[X
s
X
t
] = E[X
s
(X
t
X
s
)] +E[X
2
s
] = 0 +s = min(s, t) .
5.1. LIMITE DE MARCHES AL

EATOIRES 115
Exercice 68. Soit (Y
n
) une suite de variables aleatoires independantes de loi uniforme
sur 1, +1 et N
t
; t 0 un processus de Poisson de taux = 1, independant de
la suite (Y
n
). On consid`ere
t 0, X
t
=
Nt

i=0
Y
i
.
Calculer la moyenne et la fonction covariance du processus X
t
, t 0. Conclusion.
5.1.5 Lois marginales et conditionnelles
Nous determinons en premier lieu la densite conjointe du vecteur
T
(X
t
1
, . . . , X
tn
).
Proposition 5.1.5 Soit X
t
, t 0 un mouvement brownien standard et 0 t
1
<
t
2
< . . . < t
n
. La densite conjointe du vecteur (X
t
1
, . . . , X
tn
) est
f
Xt
1
,...,Xtn
(x
1
, . . . , x
n
) =
1
(2)
n
2
_

n
i=1
(t
i
t
i1
)
exp
_

1
2
n

i=1
(x
i
x
i1
)
2
(t
i
t
i1
)
_
(en posant x
0
= t
0
= 0).
Demonstration. Il sut de noter que
f
Xt
1
,...,Xtn
(x
1
, . . . , x
n
) =
n

i=1
f
Xt
i
Xt
i1
(x
i
x
i1
) .
On peut en deduire par exemple pour s < t, la loi de probabilite conditionnelle de la
variable X
s
sachant que X
t
= x.
Proposition 5.1.6 La loi conditionnelle de la variable X
s
sachant que X
t
= x est la
loi normale ^(
s
t
x,
s(ts)
t
).
Demonstration. Le couple (X
s
, X
t
) est gaussien. Nous avons, dapr`es le cours de
premi`ere annee,
E[X
s
[ X
t
= x] =
Cov(X
s
, X
t
)
V ar(X
t
)
x =
sx
t
,
et
V ar(X
s
[ X
t
= x) = V ar(X
s
)
Cov(X
s
, X
t
)
2
V ar(X
t
)
= s
s
2
t
.
116 CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
5.1.6 Temps de sortie et zeros des trajectoires
Nous nous interessons dans ce paragraphe au temps necessaire `a un mouvement
brownien standard pour atteindre la valeur a > 0. Ce temps est deni de la mani`ere
suivante
T
a
= inft > 0, X
t
a .
La variable T
a
est un temps darret pour le processus (X
t
). Nous ne donnerons pas
de denition formelle des temps darret. Nous dirons simplement que est un temps
darret si, pour tout t, levenement t peut etre determine `a partir des valeurs de
X
s
pour s t.
Le processus (X
t
) poss`ede la propriete de Markov. Si s > 0, alors X
t+s
X
s
est
un mouvement brownien independant de X
r
, r s. En dautres termes, cela signie
que les accroissements futurs (X
t+s
X
s
) sont independants du passe du processus
jusquau temps s
1
. Nous enoncons le resultat suivant dont la demonstration demande
quelques sophistications.
Proposition 5.1.7 Propriete de Markov forte. Si est un temps darret, alors
X
t+
X

, t 0, est un mouvement brownien independant de X


r
, r .
Demonstration. Admis.
An dillustrer limportance de ce resultat. Montrons que T
a
, a 0, est un pro-
cessus `a accroissements stationnaires et independants. Cela signie que
i) si a < b, la loi de T
b
T
a
est identique `a celle de T
ba
,
ii) si a
0
= 0 < a
1
< . . . < a
n
, les variables T
a
i
T
a
i1
sont independantes.
Pour demontrer i), prenons = T
a
et notons que X

= a. Nous voyons que T


b
T
a
est le temps datteinte de b a pour le processus X
t+
X

. Pour demontrer ii), on


proc`ede par recurrence descendante.
Proposition 5.1.8 Loi de T
a
. Soit a > 0. La densite de la variable aleatoire T
a
est
t 0 , f
Ta
(t) = a
1

2t
3
e
a
2
/2t
.
Demonstration. En conditionnant, on obtient que
P(X
t
a) = P(X
t
a [ T
a
t)P(T
a
t)
et par symetrie
P(X
t
a [ T
a
t) = P(X
t
a [ T
a
t) =
1
2
.
1
La veritable formulation consiste `a dire que pour toute suite 0 r
1
< . . . < r
n
= s, (X
t+s
X
s
)
est un mouvement brownien independant du vecteur (X
r1
, . . . , X
rn
)
5.1. LIMITE DE MARCHES AL

EATOIRES 117
La fonction de repartition de la variable aleatoire T
a
est donc
t 0 , P(T
a
t) = 2P(X
t
a) =
2

2t
_

a
e
x
2
/2t
dx .
En posant y = x/

t, on obtient que
P(T
a
t) =
2

2
_

a/

t
e
x
2
/2
dx .
Le resultat se deduit par une simple derivation.
Commentaires. La variable aleatoire T
a
est presque-s urement nie puisque
P(T
a
< ) = lim
t
P(T
a
t) = 1 .
Cela signie que le mouvement brownien sort presque-s urement de nimporte quel
intervalle borne.
Proposition 5.1.9 Soit a > 0. La variable T
a
nest pas integrable
E[T
a
] = + .
Demonstration. Puisque la variable T
a
est positive, nous pouvons utiliser le fait
que
E[T
a
] =
_

0
1 P(T
a
t)dt .
Dapr`es les calculs eectues precedemment, nous obtenons
E[T
a
] =
2

2
_

0
_
a/

t
0
e
x
2
/2
dxdt .
En inversant les signes dintegration, nous avons
E[T
a
] =
2

2
_

0
_
a/x
2
0
dte
x
2
/2
dx =
2a
2

2
_

0
e
x
2
/2
x
2
dx .
et cette derni`ere integrale est clairement divergente en zero.
Nous appliquons maintenant le resultat precedent pour determiner la probabilite pour
que le mouvement brownien standard sannule dans un intervalle de temps donne.
Considerons par exemple lintervalle (s, t), s < t, et levenement
O(s, t) = le mouvement brownien standard sannule dans (s, t) .
La probabilite de cet evenement se calcule en conditionnant aux valeurs de la variable
X
s
P(O(s, t)) =
1

2s
_
R
P(O(s, t) [ X
s
= x)e
x
2
/2s
dx .
118 CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
Par symetrie et continuite des trajectoires, on a
P(O(s, t) [ X
s
= x) = P(T
|x|
t s)
et donc (exercice)
P(O(s, t)) =
2

_
s(t s)
_

0
_

|x|
e
y
2
/2(ts)
dye
x
2
/2s
dx
= 1
2

arcsin
_
s
t
,
o` u nous avons utilise le triangle de pythagore et le fait que
arcsin(x) + arccos(x) =

2
.
Exercice 69. Soit a > 0. Montrer que, pour tout t > 0,
P( sup
0st
X
s
a) = P(T
a
t) .
5.1.7 Integrale stochastique
Il est possible de denir une notion dintegrale dune fonction le long de trajectoires
dun mouvement brownien. Cette notion est tr`es utile lors des applications. Imaginons,
par exemple, que le cours dune valeur nanci`ere se modelise par un mouvement brow-
nien X
t
, t 0.
`
A linstant t, une variation X
t
de ce cours est susceptible dentraner
la variation dune autre valeur (disons) Y
t
selon la relation de proportionalite
Y
t
= f(t)X
t
.
Dans cette situation, le coecient de proportionnalite est fonction du temps. Pour
connatre la valeur de Y
t
, il faudra alors integrer
Y
t
= Y
0
+
_
t
0
f(s)dX
s
,
en donnant, bien entendu, un sens `a cette integrale.
Denition 5.1.4 Soit f une fonction denie sur lintervalle (a, b), derivable et de
carre integrable. On pose
_
b
a
f(t)dX
t
= lim
n
n

i=1
f(t
i1
)[X
t
i
X
t
i1
]
o` u t
0
= a < t
1
< < t
n
= b est une subdivision de (a, b) telle que
max
i
(t
i
t
i1
) 0 lorsque n .
5.1. LIMITE DE MARCHES AL

EATOIRES 119
Commentaires. On obtient ainsi une variable aleatoire reelle dependant de f, ap-
pelee integrale stochastique de f.
Proposition 5.1.10 Soit f une fonction denie sur lintervalle (a, b), derivable et de
carre integrable. On a
_
b
a
f(t)dX
t
= f(b)X
b
f(a)X
a

_
b
a
X
t
f

(t)dt .
Demonstration. Il sagit dune integration par parties. Elle se justie grace `a la
formule suivante
n

i=1
f(t
i1
)[X
t
i
X
t
i1
] = f(b)X
b
f(a)X
a

i=1
X
t
i
[f(t
i
) f(t
i1
)] .
Proposition 5.1.11 Soit f une fonction denie sur lintervalle (a, b), derivable et de
carre integrable. Lintegrale stochastique est une variable aleatoire de loi normale de
moyenne
E
__
b
a
f(t)dX
t
_
= 0
et de variance
V ar(
_
b
a
f(t)dX
t
) =
_
b
a
f
2
(t)dt .
Demonstration. Lintegrale stochastique est denie comme limite de combinaisons
lineaires de variables gaussiennes independantes. Nous admettons le fait que sa loi est
gaussienne. Par la formule dintegration par parties, nous avons
E[
_
b
a
f(t)dX
t
] = f(b)E[X
b
] f(a)E[X
a
]
_
b
a
E[X
t
]f

(t)dt = 0 .
De plus, dapr`es lindependance des accroissements, nous avons
V ar(
n

i=1
f(t
i1
)[X
t
i
X
t
i1
]) =
n

i=1
f
2
(t
i1
)V ar(X
t
i
X
t
i1
) .
En consequent, nous avons
V ar(
_
b
a
f(t)dX
t
) = lim
n
n

i=1
f
2
(t
i1
)(t
i
t
i1
) =
_
b
a
f
2
(t)dt .
120 CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
5.2 Applications du mouvement brownien
5.2.1 La primitive du mouvement brownien
Soit X
t
, t 0 un mouvement brownien standard. On pose
t 0 , Z
t
=
_
t
0
X
s
ds.
Le processus Z
t
, t 0 est appele primitive du mouvement brownien. Il apparait par
exemple de mani`ere naturelle dans la situation suivante. On mod`elise levolution du
prix Z
t
, t 0 dune marchandise dans le temps, en supposant que les variations
innitesimales `a chaque instant t sont proportionnelles au taux dination instantane
X
t
, que lon admet se comporter comme un mouvement brownien standard. Cest `a
dire que lon a
dZ
t
= X
t
dt
avec Z
0
= 0, soit
t 0 , Z
t
=
_
t
0
X
s
ds.
Nous allons montrer que Z
t
, t 0 est un processus aleatoire gaussien et le ca-
racteriser en calculant sa moyenne et sa fonction de covariance.
Proposition 5.2.1 Le processus Z
t
, t 0 est un processus gaussien de moyenne
t 0 , E[Z
t
] = 0
et de covariance
s t , k(s, t) = s
2
(
t
2

s
6
) .
Demonstration. La variable Z
t
peut etre exprimee grace `a lintegrale stochastique
t 0 , Z
t
= tX
t

_
t
0
sdX
s
.
Par ailleurs, lintegale stochastique est un processus gaussien (revenir `a sa denition!).
Il en est de meme de la primitive du mouvement brownien. Pour calculer la moyenne,
nous inversons les symboles esperance et integrale
E[Z
t
] =
_
s
0
E[X
s
]ds = 0 .
Ceci est justie par le fait que
E[
_
t
0
[X
s
[ds] =
_
t
0
E[[X
s
[]ds <
5.2. APPLICATIONS DU MOUVEMENT BROWNIEN 121
(X
s
suit la loi ^(0, s)). De meme, en utilisant linegalite de Cauchy-Schwartz, on a
E
__
s
0
_
t
0
[X
u
X
v
[dudv
_
=
_
s
0
_
t
0
E[[X
u
X
v
[]dudv <
_
s
0
_
t
0

uvdudv <
et lon peut intervertir les sommations dans le calcul de la covariance. Pour tout s t,
nous avons
k(s, t) =
_
s
0
_
t
0
E[X
u
X
v
]dudv
=
_
s
0
_
t
0
min(u, v)dudv
=
_
s
0
__
u
0
vdv +u
_
t
u
dv
_
du
= s
2
(
t
2

s
6
)
Remarquons, dans lexemple du prix de la marchandise, que lon peut donner une
prevision de ce prix connaissant sa valeur `a un instant donne. Il sagit pour cela de
determiner, pour 0 s t, le prix moyen de la marchandise `a linstant t sachant quil
est de z `a linstant s. Lesperance conditionnelle se calcule aisement
E[Z
t
[ Z
s
= z] = E[Z
t
Z
s
[ Z
s
= z] +E[Z
s
[ Z
s
= z]
= E[Z
t
Z
s
] +z
= z .
Commentaires. On a utilise ici lindependance des accroissements de la primitive
du mouvement brownien. On montre par le calcul precedent que la meilleure prediction
que lon peut faire du prix de la marchandise connaissant sa valeur `a un temps donne
est cette valeur meme.
5.2.2 Le processus dOrnstein-Uhlenbeck
Le processus dOrnstein-Uhlenbeck Y
t
, t 0 peut representer par exemple la
vitesse dune particule dans un milieu visqueux, soumise `a des variations desordonnees
dues aux chocs des molecules. Pour le denir, il faut introduire deux coecients. Le
premier coecient > 0 est un coecient de milieu (viscosite) qui decrit la diculte
du deplacement. Le second coecient
2
decrit la variance due aux chocs. Le processus
Y
t
, t 0 verie lequation dierentielle suivante
dY
t
= Y
t
dt +dX
t
o` u X
t
, t 0 est une mouvement brownien standard. En multipliant par e
t
les deux
membres de cette equation, on obtient
e
t
(dY
t
+Y
t
dt) = dX
t
e
t
122 CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
soit
d[e
t
Y
t
] = dX
t
e
t
.
Cette equation est equivalente `a
Y
t
= Y
0
e
t
+
_
t
0
e
(ts)
dX
s
ce qui constitue la veritable denition du processus dOrnstein-Uhlenbeck.
5.2.3 Le pont brownien
On appelle pont brownien standard sur [0, 1], le processus du mouvement brownien
standard X
t
, t 0 conditionne par X
1
= 0. Il sagit dun processus aleatoire gaussien
puisque la loi de probabilite de tout vecteur
T
(X
t
1
, . . . , X
tn
) conditionnelle `a X
1
= 0 est
encore gaussienne. Il sut, pour caracteriser le pont brownien de calculer lesperance
conditionnelle
0 t 1 , m(t) = E[X
t
[ X
1
= 0]
et la covariance conditionnelle
0 s, t 1 , k(s, t) = Cov(X
s
X
t
[ X
1
= 0) .
La moyenne `a dej`a ete calculee lors de la proposition 5.1.6. Nous avons
0 t 1 , E[X
t
[ X
1
= 0] = 0 .
De plus, pour tout s < t (0, 1), nous avons
E[X
s
X
t
[ X
1
= 0] = E[E[X
s
X
t
[ X
t
; X
1
= 0] [ X
1
= 0] .
Or, le triplet (X
s
, X
t
, X
1
) est gaussien, et dapr`es les resultats de conditionnement pour
les vecteurs gaussiens, nous avons
E[X
s
[ X
t
= x ; X
1
= 0] = (k(s, t), k(s, 1))K
1 T
(x, 0)
o` u K est la matrice de covariance de du vecteur (X
t
, X
1
). Un calcul rapide montre que
E[X
s
[ X
t
= x ; X
1
= 0] =
1
(t t
2
)
(s st, 0)
T
(x, 0) =
s
t
x .
Ainsi, nous avons
k(s, t) =
s
t
E[X
2
t
[ X
1
= 0] = s st.
Exercice 70. Soit X
t
, t 0 un mouvement brownien. Montrer que le processus
Z
t
; 0 t 1 deni pour tout t [0, 1] par
Z
t
= X
t
tX
1
,
5.2. APPLICATIONS DU MOUVEMENT BROWNIEN 123
est un processus gaussien. Le caracteriser.
Exercice 71. Soit Z
t
, t 0 un pont brownien. Demontrer que le processus
Y
t
, t 0 deni par
t 0 , Y
t
= (t + 1)Z
t/(t+1)
est un mouvement brownien standard.
5.2.4 Mouvement brownien avec derive
Soit X
t
, t 0 un mouvement brownient standard. Nous appelons mouvement
brownien avec derive le processus Y
t
, t 0 deni par
t 0 , Y
t
= t +X
t
o` u est une constante reelle. Grace aux proprietes du mouvement brownien, nous
avons immediatement
i) Y
0
= 0.
ii) Le processus Y
t
, t 0 est `a accroissements independants et stationnaires.
iii) La variable Y
t
admet pour loi la loi ^(t, t).
Le mouvement brownien avec derive est caracterise par les proprietes ci-dessus. Il
sagit aussi du processus gaussien de moyenne
t 0, m(t) = t,
et de covariance
s, t 0, k(s, t) = min(s, t).
Le processus se comporte comme un mouvement brownien mais avec une tendance,
positive ou negative selon la valeur du coecient . Ce processus modelise par exemple
levolution dun capital nancier dont la valeur uctue autour dune moyenne crois-
sante. Dans cette situation, il est tr`es important de resoudre des probl`emes lies au
temps datteinte dune barri`ere xe. Notons x > 0 le capital de depart et disons que x
est compris entre les valeurs a et b. Nous souhaitons calculer la probabilite p(x) pour
que le processus (le capital) atteigne la valeur elevee b avant la valeur basse a. Soit
> 0 et
t 0 , Z
t
= x +t +X
t
.
Soit h > 0 et Y
h
= Z
h
Z
0
.
Lemme 5.2.1 La probabilite que le processus Y
t
, t 0 sorte dun intervalle borne
(a, b) est de lordre de o(h).
124 CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
Demonstration. Montrons cette propriete pour le temps datteinte T
Y
c
dune valeur
quelconque c > 0. Levenement (T
Y
c
h) est realise ssi il existe t (0, h] tel que
X
t
= c t. Dans ce cas, nous avons alors X
t
c h et
P(T
Y
c
h) P(T
ch
h).
Dapr`es le resultat concernant les temps datteinte du mouvement brownien, nous avons
P(T
ch
h) P([X
1
[
c h

h
)
E[X
4
]h
2
(c h)
4
o` u X
1
est une variable aleatoire de loi ^(0, 1). La derni`ere ingalite provient de linegalite
de Markov appliquee `a lordre r = 4.
Un conditionnement considerant les cas o` u le processus sort ou non de lintervalle
(a, b) conduit aux equations suivantes
p(x) = E[P( Le processus atteint b avant a [ Y
h
)] +o(h)
= E[p(x +Y
h
)] +o(h) .
Dans ces equations, o(h) represente la probabilite pour que le processus atteigne a ou
b dans lintervalle de temps de longueur h. Un developpement en serie donne
p(x) = E
_
p(x) +p

(x)Y
h
+p

(x)
Y
2
h
2
+. . .
_
+o(h)
soit
p(x) = p(x) +p

(x)E[Y
h
] +p

(x)E[
Y
2
h
2
] +. . . +o(h) .
Finalement, la variable Y
h
est une variable de loi normale de moyenne h et de variance
h. Apr`es simplication, nous avons donc
p

(x) +
p

(x)
2
=
o(h)
h
.
Puisque h peut etre arbitrairement petit, p est solution de lequation dierentielle du
second ordre suivante :
p

+ 2p

= 0
et verie les conditions de bord
p(b) = 1 ; p(a) = 0 .
La solution de ce probl`eme est classique :
x (a, b) , p(x) =
e
2a
e
2x
e
2a
e
2b
.
Commentaires. Si < 0, en laissant a tendre vers linni, on obtient la probabilite
pour que le processus atteigne b. Cette probabilite est egale `a
p
b
= e
2b
.
5.2. APPLICATIONS DU MOUVEMENT BROWNIEN 125
Proposition 5.2.2 Soit Y
t
, t 0 le mouvement brownien avec derive positive .
Alors,
lim
t
E[max
0st
Y
s
]
t
= p.s.
Demonstration. Soit T
0
= 0 et pour tout n > 0, notons T
n
le temps datteinte
de la valeur n. Comme le processus est `a accroissements independants, les variables
T
n
T
n1
sont independantes et de meme loi. La suite (T
n
) forme donc un processus
de renouvellement de processus de comptage N
t
; t 0. De plus, nous savons que
E[N
t
] E[ max
0st
Y
s
] E[N
t
+ 1]
et
E[T
1
] =
1

.
Dapr`es les resultats concernant les processus de renouvellement
E[N
t
]
t

1
E[T
1
]
= p.s.
Exercice 72. Soit > 0. La suite (Y
n
) converge presque-s urement vers +.
Solution. Nous utilisons le lemme de Borel-Cantelli. Soit A > 0, nous avons
P(n +X
n
< A) =
_
A

2n
e
(xn)
2
/2n
dx
En developpant le carre, nous obtenons
P(n +X
n
< A) e

2
n/2
e
A
_
A

2n
e
x
2
/2n
dx e

2
n/2
e
A
La serie converge (serie geometrique). La variable Y
n
converge donc ps vers .
Nous terminons ce paragraphe en presentant la loi du temps datteinte de la valeur a
par un mouvement brownien avec derive. Nous supposons que le coecient de derive
est strictement positif. Soit
T
a
= inft 0 , Y
t
= a
et
s > 0 , L
Ta
(s) = E[e
sTa
]
sa transformee de Laplace. Pour tout a, b > 0, on remarque que
L
T
a+b
(s) = E[e
sT
a+b
] = E[e
s(Ta+T
a+b
Ta)
] .
126 CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
Comme T
a
et T
a+b
T
a
sont independantes, on a
L
T
a+b
(s) = E[e
sTa
]E[e
s(T
a+b
Ta)
] .
et par stationarite des accroissements
L
T
a+b
(s) = L
Ta
(s)L
T
b
(s) .
Ceci implique que
s > 0 , L
Ta
(s) = e
c(s)a
o` u c(s) > 0 ne depend pas de a.
Proposition 5.2.3 La transformee de Laplace de la variable T
a
est egale `a
s > 0 , L
Ta
(s) = e
a(

2
+2s)
.
Demonstration. Il sagit de determiner c(s). On conditionne par Y
h
pour un h petit.
Ceci entraine que
f(a) = L
Ta
(s) = E[e
s(h+T
aY
h
)
] +o(h)
= e
sh
E[f(a Y
h
)] +o(h) .
En utilisant un developpement de Taylor :
f(a) = e
sh
E[f(a) Y
h
f

(a) +
Y
2
h
2
f

(a) +. . .] +o(h)
soit
f(a) = f(a)(1 sh) f

(a)h +
h
2
f

(a) +o(h) .
Puisque h peut etre choisi arbitrairement petit, f est solution de lequation dierentielle
suivante :
sf = f

+
f

2
.
Remarquons maintenant que
f(a) = e
c(s)a
.
Nous obtenons alors
c
2
(s) + 2c(s) 2s = 0,
et
c(s) = +
_

2
+ 2s .
Commentaires. On peut deduire de cette proposition le temps moyen datteinte de
la valeur a par un mouvement brownien avec derive
E[T
a
] = L

Ta
(0) =
a

.
5.3. MARTINGALES ET TEMPS DATTEINTE 127
5.3 Martingales et temps datteinte
Dans cette section, nous presentons quelques resultats lies aux martingales. Cette
classe de processus constitue un outil important dans letude des proprietes du mou-
vement brownien.
5.3.1 Martingale
Proposition 5.3.1 Le mouvement brownien standard X
t
est une martingale. Cest-`a-
dire, si s < t,
E[X
t
[ X
r
, r s] = X
s
.
Bien entendu, cette denition de martingale est un peu abusive quant aux notations
utilisees. Comme pour les denitions de processus de Markov, il serait plus exact de
dire que pour toute suite nie dinstants 0 r
1
. . . < r
n
< s, nous avons
E[X
t
[ X
s
, X
rn
, . . . , X
r
1
] = X
s
Il faudra garder en memoire que la notation X
r
, r s, signie en fait X
s
, X
rn
, . . . , X
r
1
pour toute suite 0 r
1
. . . < r
n
< s.
Demonstration. Sachant X
r
, r s, X
s
est connu et X
t
X
s
est independant de
X
s
et de moyenne nulle. Nous avons donc
E[X
t
[ X
r
, r s] = E[X
t
X
s
+X
s
[ X
r
, r s] = X
s
Tous les calculs suivants portent sur les temps datteinte du mouvement brownien.
Il repose sur le theor`eme suivant, que nous appelerons Theor`eme darret optionnel.
Theor`eme 5.3.1 Soit (M
t
) une martingale `a trajectoires continues. Supposons que
soit un temps darret tel que
P( < ) = 1.
Supposons de plus quil existe une constante K telle que [M
t
[ K, pour tout t. Alors
E[M

] = E[M
0
]
Exemple 5.3.1 Distribution de sortie de lintervalle (a, b). Soit a < 0 et b > 0.
Considerons le temps de sortie de lintervalle
= inft : X
t
, (a, b)
Nous avons
P(X

= a) =
b
b a
= 1 P(X

= b)
128 CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
Solution. Verions tout dabord que est un temps darret. Nous avons
( s) = ( > s) = (X
r
(a, b), r s).
Clairement, ce dernier evenement sexprime `a partir des valeurs du processus jusquau
temps s. Pour verier la condition du theor`eme, notons que T
a
. Nous avons montre
auparavant que
P(T
a
< ) = 1.
Il est evident que
[X
t
[ [a[ +b.
Dapr`es le theor`eme darret optionnel, nous pouvons donc ecrire
0 = E[X

].
Dautre part, nous avons par denition de X

E[X

] = aP(X

= a) +bP(X

= b).
En annulant le membre de droite, nous prouvons le resultat enonce.
5.3.2 Martingale exponentielle
Dautres martingales sont liees au mouvement brownien. Les considerer permet
dobtenir dinteressants resultats. La martingale exponentielle ou martingale de Wald
permet en particulier dobtenir des resultats concernant les processus `a accroissements
independants ayant une derive.
Soit IR. On note
M
t
= exp(X
t
t
2
/2), t 0.
Proposition 5.3.2 (M
t
) est une martingale par rapport au mouvement brownien, i.e.,
pour s < t,
E[M
t
[ X
r
, r s] = M
s
Demonstration. Nous avons

t
() = E[e
Xt
] = exp(t
2
/2), t R.
Ainsi, par lindependance des accroissements, nous avons
E[M
t
[ X
r
, r s] =
exp(X
s
)
E[e
Xt
]
E[e
(XtXs)
].
On termine la demonstration en simpliant le rapport des deux esperances.
Nous deduisons de ce resultat une mani`ere rapide pour calculer la probabilite de
ruine pour le mouvement brownien avec derive. Soit
Y
t
= t +X
t
et
R
a
= inft; Y
t
a.
5.3. MARTINGALES ET TEMPS DATTEINTE 129
Proposition 5.3.3 Si > 0 et a < 0, alors nous avons
P(R
a
< ) = e
2a/
2
.
La preuve est similaire `a celle donnee pour le mod`ele du risque. Nous en reprenons
les principales etapes. En premier lieu, xons le choix de , libre dans la martingale.
Idee de la demonstration. Supposons R
a
< . En arretant la martingale M
t
au
temps R
a
, nous avons
X
Ra
= (a R
a
)/
et donc
M
Ra
= e
a/
exp(R
a
(/ +
2
/2)).
Ceci sugg`ere de choisir de sorte que
/ +
2
/2 = 0.
Le choix est donc
= 2/.
et nous avons alors M
Ra
= e
a/
. Dans le cas o` u R
a
= , observons que M

= 0 (pour
le meme choix de ). Ainsi, nous avons
e
a/
P(R
a
< ) = E[M
Ra
] = E[M
0
] = 1.
Demonstration. En appliquant le theor`eme darret `a R
a
t, nous obtenons
1 = E[e
2(X
Ra
+
2
Ra)
11
(Rat)
] +E[e
2(Xt+
2
t)
11
(Ra>t)
]
o` u = /. Puisque X
t
/t 0 presque-s urement, nous avons
e
2(Xt+
2
t)
0
sachant (R
a
> t). Finalement, lorsque t tend vers linni, seul le premier terme du
membre de droite subsiste. Il est egal `a
E[e
2a/
2
11
(Rat)
]
et tend vers
e
2a/
2
P(R
a
< ).
Ceci permet de conclure facilement.
130 CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
5.4 Processus stationnaires
Denition 5.4.1 Un processus aleatoire X
t
, t 0 est stationnaire si, pour tout
s 0 et pour tous t
1
, . . . , t
n
, n 1, les vecteurs aleatoires
T
(X
t
1
, . . . , X
tn
) =
T
(X
t
1
+s
, . . . , X
tn+s
)
ont meme loi de probabilite.
Exercice 73. Soit N
t
; t 0 un processus de Poisson de param`etre > 0. Soit
Y
0
une variable de loi uniforme sur 1, +1 independante de ce processus de Poisson.
On pose, pour tout t 0,
Y
t
= Y
0
(1)
Nt
.
a) Calculer E[Y
t
] , t 0.
b) Calculer Cov(Y
s
, Y
t
) , s, t 0.
c) montrer que Y
t
, t 0 est stationnaire.
d) On pose, pour tout t 0,
D
t
=
_
t
0
Y
s
ds.
Calculer lesperance et la variance de cette variable aleatoire. Interpretez ce
resultat.
Denition 5.4.2 Un processus aleatoire X
t
, t 0 est faiblement stationnaire si,
pour tous s, t 0,
i) E[X
t
] = c,
ii) k(s, t) = Cov(X
s
, X
t
) ne depend que de [t s[.
Commentaires. Un processus gaussien est stationnaire sil est faiblement station-
naire.
Exercice 74. Soit X
t
, t 0 un mouvement brownien standard reel `a une dimen-
sion.
a) On denit Y
0
= 0 et pour tout t > 0, Y
t
= tX
1/t
. Demontrer que Y
t
, t 0
est un mouvement brownien standard `a une dimension.
b) On pose, pour tout t 0,
Z
t
= e

t
2
X
e
t
o` u est un reel positif. Demontrer que Z
t
, t 0 est un processus
aleatoire faiblement stationnaire. Demontrer que ce processus est en fait
stationnaire.
5.5. EXERCICES 131
Exercice 75. On suppose que les instants de defaillance dun syst`eme, 0 = T
0
< T
1
<
T
2
< ... forment un processus de Poisson homog`ene dintensite > 0. A chaque instant
t 0, on note
t
la variable aleatoire reelle egale au temps dattente de la prochaine
defaillance `a partir de t.
a) Donner lallure dune trajectoire du processus aleatoire
t
, t 0.
b) Demontrer que ce processus est stationnaire.
c) Calculer, pour tout s 0
R(s) = Cov(
t
,
t+s
).
5.5 Exercices
Exercice 76. On consid`ere la suite aleatoire denie de la mani`ere suivante :
S
0
= 0
S
k
= S
k1
+X
k
o` u les variables X
k
, k = 1, 2, . . . sont des variables independantes, `a valeurs dans
1, +1, de meme loi :
P(X
k
= +1) = P(X
k
= 1) =
1
2
.
On represente la suite (S
k
)
k=1,...
dans un rep`ere orthonorme dans lequel laxe des abs-
cisses sinterpr`ete comme laxe des temps.
On appellera trajectoire de M `a N toute realisation de la suite (S
k
) passant par les
points M et N.
Premi`ere partie.
a) Sous quelles conditions existe-t-il une trajectoire de O = (0, 0) `a N = (n, ) ?
b) Determiner le nombre (
N
de trajectoires joignant le point O au point N ?
c) (Principe de reexion). Soient m, n, , des entiers t.q. m < n, > 0 et > 0.
On pose
M = (m, ), M

= (m, ), N = (n, ).
1) Montrer quil existe autant de trajectoires de M `a N qui touchent laxe des
abscisses que de trajectoires de M

`a N.
2) En deduire la probabilite daller de M en N sans jamais rencontrer laxe des
abscisses.
Deuxi`eme partie.
a) Determiner
2n
= P(S
2n
= 0).
132 CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
b) Determiner le nombre x
2n1
de trajectoires telles que
S
1
> 0, S
2
> 0, . . . , S
2n2
> 0, S
2n1
= 0.
c) Soit y
n
le nombre de trajectoires telles que
S
1
> 0, S
2
> 0, . . . , S
n1
> 0, S
n
> 0.
Montrer que
y
2n1
= 2y
2n2
y
2n
x
2n1
= 2(y
2n1
x
2n1
).
En deduire y
2n
=
C
n
2n
2
.
d) Montrer que P(S
1
,= 0, . . . , S
2n
,= 0) =
2n
.
e) Determiner la loi du temps T de premier retour en O. Verier que P(T < ) = 1.
Exercice 77. Soit X
t
, t 0 un mouvement brownien standard. Calculer la
moyenne et la variance de la variable aleatoire denie pour tout t 0 par
Y
t
=
_
t
0
sdX
s
.
Exercice 78. Soit W
t
, t 0 un processus aleatoire tel que conditionnellement `a
W(0) = x le processus B
t
, t 0 deni par
t 0 , B
t
= W
t
x
est un mouvement brownien standard. On note p(t, x, .) la densite conditionnelle de la
variable W
t
sachant W
0
= x.
a) Donner lexpression de p(t, x, .) et verier que
p(t, x, .)
x
(.) lorsque t 0 .
b) Montrer que p(t, x, .) est solution de lequation de la chaleur (equation de
diusion)
1
2

2
p
x
2
=
p
t
Exercice 79. Marche aleatoire sur Z. Soit > 0. On consid`ere le processus de
Markov X

t
, t 0 `a valeurs dans
Z = . . . , n, . . . , , 0, +, . . . , +n, . . .
deni de la mani`ere suivante
X

0
= 0
P(X

t+h
= n [ X

t
= n) =
1
2
h +o(h)
P([X

t+h
n[ > [ X

t
= n) = o(h) .
5.5. EXERCICES 133
a) Decrire les equations de Kolmogorov pour les probabilites
p

(t, n) = P(X

t
= n) .
b) On pose
u

(t, x) = p

(
2
t, x)
o` u n = x/|. relier u

(t, x) aux solutions de lequation de la chaleur lorsque


0.
Exercice 80. On contraint maintenant le processus X

t
, t 0 `a rester dans
lintervalle (a, b) en imposant `a a et `a b (ou plutot aux points les plus proches de a et
b dans la discretisation dordre ) detre absorbants. Soit a x = n b et
(x) = P(t 0 t.q. X

t
= a [ X

0
= x) .
a) Justier lequation suivante
0 =
1
2
((x ) +(x +)) (x) .
b) Quelle est la probabilite pour que le processus W
t
, t 0 atteigne la va-
leur a avant atteindre la valeur b partant de la valeur a x b ? (Reponse :
(b x)/(b a))
Bio de Mickey Markov. Mickey Markov est ne au si`ecle dernier. Son grand-
p`ere, Evgeni sergueievitch, danseur etoile `a lopera de Moscou, aurait fuit la repression
stalinienne, protant dune tournee du Bolcho pour demander lasile politique `a la
France. Grand-m`ere Markov rejoint son mari `a Paris `a loccasion dune visite ocielle
dune delegation du parti o` u elle travaille comme traductrice, reussissant `a tromper la
vigilance du KGB grace `a un deguisement de ramoneur savoyard (Nombreux en eet
etaient ` a lepoque les savoyards montes `a la capitale pour le nettoyage des cheminees o` u
pour la vente des huitres en bourriche).
`
A la veillee, Pepe Markov raconte des bonnes
histoires quil tient dun parent mathematicien, distrayant ainsi agreablement toute la
famille. Pepe Markov initie tr`es tot le jeune Mickey au calcul des probabilites notam-
ment pour le craps, le poker et certains aspects des mathematiques nanci`eres. Mickey
apprend aussi `a cette occasion que la realite est complexe `a apprehender et courir vite
sav`ere parfois utile aussi. Il est initie `a la theorie du risque, notamment du fait dun
vieux scooter sans freins. Mamie Markov lui devoile les secrets des les dattente et de
la gestion des stocks, les fruits dune longue pratique sous le regime communiste. Auto-
didacte doue Mickey Markov sessaie `a plusieurs metiers dont trombonniste, plongiste,
scaphandrier, ingenieur reseau, moniteur de kayak. Il aurait un cousin, un denomme
Jojo, qui aurait integre Ensimag-Telecom. Il sejourne dans plusieurs pays et visite la
corse quil traverse meme `a pied par le GR 20, experience lui donnant loccasion de
mediter sur le rapport `a la nature dans la tradition de Rousseau, ainsi quau veritable
sens des probabilites et des marches aleatoires lorsquil perd sa carte au 25 milli`eme.

Vous aimerez peut-être aussi