Vous êtes sur la page 1sur 102

Cours de gestion des risques

dassurances et de theorie de la
ruine
Stephane Loisel
ISFA, 2005-2006
Table des mati`eres
I Modelisation de la charge sinistre : du mod`ele indi-
viduel au mod`ele collectif 5
1 Mod`ele individuel 7
2 Mod`ele collectif 9
2.1 Mod`ele collectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Lois utilisees pour le nombre de sinistres . . . . . . . . . . . . . . 9
2.3 Lois composees . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4 Rappels sur les transformees de Laplace, et les fonctions generatrices 11
2.4.1 Denitions et premi`eres proprietes . . . . . . . . . . . . . 11
2.4.2 Moments, fonctions generatrices, transformee de Laplace . 13
2.4.3 Injectivite et inversion . . . . . . . . . . . . . . . . . . . . 16
2.4.4 Independance et caracterisation de lindependance . . . . 17
2.4.5 Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.6 Lois composees . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5 Famille et algorithme de Panjer . . . . . . . . . . . . . . . . . . . 20
2.5.1 Etude et caracterisation des distributions veriant la re-
lation de recurrence de Panjer . . . . . . . . . . . . . . . . 20
2.5.2 Algorithme de Panjer . . . . . . . . . . . . . . . . . . . . 21
2.5.3 Comment utiliser lalgorithme de Panjer pour des v.a. po-
sitives ou nulles generales ? . . . . . . . . . . . . . . . . . 22
2.6 Heterogeneite dans le mod`ele collectif, lois melanges . . . . . . . 22
2.6.1 Proprietes generales des lois melange . . . . . . . . . . . . 22
2.6.2 Lois Poisson-melange . . . . . . . . . . . . . . . . . . . . . 24
2.6.3 Melange de lois exponentielles . . . . . . . . . . . . . . . . 27
2.6.4 Lois composees melange . . . . . . . . . . . . . . . . . . . 28
3 Approximation du mod`ele individuel par le mod`ele collectif 30
4 Complements sur la charge sinistre 31
4.1 Normal Power, Gamma de Bowers . . . . . . . . . . . . . . . . . 31
4.2 FFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1
II Processus de Poisson 32
5 Rappels autour de la loi exponentielle 34
5.1 Denition et premi`eres proprietes . . . . . . . . . . . . . . . . . . 34
5.2 Minimum de variables aleatoires exponentielles independantes . . 35
5.3 Lois exponentielles multivariees . . . . . . . . . . . . . . . . . . . 37
5.4 Sommes de variables aleatoires exponentielles independantes . . . 38
6 Processus de Poisson : denition et premi`eres proprietes 41
6.1 Processus de Poisson homog`ene . . . . . . . . . . . . . . . . . . . 41
6.2 Processus de Poisson non homog`ene . . . . . . . . . . . . . . . . 48
7 Processus de Poisson compose 50
8 Proprietes de Markov et martingales 52
8.1 Proprietes de Markov . . . . . . . . . . . . . . . . . . . . . . . . 52
8.2 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
9 Thinning, superposition et conditionnement 53
9.1 Thinning et superposition . . . . . . . . . . . . . . . . . . . . . . 53
9.2 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
9.2.1 Cas dun processus de Poisson homog`ene . . . . . . . . . 54
9.2.2 Cas dun processus de Poisson inhomog`ene . . . . . . . . 55
III Theorie de la ruine 56
9.3 Methodes de martingales . . . . . . . . . . . . . . . . . . . . . . . 61
10 Quatre dierents concepts de ruine 64
10.1 La ruine vue par les praticiens . . . . . . . . . . . . . . . . . . 64
10.1.1 Ruine economique . . . . . . . . . . . . . . . . . . . . . . 64
10.1.2 Ruine reglementaire . . . . . . . . . . . . . . . . . . . . . 64
10.2 La ruine vue par les academiques . . . . . . . . . . . . . . . . . 64
10.2.1 Ruine en temps continu . . . . . . . . . . . . . . . . . . . 64
10.2.2 Ruine `a linventaire . . . . . . . . . . . . . . . . . . . . . 64
10.2.3 Lien entre ruine et ruine `a linventaire . . . . . . . . . . . 64
11 Processus de renouvellement 65
11.0.4 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
11.0.5 Some Elementary Results . . . . . . . . . . . . . . . . . . 65
11.0.6 Asymptotic Results . . . . . . . . . . . . . . . . . . . . . 66
12 Mod`ele de Cramer-Lundberg 68
12.1 Classical risk process . . . . . . . . . . . . . . . . . . . . . . . . . 68
13 Probabilite de ruine en temps inni 70
2
14 Probabilite de ruine en temps ni 71
15 Methodes de martingales, temps de ruine 72
16 Mesures de risque etudiees en theorie de la ruine 73
17 Probl`emes de reassurance et dinvestissements optimaux, controle
stochastique 74
18 Processus de Levy, resultats connus sur les temps datteinte et
les extrema 75
19 Versement de dividendes jusqu`a la ruine 76
20 Mod`eles uides et lien avec les les dattente 77
IV Mesures de risque 78
21 Typologie moderne des risques 79
22 Introduction 80
23 Mesures de risque coherentes 81
24 VaR et autres mesures de risques 82
25 Mesures de risques agreges 83
26 Mesures de risques dynamiques 84
26.1 Risques dassurance multiples . . . . . . . . . . . . . . . . . . . . 84
26.2 Risque de marche . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
26.3 Risque de credit . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
26.4 Risque operationnel . . . . . . . . . . . . . . . . . . . . . . . . . 85
26.5 Risque de mod`ele et risque de param`etre . . . . . . . . . . . . . . 87
26.6 Risque de derive . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
V Dependance stochastique 88
27 Introduction 89
28 Copulas ou coupleurs 90
28.1 Denition des coupleurs et theor`eme de Sklar . . . . . . . . . . . 90
28.2 Copules `a densite et densites conditionnelles . . . . . . . . . . . . 90
28.3 Familles de copules usuelles . . . . . . . . . . . . . . . . . . . . . 90
28.4 Inference statistique des copules . . . . . . . . . . . . . . . . . . . 90
28.5 Copules archimediennes . . . . . . . . . . . . . . . . . . . . . . . 90
3
29 Concepts et mesures de dependance 91
30 Mod`eles `a chocs communs 92
31 Mod`eles `a environnement markovien, mod`eles `a facteurs 93
32 Dependance des extremes 94
VI Appendice, pense-bete 95
33 Lois usuelles 96
33.1 Lois de probabilite usuelles . . . . . . . . . . . . . . . . . . . . . 96
34 Types de convergence 98
34.1 Convergence en Loi . . . . . . . . . . . . . . . . . . . . . . . . . . 98
34.2 Convergence presque s ure et convergence en probabilite . . . . . 103
34.3 Convergence en moyenne . . . . . . . . . . . . . . . . . . . . . . . 111
35 Theor`emes de convergence 115
35.1 Loi des grands nombres . . . . . . . . . . . . . . . . . . . . . . . 115
35.2 Theor`eme central limite . . . . . . . . . . . . . . . . . . . . . . . 118
35.3 Convergence de la fonction de repartition empirique . . . . . . . 122
36 Esperance conditionnelle 123
36.1 Denition of Conditional Expectation . . . . . . . . . . . . . . . 123
36.1.1 General denition . . . . . . . . . . . . . . . . . . . . . . 123
36.1.2 Couples of random variables with p.d.f. . . . . . . . . . . 125
36.2 Properties of Conditional Expectation . . . . . . . . . . . . . . . 126
36.2.1 Conditional expectation . . . . . . . . . . . . . . . . . . . 126
36.2.2 Conditional variance . . . . . . . . . . . . . . . . . . . . . 128
36.2.3 Compound distributions . . . . . . . . . . . . . . . . . . . 129
37 Citations (`a dispatcher) 130
VII Bibliographie 131
4
Premi`ere partie
Modelisation de la charge
sinistre : du mod`ele
individuel au mod`ele
collectif
5
Pour representer et quantier le montant cumule de tous les sinistres `a payer
sur une periode donnee, lactuaire peut utiliser le mod`ele individuel (voir sec-
tion 1) ou le mod`ele collectif (voir section 2). Lavantage du mod`ele individuel
est quil permet de tenir compte de lheterogeneite du portefeuille. En eet,
si tous les contrats ont les memes caracteristiques, alors le mod`ele individuel
correspond exactement au mod`ele collectif, et fait intervenir les distributions
composees (voir section 2.3). Le mod`ele collectif peut egalement permettre de
tenir compte de lheterogeneite du portefeuille en utilisant les lois melanges et
les lois melanges composees (voir section 2.6).
6
Chapitre 1
Mod`ele individuel
Le mod`ele individuel vise `a representer le montant total des sinistres `a payer
par la compagnie dassurances sur une periode donnee (typiquement un an) en
sommant assure par assure les montants des sinistres subis par chaque individu
sur cette periode. Soit n le nombre dassures, aussi appele leectif du portefeuille
dassurances, ou encore le nombre de polices. Soit I
i
la variable aleatoire de
Bernouilli qui vaut 1 si au moins un sinistre a touche la i-`eme police et 0 sinon,
et W
i
la variable aleatoire `a valeurs dans R
+
representant le montant total de
ces eventuels sinistres (qui peut etre decrite soit directement, soit `a laide du
mod`ele collectif decrit dans la section 2). La charge sinistre totale S sur la
periode consideree est alors donnee par la formule
S =
n

i=1
I
i
.W
i
.
En pratique, il est tr`es dicile de mener les calculs d`es que le nombre de polices
est eleve, meme sous des hypoth`eses restrictives. Le plus souvent, on supposera
que les I
i
sont i.i.d., avec P(I
1
= 1) = p, que les W
i
sont i.i.d., et que les W
i
sont independants des I
i
. Dans ce cas, la fonction de repartition de S est donnee
par la formule classique des convolutions :
F
S
(x) =
n

k=0
C
k
n
p
k
(1 p)
nk
F
k
W
(x),
o` u F
k
W
est la fonction de repartition de W
1
+ + W
k
et verie la relation de
recurrence
F
(k+1)
W
(x) =
_
x
0
F
k
W
(x y)dF
W
(y).
Remarquons que
C
k
n
p
k
(1 p)
nk
represente ici la probabilite que k contrats parmi n aient subi au moins un
sinistre sur la periode consideree. Dans ce cas,
E(S) = npE(W
1
) et Var (S) = np
2
Var (W
1
) +np(1 p) [E(W
1
)]
2
.
7
Lorsque W suit un certain type de lois, comme les lois Gamma, il est possible
dutiliser les proprietes dadditivite de ces lois pour obtenir directement les F
k
W
pour k 1. Par exemple, si W (, ), dont la densite est donnee par
lequation 5.1, alors F
k
W
est la fonction de repartition dune loi Gamma de
param`etres (k, ). Ce resultat se generalise si lindependance est veriee, meme
si les W
i
(
i
, ), avec des param`etres
i
dierents, mais le meme param`etre
.
Si les I
i
sont independants des W
i
, dans le cas general, on peut juste ecrire :
F
S
(x) =
1

i1=0
. . .
1

in=0
P(I
1
= i
1
, . . . , I
n
= i
n
)P(i
1
W
1
+ +i
n
W
n
x), (1.1)
ce qui correspond `a une somme de 2
n
termes, impossible `a utiliser. Dans lexemple,
si W
i
(
i
, ), avec des param`etres
i
dierents, mais le meme param`etre ,
alors
P(i
1
W
1
+ +i
n
W
n
x)
est la fonction de repartition dune loi

_
_
n

j=1
i
j

i
,
_
_
.
Si les W
i
sont i.i.d., on peut simplier (1.1) en
F
S
(x) =
n

k=0
P(N = k)F
k
W
(x),
o` u N est la variable aleatoire correspondant au nombre de polices (parmi n)
ayant subi au moins un accident. Le mod`ele individuel etant souvent dicile `a
utiliser numeriquement, on lui pref`ere souvent le mod`ele collectif, dans lequel le
N nest plus le nombre de polices ayant au moins un accident, mais le nombre
total daccidents, sans distinguer police par police. Avant de passer `a letude du
mod`ele collectif, mentionnons lexistence de lalgorithme de De Pril, qui permet
theoriquement dobtenir la loi de S, mais qui est en pratique tr`es peu utilise
(voir Partrat et Besson (2004) page 129, et exercice en TD).
8
Chapitre 2
Mod`ele collectif
2.1 Mod`ele collectif
Le mod`ele collectif consiste `a approcher le mod`ele individuel non plus en
regardant si chaque police fait defaut ou pas, mais en comptabilisant un nombre
aleatoires de montants de sinistres i.i.d.. On denit ainsi la charge sinistre totale
sur une periode T dans le mod`ele collectif par la variable aleatoire positive
S
coll
=
N

i=1
W
i
,
o` u N est une variable aleatoire `a valeurs dans N representant le nombre de
sinistres sur la periode T, et pour i 1, W
i
est une variable aleatoire `a va-
leurs dans R
+
representant le co ut du i-`eme sinistre, avec la convention selon
laquelle la somme est nulle si N = 0. Les (W
i
)
i1
sont supposes independants
et identiquement distribues, et independants de N (independance frequences-
co uts). Ces deux hypoth`eses sont contestables, le fait que les montants soient
representes par des variables identiquement distribuees nest possible que si le
facteur dactualisation peut etre neglige, et sil ny a pas de risque de derive du
co ut des sinistres ; lindependance frequences-co uts est valable si le portefeuille
est homog`ene. Si le portefeuille ne lest pas (par exemple geographiquement),
alors on peut tenir compte de cette heterogeneite par des lois melanges et com-
posees melanges (voir section 2.6). Toutefois ces hypoth`eses certes restrictives
facilitent enormement les calculs grace aux resultats sur les lois composees (voir
section 2.3).
2.2 Lois utilisees pour le nombre de sinistres
La loi de Poisson a le double avantage detre compatible `a une etude dyna-
mique de la survenance des sinistres (voir le chapitre 6) et dapparatre natu-
rellement comme limite de lois binomiales (voir page 134 de Durrett (1999)).
9
Neanmoins, la surdispersion due `a lheterogeneite du portefeuille peut conduire
`a lui preferer dautres types de lois (voir le chapitre 2.6 de ce document et le
chapitre Modelisation de la frequence des sinistres du cours de Christian Par-
trat).
2.3 Lois composees
Soit
S =
N

i=1
W
i
,
o` u les W
i
sont des v.a.i.i.d. et independantes de N, et o` u S = 0 si N = 0. Il
y a trois types de resultats principaux `a connatre sur les distributions com-
posees : la formule (2.1) qui donne la fonction de repartition de S, les formules
sur les moments, et la formule sur les transformees de Laplace et les fonctions
generatrices (voir section 2.4.6 apr`es un rappel sur les transformees de Laplace,
de Fourier et sur les fonctions generatrices), qui permet dailleurs de retrouver
les formules sur les moments par derivations successives. Dans certains cas, on
dispose de methodes numeriques pour accelerer les calculs (algorithme de Panjer
(voir section 2.5), FFT (voir section 4.2) ou approximations du type Gamma ou
Normal Power (voir section 4.1)).
Commencons par ecrire la fonction de repartition de S en conditionnant par le
nombre de sinistres N :
F
S
(x) =

n0
P(N = n)F
n
W
(x), (2.1)
o` u F
n
W
est la fonction de repartition de W
1
+ +W
n
et verie la relation de
recurrence
pour n 0, F
(n+1)
W
(x) =
_
x
0
F
n
W
(x y)dF
W
(y).
On obtient egalement par conditionnement sur N les premiers moments de S :
E(S) = E (E [S [ N]) = E (N.E(W
1
)) = E(N).E(W
1
),
et
Var (S) = E (Var [S [ N]) + Var (E [S [ N])
= E (N.Var (W
1
)) + Var (N.E(W
1
))
Var (S) = E(N).Var (W
1
) + [E(W
1
)]
2
.Var (N) (2.2)
Cas particulier important : loi Poisson-composee.
Si N Poi (), alors E(N) = Var (N) = , et la formule (2.2) se simplie en
Var (S) = E
_
W
2
1
_
.
10
Dune mani`ere generale, la formule (2.2) decompose la variance de S en deux
termes : le premier correspond `a la variabilite des co uts des sinistres autour
du co ut moyen, le second correspond `a la variabilite du nombre de sinistres
autour de la moyenne. Elle fait appel `a la notion de variance conditionnelle (voir
denition VI.4 en appendice) et `a la formule de decomposition de la variance
(voir section 36.2 en appendice). Ces formules peuvent aussi se retrouver grace
aux fonctions generatrices (voir section 2.4.6). Nous devons dabord revenir sur
les denitions et les proprietes de ces objets.
2.4 Rappels sur les transformees de Laplace, et
les fonctions generatrices
2.4.1 Denitions et premi`eres proprietes
La fonction caracteristique dune variable aleatoire est denie `a partir de la
transformee de Fourier de sa loi. Il convient de rappeler quelques proprietes de la
transformee de Fourier, dont la denition peut varier dune source `a lautre, sans
changer lessence des resultats qui sy rapporte. Ces resultats sur la transformee
de Fourier sont principalement
son injectivite, qui va nous permettre de caracteriser une loi par sa fonc-
tion caracteristique,
le fait que la transformee de Fourier dun produit de convolution est le
produit des transformees de Fourier, qui implique que la fonction ca-
racteristique de la somme de deux v.a. independantes est le pro-
duit de leurs fonctions caracteristiques (associe au point precedent,
cela nous donne dailleurs un crit`ere dindependance, et un moyen simple
de demontrer la stabilite dune famille de lois (par exemple Poisson ou
normale) par laddition),
une formule dinversion qui nous permet de retrouver la loi quand
on connat la transformee de Fourier, et qui peut fournir des methodes
numeriques (nous reviendrons sur les methodes FFT (Fast Fourier Trans-
form) au chapitre 4.2),
le fait que les moments de la variable aleatoire sobtiennent en
fonction des derivees successives de la fonction caracteristique.
Ces moments (voir section 2.4.2 pour un rappel sur ce sujet), ainsi que
les cumulants, peuvent etre obtenus directement en derivant des fonctions
construites `a partir de la fonction caracteristique, ce qui nous am`enera
`a les considerer (fonction generatrice des moments, des cumulants, des
probabilites, transformee de Laplace). Ces objets ne seront pas denis
sur le meme domaine, mais dans les conditions habituelles verieront les
principes dindependance (voir recapitulatif dans le theor`eme I.8) et de ca-
racterisation. On choisira lune ou lautre selon le probl`eme (v.a. `a valeurs
dans N ou continues, les quantites recherchees sont les moments centres
ou factoriels, ...), mais les idees generales restent les memes.
11
Nous rappelons ici uniquement les resultats dont nous aurons besoin. Pour plus
de details sur les transformees de Fourier, et plus largement sur lanalyse reelle et
complexe, consulter le livre de Rudin (1987). Il est aussi utile de se rememorer le
theor`eme de transfert et la proposition I.1 (particuli`erement dans le sens 1 4),
que nous utiliserons tr`es bientot (respectivement d`es la denition I.2 et d`es la
proposition I.5).
Theor`eme I.1 Theor`eme de transfert, ou de la loi image
Soit (, /, P) un espace probabilise et X une variable aleatoire reelle. On note
P
X
la probabilite image de P par X, denie sur (R, B) par P
X
(B) = P(X
1
(B)), B
B. Soit g une variable aleatoire reelle denie sur (R, B). g(X) est integrable par
rapport `a P si et seulement si g est integrable par rapport `a P
X
et on a alors :
E
P
[g(X)] = E
P
X
[g].
Proposition I.1 Soit X et Y deux variables aleatoires denies sur un espace
probabilise (, /, P). Les quatre propositions suivantes sont equivalentes :
1. X et Y sont independantes.
2. Pour toutes fonctions reelles f et g mesurables et positives, E
P
[f(X)g(Y )] =
E
P
[f(X)]E
P
[g(Y )].
3. Pour toutes fonctions reelles f et g mesurables et bornees, E
P
[f(X)g(Y )] =
E
P
[f(X)]E
P
[g(Y )].
4. Pour toutes fonctions complexes mesurables f et g telles que [f(X)[ et
[g(Y )[ sont bornes, E
P
[f(X)g(Y )] = E
P
[f(X)]E
P
[g(Y )].
Denition I.1 Transformee de Fourier dune mesure
Soit P une mesure de probabilite denie sur (R, B). On appelle transformee
de Fourier de la mesure P, la fonction denie sur R, `a valeur dans C, denie
par : (t) =
_
e
itx
dP(x).
Remarques :
si on note f, la fonction reelle mesurable, `a valeurs dans C, qui `a x as-
socie e
itx
, on peut reecrire
_
e
itx
dP(x) comme E
P
(f) avec les notations
probabilistes.
f etant continue, cest une v.a. sur (R, B).
On remarque que [ e
itx
[= 1 et donc
_
[ e
itx
[ dP(x) = 1. x e
itx
est
donc donc P-integrable et la transformee de Fourier (t) est denie en
tout t R.
Denition I.2 Fonction caracteristique
Soit (, /, P) un espace probabilise et X une variable aleatoire reelle denie
sur (, /). On denit la fonction caracteristique de X, comme etant la
transformee de Fourier de la mesure image de P par X, P
X
, et on note
X
(t) =
_
e
itx
dP
X
(x) = E
P
(e
itX
).
Proposition I.2 Soit (, /, P) un espace probabilise et X une variable aleatoire
reelle denie sur (, /). La fonction caracteristique de X,
X
(t)
12
1. est denie sur R,
2. verie
X
(0) = 1,
3. et pour tout t R, [
X
(t) [ 1,
4. est uniformement continue :
> 0, > 0, s, t R, [t s[ < [
X
(t)
X
(s) [< .
5. De plus, pour tout t R,
X
(t) =
X
(t),
6. et pour tous a, b, t R,
aX+b
(t) = e
itb

X
(at).
2.4.2 Moments, fonctions generatrices, transformee de La-
place
Theor`eme I.2 Fonction caracteristique et moments
Soit X une variable aleatoire reelle denie sur un espace probabilise (, /, P).
Si E [[ X [
n
] < , la fonction caracteristique
X
(t) est n fois derivable et :

(k)
X
(0) = i
k
E(X
k
), k n.
La reciproque du theor`eme I.2 est vrai pour n pair uniquement. Pour n im-
pair, si
X
derivable n fois, alors
X
derivable n 1 fois, et comme n 1 est
pair, on peut utiliser la reciproque du theor`eme I.2 avec n 1.
On a le meme genre de resultat avec la transformee de Laplace, et avec
dautres concepts quon peut choisir dutiliser en fonction du probl`eme. Loutil
cle de ce paragraphe est la derivation sous le signe somme.
Denition I.3 Transformee de Laplace dune variable aleatoire Soit
X une variable aleatoire reelle denie sur un espace probabilise (, /, P). On
appelle transformee de Laplace de la loi de X (ou de la mesure de probabilite
P
X
), la fonction reelle /
X
, denie par /
X
(t) = E
P
_
e
tX

=
_
e
tx
dP
X
(x).
/
X
est denie pour t tel que lesperance precedente est nie.
Propriete I.1 Soit X une variable aleatoire reelle denie sur un espace pro-
babilise (, /, P). La transformee de Laplace /
X
est denie sur un intervalle
contenant 0.
De plus, si X est `a valeurs dans R
+
, alors lensemble de denition de /
X
contient R
+
.
La transformee de Laplace est un outil indispensable en theorie de la ruine,
on le verra par exemple dans letude du mod`ele de Cramer-Lundberg (voir
section12).
Denition I.4 Fonction generatrice des moments
Soit X une variable aleatoire reelle denie sur un espace probabilise (, /, P).
On appelle fonction generatrice des moments de la variable aleatoire X, la
fonction M
X
(t) denie par M
X
(t) = E
P
_
e
tX

, pour tout t R tel que e


tX
est
P-integrable.
13
La fonction generatrice des moments est sobtient de mani`ere immediate `a
partir de la transformee de Laplace
M(s) = L(s),
et on peut transposer les proprietes dej`a presentees pour la transformee de
Laplace.
Propriete I.2 Si X est une variable aleatoire reelle positive, et si /
X
(ou
L
X
) reste nie sur un intervalle ouvert contenant 0, alors /
X
est inniment
derivable en zero, X admet des moments `a tous les ordres et
E
P
[X
r
] = M
(r)
X
(0) = (1)
r
L
(r)
X
(0).
Denition I.5 Fonction generatrice des cumulants
Soit X une variable aleatoire reelle denie sur un espace probabilise (, /, P).
On appelle fonction generatrice des cumulants de la loi de X, la fonction /
X
denie par /
X
(t) = log E
P
_
e
tX

pour tout t R, tel que lesperance est denie.


La fonction generatrice des cumulants est simplement le logarithme de la
fonction generatrice des moments. Les cumulants interviennent dans le developpement
en serie (quand celui ci existe) de /
X
(voir page 15).
Denition I.6 seconde fonction caracteristique
Soit X une variable aleatoire reelle denie sur un espace probabilise (, /, P).
On appelle seconde fonction caracteristique de la loi de X, la fonction par t
log
X
(t) (il sagit du logarithme complexe).
Denition I.7 fonction generatrice (des probabilites)
Soit X une variable aleatoire denie sur un espace probabilise (, /, P). La
fonction generatrice de X au point u est denie par
G
X
(u) = E
P
_
u
X

.
Remarquons que pour s R tel que M
X
(s) existe, alors G
X
(e
s
) existe et
M
X
(s) = G
X
(e
s
) .
Propriete I.3 Soit N une variable aleatoire denie sur un espace probabilise
(, /, P) et `a valeurs dans N. Alors
G
N
(u) =
+

n=0
P(N = n)u
n
est une serie enti`ere de rayon de convergence superieur ou egal `a 1, qui ca-
racterise la loi de N, et telle que pour n 0,
P(N = n) =
G
(n)
N
(0)
n!
.
Ces outils permettent dobtenir dierents renseignements sur la loi de la
variable aleatoire en les derivant. La propriete precedente permet dobtenir des
probabilites. Voyons donc quel type de moment on peut obtenir, et comment.
14
Petits rappels sur les dierents types de moments
On peut etre amene `a utiliser dierents types de moments, les moments
simples, centres ou factoriels, voire les cumulants.
Pour k N, le moment simple dordre k dune variable aleatoire X, note
m
k
, est deni par
m
k
= E (X)
k
.
Remarquons que m
0
= 1, et que m
1
, note aussi m, est egal `a E(X). Le
moment simple dordre k, lorsquil existe, est egal `a la derivee k-`eme en
zero de la fonction generatrice des moments dapr`es la propriete I.2.
Pour k 1, le moment centre dordre k dune variable aleatoire X, note

k
, est deni par

k
= E (X m)
k
.
Remarquons que
1
= m m = 0, et que
2
= Var (X). On peut les
obtenir `a partir des moments simples par la formule

k
=
k

j=0
(1)
k+l
C
l
k
m
l
m
kl
.
Les cumulants, notes
r
, sont les coecients du developpement en serie
enti`ere en zero (qui existe d`es que M
X
est denie sur un voisinage de 0) de
la fonction generatrice des cumulants (voir denition I.5), qui est denie
par
/
X
(t) = log (M
X
(t)) .
En cas dexistence, on a donc

r
= /
(r)
X
(0).
En particulier,

1
= m,
2
=
2
= Var (X),
3
=
3
,
4
=
4
3
2
2
. (2.3)
Pour une variable aleatoire N `a valeurs dans N (representant par exemple
le nombre de sinistres sur une periode donnee), le moment factoriel dordre
k, note
(k)
, est deni par

(k)
= E (X(X 1) . . . (X k + 1)) .
Il est possible de recuperer les moments simples `a partir des moments
factoriels grace aux nombres de Stirling de seconde esp`ece :
m
k
=
k

j=1
S(k, j)
(j)
,
15
o` u les nombres de Stirling de seconde esp`ece S(n, k) correspondent aux
nombres de partitions de 1, . . . , n en k sous-ensembles non vides, et
peuvent etre obtenus recursivement par :
S(n, k) = S(n 1, k 1) +k.S(n 1, k)
S(n, 1) = S(n, n) = 1.
En particulier,
m =
(1)
, m
2
=
(1)
+
(2)
, m
3
=
(1)
+ 3
(2)
+
(3)
,
et m
3
=
(1)
+ 7
(2)
+ 6
(3)
+
(4)
.
Rappelons aussi pour n 0, P(N = n) est donne directement par la
derivee n-`eme de G
N
en 0 dapr`es la propriete I.3. De plus, lorsque le rayon
de convergence de la serie enti`ere G
N
(u) est strictement superieur `a 1, alors
on peut obtenir les moments factoriels de N grace au developpement en
serie enti`ere de G
N
en 1 (et non plus en 0) :
n N,
(n)
= G
(n)
N
(1).
Pour calculer les moments simples dune variable aleatoire enti`ere, lors-
quon connat G
N
et quelle a une expression qui sy prete, il peut etre
plus ecace de deriver plusieurs fois G
N
en 1 pour obtenir les n premiers
moments factoriels de N, puis dutiliser les formules avec les nombres de
Stirling.
2.4.3 Injectivite et inversion
Theor`eme I.3 formule dinversion avec fonction de repartition
Soit P une probabilite sur (R, B) ayant pour transformee de Fourier, (t) =
_
e
itx
dP(x). On note F(x) = P(] , x[), la fonction de repartition de P.
1. Soient a et b deux reels (a < b). Alors,
F(b) +F(b
+
)
2

F(a) +F(a
+
)
2
=
1
2
lim
c
_
c
c
e
ita
e
itb
it
(t)dt.
2. Si F est continue en a et en b, alors,
F(b) F(a) =
1
2
lim
c
_
c
c
e
ita
e
itb
it
(t)dt.
Theor`eme I.4 injectivite de la transformee de Fourier dune mesure
de probabilite
Soit P et Q deux probabilites sur (R, B). Si
_
e
itx
dP(x) =
_
e
itx
dQ(x), pour
tout t R (egalite entre les transformees de Fourier), alors P = Q.
16
Corollaire I.1 Soit X et Y , deux variables aleatoires reelles denies sur un
espace probabilise (, /, P). Legalite entre les fonctions caracteristiques de X
et Y implique que X et Y ont la meme loi, cest-`a-dire que P
X
= P
Y
.
La fonction caracteristique
X
caracterise donc X. Il en est de meme pour
la transformee de Laplace si elle est denie sur un intervalle contenant 0.
Theor`eme I.5 formule dinversion
Soit P une probabilite sur (R, B) ayant pour transformee de Fourier, (t). Si
est integrable par rapport `a la mesure de Lebesgue sur R (cest-`a-dire
_
R
[ (t) [
dt < ), alors P poss`ede une densite p par rapport `a la mesure de Lebesgue,
cette densite est continue et est donnee par :
p(x) =
1
2
_
e
itx
(t)dt.
2.4.4 Independance et caracterisation de lindependance
Denition I.8 cas multivarie
Soit X = (X
1
, . . . , X
n
) un vecteur aleatoire deni sur un espace probabilise
(, /, P). La fonction caracteristique de X est la fonction complexe, denie
par
X
(t) = E
P
_
e
i<t,X>

, pour tout t = (t
1
, . . . , t
n
) R
n
, o` u < t, X >=

n
i=1
t
i
X
i
.
Denition I.9 Transformee de Laplace dun vecteur aleatoire
Soit X = (X
1
, . . . , X
n
) un vecteur aleatoire deni sur un espace probabilise
(, /, P). On appelle transformee de Laplace de la loi de X (ou de la mesure de
probabilite P
X
), la fonction /
X
(t) = E
P
_
e
<t,X>

, pour tout t = (t
1
, . . . , t
n
)
tel que lintegrale precedente est denie.
Denition I.10 fonction generatrice des moments dun vecteur aleatoire
Soit X = (X
1
, . . . , X
n
) un vecteur aleatoire deni sur un espace probabilise
(, /, P). On appelle fonction generatrice des moments conjoints du vec-
teur aleatoire X, la fonction
X
(t) denie par
X
(t
1
, . . . , t
n
) = E
P
_
e
t1X1+...+tnXn

,
pour tout (t
1
, . . . , t
n
) R
n
, tel que e
t1X1+...+tnXn
est P-integrable.
Denition I.11 fonction generatrice dun vecteur aleatoire
Soit X = (X
1
, . . . , X
n
) un vecteur aleatoire deni sur un espace probabilise
(, /, P). La fonction generatrice de X au point (u
1
, . . . , u
n
) est denie par
G
X
(u
1
, . . . , u
n
) = E
P
_
u
X1
1
u
X2
2
. . . u
Xn
n
_
.
Linjectivite de la transformee de Fourier reste vraie dans le cas vectoriel, ce
qui fournit le resultat suivant, vrai aussi pour la transformee de Laplace si elle
est denie sur un voisinage de 0.
Propriete I.4 Soit X et Y deux vecteurs aleatoires denis sur un espace pro-
babilise (, /, P). Si
X
=
Y
, alors P
X
= P
Y
.
17
Propriete I.5 Somme de deux variables independantes
Si X et Y sont deux variables aleatoires reelles denies sur un espace probabilise
(, /, P) independantes, alors :

X+Y
(t) =
X
(t)
Y
(t).
La propriete I.5 nous sera tr`es utile pour etudier les distributions composees, en
fournissant entre autres largument essentiel `a la preuve de la proposition I.3.
Theor`eme I.6 fonctions caracteristiques et independance
Soit X = (X
1
, . . . , X
n
) un vecteur aleatoire deni sur un espace probabilise
(, /, P). Une condition necessaire et susante pour que les composantes X
i
soient independantes est que la fonction caracteristique de X,
X
(t) soit le
produit des fonctions caracteristiques des X
i
,
Xi
(t
i
), pour tout t = (t
1
, . . . , t
n
)
de R
n
.
Theor`eme I.7 fonctions caracteristiques et independance
Soit X et Y deux vecteurs aleatoires denis sur un espace probabilise (, /, P)
`a valeurs respectivement dans R
n
et R
m
. X et Y sont independants si et seule-
ment si leur fonction caracteristique conjointe
(X,Y )
(u, v) (o` u u R
n
et
v R
m
) est egale au produit des fonctions caracteristiques de X et de Y ,

X
(u)
Y
(v), (u, v) R
n
R
m
.
Propriete I.6 lien entre le cas multivarie et le cas univarie
Soit X = (X
1
, . . . , X
n
) un vecteur aleatoire `a valeurs dans R
n
deni sur un
espace probabilise (, /, P). Alors
X
(t) =
t

X
(1).
Terminons par un recapitulatif important :
Theor`eme I.8 Soit X et Y deux variables aleatoires denies sur un espace
probabilise (, /, P) `a valeurs dans R. Lorsque ces quantites existent, si X et
Y sont independantes, alors

X+Y
(t) =
X
(t).
Y
(t)
M
X+Y
(t) = M
X
(t).M
Y
(t)
L
X+Y
(t) = L
X
(t).L
Y
(t)
G
X+Y
(t) = G
X
(t).G
Y
(t)
C
X+Y
(t) = C
X
(t) +C
Y
(t).
En particulier, la derni`ere egalite du theor`eme precedent nous permet en iden-
tiant avec les formules (2.3) de retrouver que si X et Y sont independantes,
alors Var (X +Y ) = Var (X) + Var (Y ), mais surtout de montrer que

3
(X +Y ) =
3
(X) +
3
(Y ),
et que cette formule ne se generalise pas pour k 4.
18
2.4.5 Lois usuelles
Exemples de fonctions caracteristiques pour des lois usuelles.
Distribution probabilites fonction caracteristique
X
(t)
Binomiale B(n, p) C
k
n
p
k
q
nk
_
(1 p) +pe
it
_
n
Poisson e

k
k!
exp
_

_
e
it
1
_
Binomiale negative C
r1
k1
p
r
q
kr
, k r
Distribution densite fonction caracteristique
X
(t)
Uniforme 1I
[0,1]
(x)
e
it
1
it
Normale centree reduite (2)
1/2
e
x
2
/2
e
t
2
/2
Normale (2
2
)
1/2
e
(x)
2
/(2)
2
e
it
2
t
2
/2
Gamma

p
(p)
e
x
x
p1
_
1
1it
_
p
Cauchy
1
(x
2
+1)
e
|t|
Laplace
1
2
e
|x| 1
1+t
2
2.4.6 Lois composees
Proposition I.3 Pour
S =
N

i=1
Y
i
,
avec les hypoth`eses dindependance,
M
S
(s) = G
N
(M
Y
(s)). (2.4)
On verra egalement des proprietes des fonctions generatrices des lois melanges
(voir section 2.6). On en deduit le resultat suivant sur les moments des lois
composees :
Proposition I.4 (A CORRIGER, faire cas general) Soit
S =
N

i=1
W
i
,
Pour r, t > 0, si G
W
est la fonction generatrice de W
1
,
h(r, t) = E
_
r
S
_
= e
(t)(1G
W
(r))
,
do` u
E (S) =
d
dr
_
E
_
r
S
_
|r=1
= tG

W
(1) = (t)E(W
1
)
et
V ar (S) =
d
2
dr
2
_
E
_
r
S
_
|r=1
= (t)E
_
W
2
1
_
.
19
2.5 Famille et algorithme de Panjer
On demontre ici sous la forme dun probl`eme que les lois veriant la relation
de Panjer (2.5) sont exactement les lois binomiales, de Poisson, et binomiales
negatives, et que pour les distributions composees, i.e. de variables aleatoires du
type
S =
N

i=1
Y
i
,
lorsque N appartient `a la famille de Panjer, et que les Y
i
sont `a valeurs dans
dN

, o` u d > 0, on peut calculer directement avec lalgorithme de Panjer (2.6)


les masses de probabilite de S.
2.5.1 Etude et caracterisation des distributions veriant
la relation de recurrence de Panjer
On represente le nombre de sinistres rencontres par une compagnie das-
surances sur une periode par une variable aleatoire discr`ete N, `a valeurs dans
N, et decrite par les p
k
= P(N = k) pour k N. Parmi ces distributions on
sinteressera ici `a celles veriant la relation de recurrence de Panjer :
a < 1, b R, k N

, p
k
=
_
a +
b
k
_
p
k1
(2.5)
Le but de cette partie est de caracteriser les distributions veriant (2.5).
Rappelons que la loi de Poisson de param`etre est decrite par
k N, p
k
= e

k
k!
,
et que la loi binomiale de param`etres n N

et p ]0, 1[ est decrite par


0 k n, p
k
=
_
n
k
_
p
k
(1 p)
nk
et p
k
= 0 pour k > n.
1. Montrer que si N verie (2.5) et que a = 0, alors N suit une loi de Poisson
dont on precisera le param`etre.
2. On denit la distribution binomiale negative de param`etres > 0 et
p ]0, 1[ par
k N, p
k
=
_
+k 1
k
_
(1 p)

p
k
3. Calculer sa moyenne et sa variance en fonction de et de p.
4. Comment pouvez-vous interpreter cette distribution `a partir dune experience
realisee avec succ`es avec probabilite p ?
20
5. Quelle distribution obtient-on lorsque = 1 ?
6. Montrer que dans le cas = 1 la distribution obtenue est sans memoire,
cest-`a-dire que P(N > n +m[N > n) = P(N > m) pour tous m, n N.
7. Toujours dans le cas = 1, montrer que N peut etre vu comme la partie
enti`ere dune variable aleatoire absolument continue sans memoire que lon
precisera.
8. Lorsque N verie la relation de recurrence (2.5) avec a ,= 0, montrer que
pour tout k N,
p
k
= p
0
a
k
k!
k1

i=0
( +i)
pour un certain `a preciser.
9. Montrer que pour tout k N,
p
k
=
_
+k 1
k
_
(1 p)

a
k
(1 a)

10. En deduire selon le signe de a la distribution de N.


11. Conclure que les distributions veriant la relation (2.5) sont exactement
les distributions de Poisson, binomiales et binomiales negatives.
12. Parmi ces 3 types de distributions, lequel choisiriez-vous pour modeliser
N si des observations vous montraient que la variance empirique de N est
beaucoup plus grande que la moyenne empirique de N?
2.5.2 Algorithme de Panjer
On sinteresse maintenant `a un montant compose
X =
N

k=1
U
k
o` u N et les U
k
, k N sont des variables aleatoires `a valeurs enti`eres. De plus
les U
k
sont independantes, identiquement distribuees, de loi decrite par les q
k
=
P(U
i
= k), et independantes de N. La somme est nulle par convention si N =
0. Denissons de plus lesperance dune variable aleatoire Y `a valeurs dans N
conditionnellement `a un evenement A par :
E(Y [A) =

kN
kP(Y = k[A)
Le but de cette partie est de demontrer la validite de lalgorithme de Panjer qui
permet dobtenir recursivement la loi de X.
1. Montrer que pour j, k N et n N

,
E
_
U
1
[
n

i=1
U
i
= j
_
=
j
n
21
2. Denissons pour n, j N les probabilites q
n
j
= P(U
1
+ + U
n
= j).
Montrer que pour k, j N,
P(U
1
= k[
n

i=1
U
i
= j) =
q
k
q
(n1)
jk
q
n
j
3. Supposons dans la suite que N verie la relation (2.5). Soit r
k
= P(X = k)
pour k N. Calculer r
0
en fonction des q
k
et des p
k
.
4. En utilisant les questions precedentes, demontrer la formule recursive de
lalgorithme de Panjer :
j N

, r
j
=
j

k=1
_
a +
bk
j
_
q
k
r
jk
(2.6)
5. Exemple : pour n N on denit la transformation stop-loss du cumul X
par
n
= E[(X n)
+
], o` u (X n)
+
= max(X n, 0). Obtenir
n
en
fonction des r
k
.
6. Demontrer une relation de recurrence entre les
n
. (On pourra faire inter-
venir dans cette relation de recurrence les F
X
(n) = P(X n).)
7. Expliquer alors comment calculer les
n
.
2.5.3 Comment utiliser lalgorithme de Panjer pour
des v.a. positives ou nulles generales ?
En pratique, deux types de probl`emes risquent de se poser : la loi de la
variable aleatoire representant le co ut dun sinistre peut etre absolument
continue, ou peut avoir un atome en 0.
Il est facile deliminer les sauts damplitude nulle dans le mod`ele Poisson
compose.
Pour des v.a. `a densite, il faut discretiser pour obtenir une v.a. `a valeurs
dans N

, en respectant la moyenne, ou en respectant une r`egle de pru-


dence qui depend du probl`eme considere.
2.6 Heterogeneite dans le mod`ele collectif,
lois melanges
Lintroduction du melange sert `a prendre en compte lheterogeneite du
portefeuille dassurance, et a pour eet principal daugmenter la variance
du montant cumule des sinistres.
2.6.1 Proprietes generales des lois melange
Soit X une variable aleatoire suivant une certaine loi L `a un ou plusieurs
param`etres, et soit le param`etre sur lequel va porter le melange (dans
22
la modelisation, on suppose que lheterogeneite du portefeuille porte prin-
cipalement sur ce param`etre). On dit que Y suit une loi L-melange de loi
de melange sur le param`etre si
Y L(),
o` u le param`etre est donc aleatoire. La variable aleatoire de melange
est en general une variable aleatoire de moyenne 1 (de mani`ere `a assurer
que la moyenne reste preservee, i.e. E(X) = E(Y )), et `a valeurs dans
un ensemble A R tel que pour A, soit une valeur possible du
param`etre de la loi L. La restriction E() = 1 nest pas automatique et
depend des auteurs et du probl`eme.
Plus generalement, on peut adopter la denition suivante :
Denition I.12 Soit une variable aleatoire (de fonction de repartition
F

) et A R tel que P( A) = 1, et (F(. [ ))


A
une collection de
fonctions de repartitions pour A R. On dit que X suit un melange de
lois (avec comme loi de melange) si pour tout x R, pour tout A,
P(X x [ = ) = F(x [ ).
Dans ce cas, pour tout x R,
F
X
(x) = P(X x) = E
_
E
_
1
{Xx}
[
_
=
_
A
F (x [ ) dF

().
Prenons tout de suite deux exemples, pour eclaircir cette notion, les lois
Poisson-melange, qui seront etudiees en detail dans la sous-section sui-
vante, et les lois binomiale-melange. On dit que N suit une loi Poisson-
melange si
N Poi (),
o` u est une variable aleatoire positive et de moyenne 1 (de mani`ere `a
assurer que est toujours positif, et que E(N) = ).
On dit que N suit une loi binomiale-melange si
N Bin(n, p),
o` u est une variable aleatoire `a valeurs dans [0, 1/p] et de moyenne 1 (de
mani`ere `a assurer que p est toujours entre 0 et 1, et que E(N) = np).
Une formulation plus correcte de ces deux exemples aurait consiste `a dire
que sachant que = , N suit une certaine loi de param`etres dependant
de la valeur de (voir la denition I.14 dans le cas poissonien).
Remarquons quon a dej`a vu un exemple (certes peu representatif de
lusage habituel des lois melanges) de loi melange dans un chapitre precedent.
Le mod`ele collectif, avec N Poi () et W Exp (), fournit un exemple
de loi Gamma-melange avec une loi de Poisson comme loi de melange : en
eet si N = n, la charge sinistre globale
S (, n),
23
et donc S suit une loi Gamma-melange
S (, N) .
Dans ce cas, remarquons quon nimpose pas E(N) = 1. La moyenne et la
variance de S quon obtenait dans le mod`ele collectif correspondent `a un
cas particulier du resultat general suivant, dont la demonstration est basee
sur les notions desperance de variance conditionnelles, et sur la formule
de decomposition de la variance.
Proposition I.5 Soit X une variable aleatoire suivant un melange de lois
(avec comme loi de melange). Alors
E(X) = E (E [X [ ]) .
Var (X) = E (Var [X [ ]) + Var (E [X [ ]) .
Preuve :
voir page 128 les rappels sur la variance conditionnelle.

2.6.2 Lois Poisson-melange


Les lois Poisson-melange forment une classe tr`es importante et tr`es utilisee
des lois melange. La loi de Poisson etant equidispersee, les lois Poisson-
melange (avec une loi de melange non triviale) sont de fait surdispersees.
Denition I.13 Lois Poisson-melange
Soit une variable aleatoire (de fonction de repartition F

) et A
]0, +[ tel que P( A) = 1. On dit que N suit une loi Poisson-melange
de param`etres (, ) (avec comme loi de melange) si E() = 1 et si
pour tout n N, pour tout A,
P(N = n [ = ) = e

()
n
n!
.
Exercice I.1 (Exemple simple en lien avec la theorie de la credibilite
(voir cours de Pierre Therond) et les processus de Poisson (voir cha-
pitre 6)) Mod`ele `a bons et mauvais conducteurs :
On suppose quil y a exactement 2 sortes de conducteurs : les bons conduc-
teurs qui ont un accident tous les 10 ans en moyenne et les mauvais
conducteurs qui ont un accident tous les 5 ans en moyenne. Soit B levenement
etre un bon conducteur et M levenement etre un mauvais conducteur.
Supposons quil y a autant de bons que de mauvais conducteurs, si bien
que P(B) = P(M) =
1
2
.
(a) On modelise le temps en annees jusquau prochain accident dun bon
(resp. mauvais ) conducteur par une variable aleatoire exponentielle
de param`etre
B
(resp.
M
). Quelles sont les valeurs que lon doit
prendre pour
B
et
M
?
24
(b) On suppose ou on demontre que le nombre de sinistres pendant un
temps t suit une loi de Poisson de param`etre t si le temps entre deux
sinistres suit une loi exponentielle de param`etre . De plus dans toute
cette partie on suppose que le co ut dun sinistre est deterministe egal
`a c. A laide des probabilites totales calculer la prime pure quun
assureur pourrait faire payer `a un nouvel assure pour un an, cest-`a-
dire = cE(N) o` u N est le nombre de sinistres subis par lassures
en 1 an.
(c) Sachant que lassure na pas eu daccident la premi`ere annee, calculer
la nouvelle probabilite quil soit un bon conducteur : P(B[N = 0).
(d) Calculer P(B[N = k) pour k = 1, 2, 3, 4.
(e) Comparez ces probabilites `a P(B). Quobservez-vous ? Comment pouvez-
vous lexpliquer ?
Apr`es cet exercice, voici les proprietes les plus importantes des lois Poisson
melange.
Proposition I.6 Identication des lois Poisson-melange
Soit N
1
et N
2
deux variables aleatoires suivant des lois Poisson melange
de param`etres respectifs (,
1
) et (,
2
). N
1
et N
2
ont meme loi equivaut
alors `a
1
et
2
ont meme loi.
Preuve :
La demonstration de cette proposition est immediate dapr`es la propo-
sition I.9 et le fait que la fonction generatrice sut `a caracteriser une
loi.

Proposition I.7 Moyenne et variance des lois Poisson-melange


Soit N une variable aleatoire suivant une loi Poisson melange de pa-
ram`etres (, ). Alors
E(N) = et Var (N) = (1 +Var ()) .
Preuve :
Demonstration directe avec la proposition generale I.5 et la moyenne et la
variance dune loi de Poisson.

Le melange augmente donc la variance, qui, contrairement au mod`ele de


Poisson (sans melange), devient strictement plus grande que la moyenne,
ce qui correspond au phenom`ene de surdispersion. La proposition precedente
nous dit quapr`es melange les valeurs prises par la variable aleatoire sont
en moyenne plus eloignees de la moyenne quavant le melange. Dans le cas
des lois de Poisson melange, le theor`eme suivant nous donne encore plus
dinformation : les masses de probabilite sont augmentees par le melange
en-dehors dun intervalle donne par deux valeurs t
1
< t
2
, et diminuent
pour les valeurs comprises entre t
1
et t
2
.
25
Proposition I.8 Theor`eme des deux croisements de Shaked (1980)
Soit N une variable aleatoire suivant une loi Poisson melange de pa-
ram`etres (, ). Alors il existe deux entiers 0 k
1
< k
2
tels que
P(N = n) e

()
n
n!
pour n k
1
et pour n > k
2
et
P(N = n) e

()
n
n!
pour k
1
< n k
2
.
Preuve :
c(k) =
P(N = k)
e

k
/k!
1
=
_
+
0
e

_
k
f

()d 1
c est convexe en k comme barycentre de fonctions convexes, car pour tout
x > 0, la fonction
x

= e
ln(x)
est convexe. c peut donc sannuler et changer de signe au plus deux fois.
c doit avoir au moins un changement de signe, sinon on aurait E(N) >
ou E(N) < . Elle ne peut pas en avoir un seul car c(0) = e

1 > 0 et
lim
n+
c(n) = +.

Proposition I.9 Melange et fonctions generatrices


Soit N une variable aleatoire suivant une loi Poisson melange de pa-
ram`etres (, ), G
N
(.) = E(.
N
) la fonction generatrice de N, et L

(.) =
E
_
e
.
_
la transformee de Laplace de . Alors pour x 0,
G
N
(x) = L

((1 x)).
Preuve :
Il sut de se souvenir que pour x 0, si N

suit une loi de Poisson de


param`etre

,
G
N
(x) = e

(x1)
pour obtenir en conditionnant par le resultat souhaite :
G
N
(x) =
_
A
e
(x1)
f

()d = L

((1 x)).

26
Proposition I.10 Soit N une variable aleatoire suivant une loi Poisson
melange de param`etres et
(, ).
Alors
N T()
suit une loi binomiale negative :
N B^
_
,

+
_
.
Preuve :
Exercice : calculer la fonction generatrice des probabilites de N, et re-
connatre celle dune loi binomiale negative.

Exercice I.2 Soit N


1
et N
2
deux variables aleatoires independantes sui-
vant des lois Poisson-melange de param`etres respectifs (
1
,
1
) et (
2
,
2
).
Alors N
1
+N
2
suit une loi Poisson-melange de param`etres
_

1
+
2
,
1

1
+
2
(
1

1
+
2

2
)
_
.
2.6.3 Melange de lois exponentielles
On peut aussi obtenir la loi de Pareto de deuxi`eme esp`ece comme melange
de lois exponentielles :
Proposition I.11 Soit
X Exp ()
avec
(, t).
Alors pour x 0,
P(X > x) =
_
t
x +t
_

,
i.e. X suit une loi de Pareto de deuxi`eme esp`ece de param`etres t et .
Preuve :
Exercice : il sut decrire la formule classique du melange.

Proposition I.12 La fonction de queue



F de X Exp () est donnee
au point x 0 par

F(x) = P(X > x) =


_
+
0
e
x
f

()d = E
_
e
x
_
et correspond donc `a la transformee de Laplace de la variable aleatoire
positive .
27
2.6.4 Lois composees melange
Les lois composees melange sont juste des lois melange pour lesquelles la loi
sous-jacente est une loi composee quelle que soit la valeur du param`etre de
melange . On a donc exactement les memes proprietes que precedemment.
Voyons ce que cela donne pour les loi Poisson-composees melange.
Denition I.14 Lois Poisson-composees melange
Soit une variable aleatoire (de fonction de repartition F

) et A
]0, +[ tel que P( A) = 1. Soit W une variable aleatoire. On dit que
S suit une loi Poisson-composee melange de param`etres (, W, ) (avec
comme loi de melange) si E() = 1 et si pour tout x R, pour tout
A,
P(S x [ = ) = P
_
N

i=1
W
i
x
_
,
o` u N

suit une loi de Poisson de param`etre , et o` u les (W


i
)
i1
forment
une suite de variables aleatoires independantes, identiquement distribuees,
de meme loi que W, et independantes de N

, et avec la convention que la


somme ci-dessus est nulle si N

= 0.
Proposition I.13 Moyenne et variance des lois Poisson-composees
melange
Soit S une variable aleatoire suivant une loi Poisson-composee melange
de param`etres (, W, ), avec W et de carre integrable. Alors
E(S) = E(W) et Var (S) = E(W
2
) + (E(W))
2
Var ().
Preuve :
Demonstration directe avec la proposition generale I.5 et la moyenne et la
variance dune loi Poisson-composee.

La variance dune loi Poisson-composee melange peut se reecrire sous la


forme suivante
Var (S) = Var (W) +[E(W)]
2
+ (E(W))
2
Var ().
Exercice : interpreter cette decomposition de la variance de la charge si-
nistre globale.
Remarque : on aurait pu introduire de lheterogeneite dans la frequence et
dans le co ut des sinistres, en denissant une suite de variables aleatoires
(W

)
A
. Toutefois, dans la litterature, il ny a en general pas de melange
sur les co uts dans ce qui est appele loi Poisson-composee melange.
Proposition I.14 Convergence en loi
Soit (S

)
>0
une collection de variables aleatoires telle que pour > 0, S

28
suit une loi Poisson-composee melange de param`etres (, W, ). Supposons
de plus que W et sont de carre integrable. Alors
S

en loi
quand +.
Preuve :
exercice.

Notons que contrairement au cas sans melange, on na pas de convergence


vers une loi normale (eventuellement en renormalisant) avec un argument
du type theor`eme central limite, mais vers la loi de melange elle-meme.
29
Chapitre 3
Approximation du
mod`ele individuel par le
mod`ele collectif
En seances de TD seront abordees diverses majorations de lerreur faite en
approchant le mod`ele individuel par le mod`ele collectif. On peut se referer
par exemple `a Charpentier et Denuit (2004) page 285.
30
Chapitre 4
Complements sur la
charge sinistre
4.1 Normal Power, Gamma de Bowers
Voir exercice en seance de TD, et par exemple Partrat et Besson (2004)
pages 542 et suivantes, Charpentier et Denuit (2004) page 210, ou le po-
lycopie de Pierre Therond sur le mod`ele collectif.
4.2 FFT
Voir exercice en seance de TD et par exemple page 141 de Rolski et al.
(1999).
31
Deuxi`eme partie
Processus de Poisson
32
Ce chapitre est utile pour le cours de mod`ele de durees de Frederic Plan-
chet, letude du mod`ele `a chocs communs (voir partie 30), les mod`eles
structurels et `a intensite en theorie du risque de credit, et bien s ur le
cours de theorie de la ruine (voir partie III).
33
Chapitre 5
Rappels autour de la loi
exponentielle
5.1 Denition et premi`eres proprietes
Denition II.1 On dit quune variable aleatoire X suit la loi exponen-
tielle de param`etre > 0 si sa fonction de repartition est donnee pour
x R par
F
X
(x) = (1 e
x
)1
R
+(x).
On utilisera alors la notation X Exp ().
Proposition II.1 Soit X Exp (). Alors, X admet pour densite f
X
donne pour x R par
f
X
(x) = e
x
1
R
+(x).
De plus, X est de carre integrable et
E(X) =
1

et E
_
X
2
_
=
1

2
.
Preuve :
On obtient les deux premiers moments par une simple integration par
parties.

La proposition suivante sera tr`es utilisee en theorie de la ruine, car elle


permettra de dire quun processus de Poisson compose perd sa memoire `a
un instant bien choisi, ou dutiliser des methodes de martingales lorsque
les co uts de sinistres suivent une loi exponentielle (voir partie III).
Proposition II.2 La loi exponentielle poss`ede la propriete de perte de
memoire : pour tous s, t 0
P(X > t +s [ X > s) = P(X > t).
34
On peut demontrer que la loi exponentielle est la seule loi continue sur
R
+
`a avoir cette propriete.
Theor`eme II.1 La seule loi continue sur R
+
`a verier la propriete de
perte de memoire est la loi exponentielle. La seule loi `a valeurs dans N

`a
verier la propriete de perte de memoire est la loi geometrique.
Preuve :
Exercice, voir Rolski et al. (1999).

5.2 Minimum de variables aleatoires expo-


nentielles independantes
Soit n 1 et X
1
, . . . , X
n
des variables aleatoires independantes telles que
pour 1 i n,
X
i
Exp(
i
)
avec
i
> 0. En risque de defaut, cette situation pourrait interesser un
investisseur pouvant acheter des obligations de n dierentes compagnies.
Dans les mod`eles `a intensite (voir chapitre 26.3 sur le risque de credit), on
modelise le temps au bout duquel la i-`eme compagnie fait defaut par le
premier instant de saut dun processus de Poisson non homog`ene (qui sera
deni chapitre 6). Les variables aleatoires X
i
ne sont dans ces mod`eles
en general pas independantes. Toutefois, an dinterpreter les resultats
suivants, on peut sinteresser au cas particulier de n processus de Poisson
homog`enes independants, ce qui nous donne (comme nous le verrons dans
la partie 6) n premiers instants de sauts independants et suivant des lois
exponentielles. Il existe des produits nanciers du type rst-to-default swap
dont le payo depend de la survenance ou non dun evenement defavorable
avant une date t sur un des n actifs. Un investisseur serait entre autres
interesse par connatre la loi du premier temps de defaut, cest-`a-dire de
T = min(X
1
, . . . , X
n
),
et par savoir lequel des actifs risque de faire defaut en premier. On peut
repondre tr`es facilement `a ces deux questions pour des variables aleatoires
independantes et de lois exponentielles.
Proposition II.3 Soit n 1 et X
1
, . . . , X
n
des variables aleatoires independantes
telles que pour 1 i n,
X
i
Exp(
i
).
Alors
T =
n
min
i=1
(X
i
) Exp
_
n

i=1

i
_
.
35
Preuve :
P(T > t) = P(X
1
> t, . . . , X
n
> t) =
n

i=1
P(X
i
> t) = e
(
P
n
i=1
i)t
,
ce qui montre que
T Exp
_
n

i=1

i
_
.

Quel actif fait defaut en premier ?


Considerons le cas n = 2.
P(X
1
< X
2
) =
_
+
0
f
X1
(s)P (X
2
> t +s [ X
1
= s)
=
_
+
0

1
e
1s
e
2s
ds
=

1

1
+
2
,
car
_
+
0
(
1
+
2
)e
(1+2)s
ds = 1.
On montre de la meme mani`ere la proposition suivante :
Proposition II.4 Pour n 1, et pour 1 i n, la probabilite que X
i
soit le plus petit est donnee par
P (min(X
1
, . . . , X
n
) = X
i
) =

i

1
+ +
n
.
Soit I la variable aleatoire `a valeurs dans [1, n], denie par
I = i = min(X
1
, . . . , X
n
) = X
i
.
Supposons que n = 2 et que
1
= 100000 et que
2
= 0.00001 (ce qui
correspond `a EX
1
= 1/100000 et EX
2
= 100000). On pourrait penser que
si min(X
1
, X
2
) etait egal `a 200000, la probabilite que I = 2 serait plus
elevee que si min(X
1
, X
2
) etait egal `a 0.00002. En fait, ce raisonnement
est faux, et au contraire, on a le resultat suivant :
Proposition II.5 Les variables aleatoires I et
T = min(X
1
, . . . , X
n
)
sont independantes.
36
Preuve :
Calculons la densite jointe de I et T (o` u la densite I correspond `a la
densite discr`ete) : pour 1 i n et t > 0,
f
(I,T)
(i, t) = f
Xi
(t)P (j ,= i, X
j
> t)
=
i
e
it
.

j=i
e
jt
=

i

1
+ +
n
.(
1
+ +
n
)e
(1++n)t
= f
I
(i).f
T
(t)
dapr`es les propositions II.3 et II.4.

5.3 Lois exponentielles multivariees


En risque de credit, les instants de defaut de dierentes entreprises sont
a priori loin detre independants. On sinteresse donc naturellement aux
lois multivariees dont les marginales sont exponentielles. Une fois les lois
marginales xees, on obtient la loi jointe par lintermediaire dune copule.
Cette notion sera abordee en detail dans les chapitres 28.1 `a 28.5. Les lois
dont les marginales sont des lois exponentielles sont souvent appelees lois
de Marshall-Olkin, ce qui peut aussi concerner uniquement une partie de
ces lois. On donnera ici trois exemples de familles de lois dont les lois mar-
ginales sont des lois exponentielles, et qui fournissent autant dexercices
de maniement sur les lois exponentielles et sur les lois jointes :
les lois bivariees de Marshall-Olkin : ce sont celles des couples
X = (X
1
, X
2
) = (min(Y
1
, Y ) , min(Y
2
, Y )) ,
o` u Y
1
, Y
2
et Y sont des variables aleatoires independantes de lois ex-
ponentielles de param`etres respectifs
1
,
2
et . Dapr`es la proposi-
tion II.3, X
i
Exp (
i
+) pour i = 1, 2, et de plus
min(X
1
, X
2
) Exp (
1
+
2
+)
puisque
min(X
1
, X
2
) = min(X
1
, X
2
, X).
Sa fonction de queue de distribution bivariee est donnee par

F
X
(x
1
, x
2
) = P(X
1
> x
1
, X
2
> x
2
) = exp((
1
x
1
+
2
x
2
+min(x
1
, x
2
)))
pour x
1
, x
2
> 0. En particulier, pour h > 0, et pour x
1
, x
2
> 0,
P (X
1
> x
1
+h, X
2
> x
2
+h [ X
1
> x
1
, X
2
> x
2
) = P(X
1
> h, X
2
> h),
37
ce qui correspond ` a une propriete de perte de memoire pour une loi
bivariee. La notion de perte de memoire nest ici plus unique, nous en
verrons une autre denition possible avec la famille de lois suivante.
Ce cadre peut etre etendu aux lois multivariees en general, et il est
possible dobtenir explicitement la forme de la fonction copule associee
(voir chapitre 28.1).
les lois exponentielles multivariees de Gumbel : une autre facon de denir
la perte de memoire est de le faire uniquement sur les accroissements
dune des marginales : pour h > 0, et pour x
1
, x
2
> 0,
P (X
1
> x
1
+h [ X
1
> x
1
, X
2
> x
2
) = P(X
1
> h [ X
2
> x
2
),
et
P (X
2
> x
2
+h [ X
1
> x
1
, X
2
> x
2
) = P(X
2
> h [ X
1
> x
1
).
Ceci est verie pour les lois bivariees de Gumbel, denies par la fonction
de repartition jointe
F
X
(x
1
, x
2
) = P(X
1
> x
1
, X
2
> x
2
) = 1 e
x1
e
x2
+e
x1x2x1x2
.
Lunique param`etre est [0, 1] et aura un impact `a la fois sur les
marginales et sur la dependance.
les lois exponentielles de Basu-Block, sont donnees par

F(x
1
, x
2
) = exp(
1
x
1

2
x
2
max(x
1
, x
2
))
+

1
+
2
[exp(
1
x
1

2
x
2
max(x
1
, x
2
)) exp((
1
+
2
+max(x
1
, x
2
)))]
pour x
1
, x
2
> 0. Comme les lois de Marshall-Olkin bivariees, elles sont
denies par trois param`etres
1
,
2
et > 0, et verient la propriete
suivante :
min(X
1
, X
2
) Exp (
1
+
2
+)
(ce qui est aussi verie par les lois de Marshall-Olkin).
5.4 Sommes de variables aleatoires exponen-
tielles independantes
Nous verrons dans le chapitre 6 que la loi du temps entre deux sauts dun
processus de Poisson homog`ene dintensite > 0 est la loi exponentielle
de param`etre . En theorie de la ruine, chaque saut dun processus de
Poisson correspond `a un sinistre (accident de voiture, incendie, ...) que
la compagnie dassurances va devoir indemniser. Si on modelise par X
1
linstant de survenance du premier sinistre, puis par X
2
le temps ecoule
entre le premier et le deuxi`eme sinistre, et plus generalement par X
i
le
38
temps ecoule entre le i-`eme et le (i + 1)-i`eme sinistre, et si lon suppose
que les (X
i
)
i1
sont des variables aleatoires independantes, identiquement
distribuees et de loi exponentielle de param`etre , quelle est la loi de la
date de survenance du n-`eme sinistre ?
Proposition II.6 Soit n 1 et X
1
, . . . , X
n
des variables aleatoires independantes,
identiquement distribuees et de loi exponentielle de param`etre > 0. Alors
S
n
= X
1
+ +X
n
suit une loi Gamma de param`etres (n, ), de densite
f
Sn
(x) =
x
n1

n
e
x
(n 1)!
1
R
+(x).
Preuve :
La demonstration se fait par recurrence sur n.

Proposition II.7 Sous les hypoth`eses de la proposition precedente,


E(S
n
) =
n

et Var (S
n
) =
n

2
.
Preuve :
Immediat dapr`es la proposition II.1, car les X
i
sont i.i.d..

On parle egalement de loi dErlang de param`etres (n, ). Les lois dErlang


correspondent `a la sous-famille des lois Gamma (, ) pour lesquelles
N

. Rappelons que dans le cas general, une variable aleatoire X suit une
loi Gamma de param`etres et strictement positifs si elle admet pour
densite :
f
X
(x) =
x
1

e
x
()
1
R
+(x), (5.1)
o` u, pour > 0,
() =
_
+
0
t
1
e
t
dt.
On peut denir des lois Gamma multivariees `a partir de variables aleatoires
exponentielles independantes. La famille des lois de Cherian est denie par
(X
1
, X
2
) = (Y
1
+Y, Y
2
+Y ),
o` u Y
1
, Y
2
et Y sont des variables aleatoires independantes exponentielles
de param`etres respectifs
1
,
2
et . Les lois marginales sont des lois
Gamma(2, ) si
1
=
2
= . Dans le cas general, les lois marginales
ne sont pas des lois Gamma, mais des lois phase-type, qui correspondent
39
au temps datteinte dun etat absorbant par un processus de Markov `a
nombre detats nis. La densite jointe est alors donnee sur R
+
R
+
par
f
X
(x
1
, x
2
) =
e
(x1+x2)
(
1
)(
2
)()
_
min(x1,x2)
0
(x
1
t)
11
(x
2
t)
21
t
1
dt.
Les sommes de variables aleatoires exponentielles independantes verient
egalement des proprietes conditionnelles liees aux statistiques dordre, ce
que nous verrons au chapitre suivant (voir en particulier le theor`eme II.3).
40
Chapitre 6
Processus de Poisson :
denition et premi`eres
proprietes
6.1 Processus de Poisson homog`ene
Il y a plusieurs mani`eres equivalentes de denir un processus de Poisson
homog`ene. Nous adopterons celle qui permet de construire facilement les
trajectoires du processus, et qui se generalise aux processus dits de renou-
vellement (voir chapitre 11). Neanmoins, la seconde, qui sera enoncee dans
le theor`eme II.2, se generalisera plus facilement aux processus de Poisson
inhomog`enes (voir chapitre 6.2) et aux processus de Poisson en dimensions
superieures.
Denition II.2 Processus de Poisson homog`ene
Soit (X
n
)
nN
une suite de variables aleatoires independantes, identique-
ment distribuees, et de loi exponentielle de param`etre > 0. Pour n 1,
notons S
n
= X
1
+X
2
+... +X
n
, et S
0
= 0. Le processus (N(t))
t0
, deni
par
N(t) =

n1
1
{Snt}
= nombre de S
n
entre 0 et t = supn, S
n
t
est appele processus de Poisson (homog`ene) dintensite .
Remarque : Rappelons que, dapr`es la proposition II.6, S
n
suit une loi
Gamma de param`etres n et , (n, ), de densite donnee par
f
Sn
(s) = e
s

n
s
n1
(n 1)!
1
R
+(s)ds.
41
Par des integrations par parties successives, on peut montrer que la fonc-
tion de repartition de S
n
est donnee pour x R par
F
Sn
(x) = 1
n1

k=0
e
x
(x)
k
k!
1
R
+(x). (6.1)
Remarquons egalement que
N(t) = n = S
n
t < S
n+1
(6.2)
et que
N(t) n = S
n
t. (6.3)
Si lon reprend lexemple de la page 38, dans lequel X
i
represente le temps
entre le i-`eme et le (i +1)-`eme sinistre, S
n
represente la date doccurrence
du n-`eme sinistre, et N(t) represente le nombre de sinistres survenus avant
la date t. Lequation (6.2) dit que le nombre de sinistres survenus avant
t est egal `a n si et seulement si le n-`eme sinistre a eu lieu avant t, et
le n + 1-`eme apr`es t. Lequation (6.3) dit simplement que le nombre de
sinistres survenus avant t est superieur ou egal `a n si et seulement si le
n-`eme sinistre a eu lieu avant t. En utilisant les equations (6.1) et (6.3),
on comprend maintenant pourquoi le processus est dit de Poisson et non
exponentiel. En eet, pour n 0 et t > 0,
P (N(t) = n) = P (N(t) n) P (N(t) n + 1)
= P (S
n
t) P (S
n+1
t)
=
_
1
n1

k=0
e
t
(t)
k
k!
_

_
1
n

k=0
e
t
(t)
k
k!
_
= e
t
(t)
n
n!
,
ce qui montre le lemme suivant :
Lemme II.1 Soit N(t) un processus de Poisson homog`ene de param`etre
. Pour tout t > 0, N(t) suit une loi de Poisson de param`etre t.
Rappelons quelques proprietes importantes de la loi de Poisson qui vont
nous servir (voir le chapitre 2 pour les demonstrations) :
Lemme II.2 Soit X une variable aleatoire suivant une loi de Poisson de
param`etre > 0.
Sa fonction generatrice est donnee pour t > 0 par
G
X
(t) = E
_
t
X
_
= e
(1t)
.
42
Ses deux premiers moments valent
E(X) = Var (X) = .
Cette propriete, dite dequidispersion (moyenne = variance) est tr`es
importante, car elle est relativement facile `a verier empiriquement, et
permettra de conrmer ou de mettre en doute la pertinence du mod`ele
Poisson-compose (voir chapitres 2 et 7).
Si Y suit une loi de Poisson de param`etre > 0 et est independante de
X, alors X +Y suit une loi de Poisson de param`etre +.
Denition II.3 Processus `a accroissements stationnaires, `a ac-
croissements independants
On dit quun processus (X(t))
t0
est `a accroissements independants si
pour tout n 2, pour tous 0 t
1
< t
2
< < t
n
, les variables
aleatoires
X(t
1
), X(t
2
) X(t
1
), . . . , X(t
n
) X(t
n1
)
sont independantes.
On dit quun processus (X(t))
t0
est `a accroissements stationnaires si
pour tout n 2, pour tous 0 t
1
< t
2
< < t
n
et pour h 0, la loi
de
(X(t
2
+h) X(t
1
+h), . . . , X(t
n
+h) X(t
n1
+h))
ne depend pas de h.
Remarquons que si (X(t))
t0
est `a accroissements independants, alors
X(t) est `a accroissements stationnaires si et seulement si pour tout s > 0,
la loi de X(t +s) X(t) ne depend pas de t, et est donc la meme que celle
de X(s) X(0).
Nous pouvons maintenant enoncer le theor`eme II.2, qui contient une deuxi`eme
mani`ere de denir un processus de Poisson et qui montre au passage quelle
est bien equivalente `a la denition II.2 que nous avions choisie.
Theor`eme II.2 Proprietes caracteristiques dun processus de Pois-
son (1)
(a) N(0) = 0 presque s urement.
(b) t > s, N(t) N(s) suit une loi de Poisson de param`etre (t s)
(en particulier, (N(t))
t0
est un processus `a accroissements station-
naires).
(c) (N(t))
t0
est `a accroissements independants.
Reciproquement, tout processus (N(t))
t0
qui verie les points 1 `a 3 est
un processus de Poisson homog`ene dintensite .
Preuve :
Exercice (voir Durrett (1999) page 132 et Rolski et al. (1999)).
43

Ce theor`eme explique la denomination processus de Poisson. Neanmoins, il


ne sagit pas des seules proprietes caracteristiques du processus de Poisson
homog`ene. Les deux autres caracteristiques principales sont la repartition
uniforme des sauts une fois leur nombre connu, et le fait que lorsque t
0, la probabilite quil y ait un saut dans lintervalle de temps [0, t] est
equivalente `a t et la probabilite quil ny ait pas de saut `a 1 t.
Avant de resumer tout cela dans le theor`eme II.3, rappelons la denition
et les proprietes des statistiques dordre, ou lois de Dirichlet, dont nous
allons avoir besoin.
Denition II.4 Soit n 1 et (U
1
, . . . , U
n
) n variables aleatoires independantes
uniformement distribuees sur un intervalle ni [a, b]. Notons (V
1
, . . . , V
n
)
leur rearrangement dans lordre croissant. La loi de (V
1
, . . . , V
n
) est ap-
pelee la statistique dordre n ou loi de Dirichlet dordre n sur [a, b],
et notee D
n
([a, b]).
Propriete II.1 Soit
(V
1
, . . . , V
n
) D
n
([a, b]) .
(a) (V
1
, . . . , V
n
) admet pour densite sur R
n
f
(V1,...,Vn)
donnee par :
f
(V1,...,Vn)
(t
1
, . . . , t
n
) =
n!
(b a)
n
1
{at1<<tnb}
.
(b) La densite de V
n
est donnee par :
f
Vn
(t) =
n(t a)
n1
(b a)
n
1
[a,b]
(t).
(c) Pour tout c [a, b], la loi conditionnelle de (V
1
, . . . , V
n1
) sachant
que V
n
= c est D
n1
([a, c]) .
(d) Pour tout c [a, b], la loi conditionnelle de (V
1
, . . . , V
n1
) sachant
que V
n1
c V
n
est D
n1
([a, c]) .
(e) Pour tout c [a, b], la loi conditionnelle de (V
2
, . . . , V
n
) sachant que
V
1
= c est D
n1
([c, b]) .
(f ) Pour tout c [a, b], la loi conditionnelle de (V
2
, . . . , V
n
) sachant que
V
1
c V
2
est D
n1
([c, b]) .
(g) Pour 1 k p n, avec p k+2, (V
k
, . . . , V
p
) et (V
1
, . . . , V
k
, V
p
, . . . , V
n
)
sont conditionnellement independants sachant (V
k
, V
p
). De plus, pour
a c < d b, la loi de (V
k+1
, . . . , V
p1
) sachant V
k
= c et V
p
= d
est donnee par D
pk1
([c, d]).
Preuve :
Exercice dapplication du cours de probas 2.
44

On peut maintenant enoncer le theor`eme annonce, dont les points 3 et 4


montrent que les lois de Dirichlet apparaissent egalement lorsquon condi-
tionne des sommes de variables aleatoires i.i.d. de loi exponentielle.
Theor`eme II.3 Proprietes caracteristiques dun processus de Pois-
son (2)
Soit N(t) un processus `a valeurs dans N. Les assertions suivantes sont
equivalentes :
(a) (N(t))
t0
est un processus de Poisson homog`ene dintensite .
(b) (N(t))
t0
est `a accroissements independants et stationnaires,
et pour tout t 0,
N(t) Poi (t).
(c) Pour tout t 0,
N(t) Poi (t),
et pour n 1, sachant que N(t) = n, le vecteur aleatoire
(S
1
, . . . , S
n
)
des instants de sauts a pour loi D
n
([0, t]), la statistique dordre n
sur lintervalle [0, t].
(d) (N(t))
t0
est `a accroissements independants,
E(N(1)) = ,
et pour n 1, sachant que N(t) = n, le vecteur aleatoire
(S
1
, . . . , S
n
)
des instants de sauts a pour loi D
n
([0, t]), la statistique dordre n
sur lintervalle [0, t].
(e) (N(t))
t0
est `a accroissements independants et stationnaires,
et lorsque h 0,
P(N(h) = 0) = 1 h +o(h) et P(N(h) = 1) = h +o(h).
(6.4)
Preuve :
Exercice (voir Durrett (1999) page 132 et Rolski et al. (1999)).

La derni`ere propriete des assertions 3 et 4 du theor`eme II.3 est tr`es im-


portante, et sera expliquee en detail, demontree et generalisee au cha-
pitre 9. Elle nous permettra entre autres decrire lesperance dune fonction
integrable f des instants de sauts S
1
, . . . , S
N(T)
dun processus de Poisson
homog`ene (N(t))
t0
jusqu`a un temps ni T sachant que N(T) = n sous
la forme
E(f(S
1
, . . . , S
N(T)
)) =
_
T
0
_
tn1
0
. . .
_
t2
0
f(t
1
, . . . , t
n
)dt
1
. . . dt
n
. (6.5)
45
En particulier, pour un processus de Poisson homog`ene (N(t))
t0
, sachant
que N(t) = 1, linstant de saut S
1
est uniformement distribue sur [0, t].
La propriete (6.4) sera tr`es utile pour les demonstrations heuristiques de
resultats de theorie de la ruine (voir chapitre III), par exemple pour les
equations integro-dierentielles (12.1) et (12.2).
La proposition suivante correspond `a ce quon appelle le paradoxe de
linspection.
Proposition II.8 (a) Pour tous t > 0, x 0, 0 y t,
P(S
Nt+1
t x, t S
Nt
y) =
1
E(X
1
)
_

x+y
P(X
1
u)du.
(b) Les variables aleatoires S
Nt+1
t et t S
Nt
sont independantes.
Preuve :
Montrons que 1 2 : dapr`es le point 1, X
1
exp() a pour moyenne
E(X
1
) =
1

et densite f
X1
= e
u
1
R
+(u). En remplacant dans la formule,
on obtient :
P(S
Nt+1
t x, t S
Nt
y) =
_

x+y
e
u
du = e
(x+y)
, (6.6)
ce qui implique que S
Nt+1
t et t S
Nt
sont des variables aleatoires
independantes. Remarquons au passage que
E(S
Nt+1
S
Nt
) = E(S
Nt+1
t) +E(t S
Nt
) >
1

,
46
alors que S
Nt+1
S
Nt
= X
Nt
.
Il ne reste plus qu`a montrer la premi`ere armation.
P(S
Nt+1
t x, t S
Nt
y)
=

n0
P(N
t
= n, S
n
+X
n+1
t x, t S
n
y)
=

n0
P(S
n
< t < S
n
+X
n+1
, S
n
+X
n+1
t x, t S
n
y)
=

n1
_

0
_

0
1
s<t<s+u
1
s+utx
1
tsy
e
u

n
s
n1
e
s
(n 1)!
dsdu
+P(N
t
= 0, X
1
t +x, t y)
=

n1
_

0
1
s<t
1
tsy
__

0
1
uts+x
e
u
du
_

n
s
n1
e
s
(n 1)!
ds +e
(t+x)
=

n1
_

0
1
sty
e
(ts+x)

n
s
n1
e
s
(n 1)!
ds +e
(t+x)
=
_
ty
0
e
(t+x)
e
s
ds +e
(t+x)
= e
(t+x
_
1 +e
(ty)
_
+e
(t+x)
= e
(y+x)
e
(t+x)
+e
(t+x)
= e
(y+x)

In particular from point 1 with y = 0 we get that the time between t and
the next time of accident is distributed as Exp(). With x = 0 we have
that
E(t S
Nt
) =
1 e
t

as t +. You could then think : as for t > 0, we have E(S


Nt+1
t) =
1

and E(t S
Nt
) =
1e
t

, we should have
EX
Nt+1
= E(t S
Nt
) +E(S
Nt+1
t) =
1 e
t

+
1

which would be a contradiction with EX


Nt+1
=
1

. The last assumption


is actually not true, because the real experiment that you carry out is
to choose a time t at random, and to look at the times of the previous
and next accident. But when you select t at random, you have a greater
probability to choose t into a large interval between two accidents than
in a small interval between two accidents which occur one just after the
other. This paradox is known as the inspection paradox.
47
In driving insurance, one simple model for the number N
t
of accidents up
to time t is to take
N
t
T(t)
It could seem natural to choose exponentially-distributed inter-occurence
times due to the memoryless property of the exponential distribution, and
in this case, you get a Poisson distribution for N
t
. Maybe the true reason
is that computations are much easier for Poisson processes !
For an actuary, given the experience data that he gets, it is quite easy
to verify whether the Poisson assumption is realistic or not : indeed for
N
t
T(), we have
EN
t
= V ar(N
t
) = t ( equidispersion property)
With the historical data, a mere computation of the empirical mean and
variance of the number of accidents during a given period may help you de-
termine if you are using a realistic model or not. In case V ar(N
t
) >> EN
t
(over-dispersion), you may use for example a negative binomial distribu-
tion instead of the Poisson distribution for the number of claims during
a given period. If V ar(N
t
) << EN
t
(under-dispersion), you may use a
binomial distribution for example.
6.2 Processus de Poisson non homog`ene
Si lon cherche `a representer le nombre daccidents survenant avant chaque
date t 0 par un processus de Poisson homog`ene (N(t))
t0
, on pourrait
nous opposer le fait quil y a plus de chance que des accidents surviennent
le jour que la nuit, la circulation etant beaucoup plus intense le jour. Une
mani`ere de prendre en compte ce phenom`ene est de ne plus imposer que
lintensite soit constante, mais de lui laisser la possibilite de varier au
cours du temps, de fa con `a avoir pour t 0 lorsque h 0 :
P(N(t +h) N(t)) = (t)h +o(h)
. On obtient alors un processus de Poisson non homog`ene :
Denition II.5 Un processus stochastique (N(t))
t0
est un processus de
Poisson (inhomog`ene, ou general) de fonction dintensite (t) si
(a) N(0) = 0 presque s urement,
(b) (N(t))
t0
est un processus `a accroissements independants,
(c) et t > s, N(t) N(s) suit une loi de Poisson de param`etre
_
t
s
(u)du.
48
Le processus N(t) nest plus `a accroissements stationnaires, et les temps
inter-sauts X
i
ne sont plus independants, et ne suivent plus une loi expo-
nentielle si (.) nest pas constante. En eet,
P(N(t) = 0) = P(X
1
> t) = e

R
t
0
(u)du
,
donc linstant du premier saut X
1
a pour densite en t
f
X1
(t) = (t)e
(t)
,
o` u est appelee la fonction dintensite cumulee de N(t), et est denie
pour t 0 par
(t) =
_
t
0
(u)du.
Remarquons que est une fonction positive, nulle en zero, et croissante
sur R
+
.
La densite jointe des n premiers instants de sauts S
1
, . . . , S
n
est donnee
pour 0 t
1
t
n
par
f
(S1,...,Sn)
(t
1
, . . . , t
n
) = (t
1
)e
(t1)
.(t
2
)e
((t2)(t1))
. . . (t
n
)e
((tn)(tn1))
= e
(tn)
.
n

i=1
(t
i
).
(6.7)
En particulier, la densite jointe des deux premiers temps inter-sauts est
donnee pour s, t 0 par
f
(X1,X2)
(s, t) = f
(S1,S2)
(s, s +t) = (s)e
(s)
.(s +t)e
((s+t)(s))
,
ce qui montre que X
1
et X
2
ne sont pas independants d`es que (.) nest
pas constante.
49
Chapitre 7
Processus de Poisson
compose
Le processus de Poisson peut nous permettre de modeliser les dates de
survenance des sinistres. Le processus de Poisson compose nous permet
dassocier `a chaque sinistre son co ut.
Denition II.6 Soit (N(t))
t0
un processus de Poisson de fonction din-
tensite et W
n
une suite de variables aleatoires independantes et identi-
quement distribuees, et independantes du processus (N(t))
t0
. Le proces-
sus (S(t))
t0
, `a valeurs dans R et deni par
S(t) = W
1
+ +W
N(t)
,
avec la convention S(t) = 0 si N(t) = 0, est appele processus de Poisson
compose de caracteristiques (, W).
En assurance non-vie, W
i
representera le co ut du i-`eme sinistre (et sera
donc `a valeurs dans R
+
), N(t) le nombre de sinistres jusquau temps t,
et S(t) le montant cumule de tous les sinistres survenus avant la date t.
(S(t))
t0
sera alors un processus croissant et `a valeurs dans R
+
. Dapr`es
les proprietes des lois composees et des fonctions generatrices (voir cha-
pitres 2.3 et 2.4.6), rappelons la proposition suivante :
Proposition II.9 Soit (S(t))
t0
un processus de Poisson compose de ca-
racteristiques (, W
1
), et de fonction dintensite cumulee . Pour r, t > 0,
si G
W
est la fonction generatrice de W
1
,
h(r, t) = E
_
r
S(t)
_
= e
(t)(1G
W
(r))
,
do` u
E (S(t)) =
d
dr
_
E
_
r
S(t)
__
|r=1
= tG

W
(1) = (t)E(W
1
)
50
et
V ar (S(t)) =
d
2
dr
2
_
E
_
r
S(t)
__
|r=1
= (t)E
_
W
2
1
_
.
Preuve :
Exercice de revision.

51
Chapitre 8
Proprietes de Markov et
martingales
8.1 Proprietes de Markov
Tout processus de Poisson homog`ene est `a accroissements independants et
stationnaires, et verie donc la propriete de Markov faible et la propriete
de Markov forte. En particulier, si (N(t))
t0
est un processus de Poisson
homog`ene dintensite , alors pour tout s 0, (N(t + s) N(s))
t0
est
un processus de Poisson dintensite independant de (N(u))
us
. De plus,
si est un temps darret, alors (N(t +) N())
t0
est un processus de
Poisson dintensite independant de (N(u))
u
.
8.2 Martingales
Theor`eme II.4 Soit (N(t))
t0
un processus de Poisson homog`ene din-
tensite . Alors
N(t) t,
et
e
N(t)(e

1)t
sont des martingales par rapport `a la ltration naturelle de (N(t))
t0
.
Ce resultat se generalise sans peine aux processus de Poisson inhomog`enes
et aux processus de Poisson composes.
52
Chapitre 9
Thinning, superposition
et conditionnement
9.1 Thinning et superposition
Theor`eme II.5 Soit (S(t))
t0
un processus de Poisson compose deni `a
partir dun processus de Poisson homog`ene de param`etre et dune suite
de v.a. i.i.d. (W
i
)
i1
. Soit k 1, et A
1
, . . . , A
k
une partition de R. Pour
1 j k, soit (N
j
(t))
t0
le processus de comptage deni pour t 0 par
N
j
(t) =
N(t)

i=1
1
{WiAj}
,
et N
j
(t) = 0 si N(t) = 0.
Alors les (N
j
(t))
t0
sont des processus de Poisson homog`enes independants
de param`etres respectifs .P (W
1
A
j
).
En particulier, en assurance non-vie, en prenant A
1
= 0, A
2
=]0, +[,
et A
3
=] , 0[, comme P(W
1
A
3
) = 0, si le processus decrivant le
nombre de sinistres (nuls et non nuls) jusquau temps t est un processus de
Poisson homog`ene dintensite , alors celui decrivant le nombre de sinistres
non nuls jusquau temps t est un processus de Poisson de param`etre (1
P(W
1
= 0)). Separer un processus de Poisson dune telle mani`ere se dit
thinning. Le contraire, laddition de processus de Poisson independants
sappelle superposition.
Theor`eme II.6 Soit k 2, et (N
j
(t))
t0
, 1 j k des processus
de Poisson homog`enes dintensite
1
, . . . ,
k
. Alors (N(t))
t0
deni pour
t 0 par
N(t) = N
1
(t) + +N
k
(t)
est un processus de Poisson dintensite
1
+ +
k
.
53
Ce theor`eme se generalise sans peine `a des processus de Poisson inho-
mog`enes.
9.2 Conditionnement
Dans cette section, on sinteresse `a la position des instants de sauts sachant
quil y en a n entre 0 et T. On commence par le cas le plus facile, celui
dun processus homog`ene, et on generalise ensuite les resultats pour un
processus de Poisson inhomog`ene.
9.2.1 Cas dun processus de Poisson homog`ene
Soit U
1
, . . . , U
n
, . . . des variables aleatoires independantes et uniformement
distribuees sur un intervalle de temps ni et xe [0, T]. Soit S
1
, . . . , S
n
, . . .
les instants de sauts dun processus de Poisson homog`ene dintensite .
Theor`eme II.7 Conditionnellement `a N(T) = n, lensemble des ins-
tants de sauts S
1
, . . . , S
n
a la meme loi que U
1
, . . . , U
n
.
En dautres termes, le vecteur aleatoire (S
1
, . . . , S
n
) a la meme loi que
n-`eme statistique dordre sur [0, T], i.e. sa densite est donnee pour 0
t
1
t
n
T par
f
(S1,...,Sn)
(t
1
, . . . , t
n
) =
1
T
n
/n!
=
n!
T
n
.
Rappelons que si U
1
, . . . , U
n
sont des variables independantes uniformement
distribuees sur [0, T], les (V
i
)
1in
denis `a partir des U
i
en les rangeant
par ordre croissant forment la n-`eme statistique dordre sur [0, T]. Les U
i
ont pour densite jointe
f
(U1,...,Un)
(t
1
, . . . , t
n
) =
1
T
n
1
{i,0tiT}
,
alors que les V
i
ont pour densite
f
(V1,...,Vn)
(t
1
, . . . , t
n
) =
n!
T
n
1
{0t1tnT}
.
Le theor`eme II.7 permet de demontrer directement le resultat suivant,
qui pourrait aussi etre obtenu `a partir de lindependance de N(s) et de
N(t) N(s) pour s < t.
Theor`eme II.8 Soit (N(t))
t0
un processus de Poisson homog`ene. Pour
s < t et pour tous 0 m n, la loi de N(s) sachant que N(t) = n est
une loi binomiale de param`etres (n, s/t) :
P (N(s) = m [ N(t) = n) = C
m
n
_
s
t
_
m
_
1
s
t
_
nm
.
54
Remarquons que les lois conditionnelles obtenues dans les theor`emes II.7
et II.8 ne dependent pas de . Lhomogeneite est synonyme de symetrie,
qui est brisee d`es que lintensite nest plus constante. Les generalisations
des deux theor`emes precedents au cas inhomog`ene feront donc apparatre
cette dissymetrie en faisant intervenir la fonction dintensite et la fonction
dintensite cumulee.
9.2.2 Cas dun processus de Poisson inhomog`ene
Lorsque (t) nest plus constant, sachant quil y a n sauts, la probabilite
quun saut soit au voisinage dun point u [0, T] est dautant plus elevee
que lintensite (u) `a ce point est elevee. En fait, on a le meme resultat
que precedemment en tenant compte proportionnellement de la fonction
dintensite.
Theor`eme II.9 Soit (N(t))
t0
un processus de Poisson inhomog`ene de
fonction dintensite (t), et de fonction dintensite cumulee (t) =
_
t
0
(u)du.
Pour une date T > 0 xee, soit h
T
la fonction de R dans R denie pour
x R par
h
T
(x) =
(x)
(T)
.1
[0,T]
(x),
et soit U
1
, . . . , U
n
des variables aleatoires independantes de densite h
T
.
Alors, sachant que N(t) = n, lensemble des instants de sauts S
1
, . . . , S
n

a la meme loi que lensemble des U


1
, . . . , U
n
.
On obtient aussi lanalogue du theor`eme II.8 :
Theor`eme II.10 Soit (N(t))
t0
un processus de Poisson inhomog`ene
de fonction dintensite (t), et de fonction dintensite cumulee (t) =
_
t
0
(u)du. Pour s < t et pour tous 0 m n, la loi de N(s) sachant que
N(t) = n est une loi binomiale de param`etres (n, (s)/(t)) :
P (N(s) = m [ N(t) = n) = C
m
n
_
(s)
(t)
_
m
_
1
(s)
(t)
_
nm
.
55
Troisi`eme partie
Theorie de la ruine
56
Soit R(t) = u +X(t) un processus de risque classique :
(X(t))
t0
est donc deni pour tout t 0 par
X(t) = ct
N(t)

i=1
W
i
,
(N(t))
t0
est un processus de Poisson homog`ene dintensite ,
les W
i
sont des v.a.i.i.d. positives de moyenne et independantes de
(N(t))
t0
,
la somme est nulle si N(t) = 0,
le chargement de securite relatif
=
c

> 0.
Denissons la probabilite de ruine
(u) = P (t > 0, u +X(t) < 0)
et la probabilite de non-ruine (ou de survie)
(u) = 1 (u) = P (t > 0, u +X(t) 0) .
Theor`eme III.1 (Equation integro-dierentielle)
Pour tout u 0,

d
(u) =

c
_
(u)
_
u
0
(u y)dF
W
(y)
_
. (9.1)
Preuve :
Pour h > 0,
(u) = E ((u +X(T
1
h))) .
Lidee est de distinguer les cas T
1
h (dans ce cas le processus repart apr`es
un temps aleatoire T
1
de la position aleatoire u + cT
1
W
1
) et T
1
> h
(dans ce cas, le processus repart apr`es un temps h de la position u+ch). La
perte de memoire de la loi exponentielle nous garantit la perte de memoire
du processus de Poisson (N(t))
t0
, et donc du processus (X(t))
t0
qui est
sans memoire.
(u) = (u +ch)P(T
1
> h) +
_
h
0
f
T1
(t)
_
+
0
(u +ct y)dF
W1
(y)dt.
En inversant les signes, en rajoutant (u +ch) `a droite et `a gauche, et en
divisant par h, on obtient
(u +ch) (u)
h
= (u+ch)
_
1 e
h
h
_

1
h
_
h
0
e
t
_
+
0
(u+cty)dF
W1
(y)dt.
57
En passant `a la limite lorsque h 0, en utilisant la continuite `a droite de
et le fait que
1
h
_
h
0
g(t)dt g(0)
quand h 0 pour toute fonction g continue `a droite, on obtient
c

d
(u) =
_
(u)
_
+
0
(u y)dF
W
(y)
_
,
ce qui fournit le resultat demande en observant que (x) = 0 pour x < 0.

On obtient de meme pour tout u 0,

g
(u) =

c
_
(u)
_
u
0
(u y)dF
W
(y)
_
. (9.2)
Dans le cas o` u F
W
est continue, les derivees `a droite et `a gauche sont les
memes pour tout u et correspondent donc `a

(u).
Placons-nous dans le cas o` u W
1
admet une densite f
W1
.
Proposition III.1 (Equation integrale)
Pour tout u 0,
(u) = (0) +

c
_
u
0
(u y)(1 F
W
(y))dy. (9.3)
Preuve :
Dapr`es (9.2), pour u > 0,

(u) =

c
((u) ( f
W
)(u)) .
En prenant la transformee de Laplace, on obtient pour s > 0
sL

(s) (0) =

c
L

(s)

c
L

(s).sL
F
W
(s). (9.4)
En eet, rappelons que
L

(s) =
_
+
0

(u).e
su
du =
_
(u).e
su

+
0
+
_
+
0
(u).se
su
du = (0)+sL

(s)
en utilisant une integration par parties classique. De la meme mani`ere,
L
f
W
= L

.L
f
W
, et donc comme F
W
(0) = 0,
L
f
W
(s) = L
F

W
(s) = F
W
(0) +sL
F
W
(s) = sL
F
W
(s).
58
En divisant par s lequation (9.4), on obtient
L

(s) =
(0)
s
+

c
_
L

(s)
_
1
s
L
F
W
(s)
__
..
Or, pour toute constante C > 0,
L
C
(s) =
C
s
,
donc
1
s
L
F
W
(s) = L
1F
W
(s)
et on obtient pour tout s > 0
L

(s) = L
(0)+

c
(1F
W
)
(s),
ce qui donne le resultat recherche dapr`es linjectivite de la transformee
de Laplace.

Proposition III.2
(+) = lim
u+
(u) = 1.
Preuve :
est une fonction croissante. Pour n 1,
(n) = E
_
1
{inf X(t)<n}
_
.
Or I
n
= 1
{inf X(t)>n}
est une suite croissante de v.a., qui tend vers
1 presque s urement. En eet, comme > 0, dapr`es la loi des grands
nombres, X(t) + quand t +, et donc le processus est positif `a
partir dun certain temps (aleatoire) T ni presque s urement, et linmum
pris sur le compact [0, T] est donc ni. Dapr`es le theor`eme de convergence
monotone,
limE(I
n
) = E (limI
n
) = E(1) = 1.

En passant `a la limite dans lequation (9.3), on obtient


(0) = 1

c
,
ce qui constitue un resultat tr`es robuste qui ne depend de F
W
que par la
moyenne de W.
59
Dans le cas o` u W Exp(1/), dapr`es lequation integro-dierentielle
(9.2), pour tout u 0,

(u) =

c
_
(u)
_
u
0
(u y)e
y/
dy
_
=

c
_
(u)
_
u
0
(y)e
(uy)/
dy
_
.
(9.5)
En derivant par rapport `a u, on obtient

(u) =

c

(u)

c
(1)

_
u
0
(y)e
(uy)/
dy

c
(u). (9.6)
(Par exemple factoriser le e
u/
`a lexterieur de lintegrale puis deriver le
produit). Remarquons que dapr`es (9.2), le second terme de droite dans
(9.6) est egal `a

c
(1)

_
u
0
(y)e
(uy)/
dy =
1

c
(u)

(u)
_
.
Lequation (9.6) se simplie donc en

(u) =

c

(u) +
1

c
(u)

(u)
_


c
(u),
et donc

(u) =
_

c

1

(u).
Soit
R =

c

1

=

(1 +)
.
En integrant deux fois, on obtient
(u) = C
1
+C
2
e
Ru
.
C
1
= (+) = 1 et
(0) = C
1
+C
2
= 1
1
1 +
,
do` u pour u 0,
(u) = 1
1
1 +
e
Ru
(9.7)
et
(u) =
1
1 +
e
Ru
. (9.8)
60
9.3 Methodes de martingales
Appliquons le theor`eme darret optimal de Doob `a la martingale (M(t))
t0
(exercice : montrer quil sagit bien dune martingale par rapport `a la
ltration naturelle de (M(t))
t0
) denie par
M(t) =
e
r(u+X(t))
E
_
e
rX(t)
,
o` u r 0 est tel que
E
_
e
rX(t)
_
< +,
et au temps darret T
u
t
0
, o` u
T
u
= inft 0, u +X(t) < 0
est la variable aleatoire defective representant linstant de ruine, et t
0
est
un reel positif xe. On obtient en conditionnant par T
u
t
0
ou T
u
> t
0
e
ru
= E[M(0)] = E [M(T
u
t
0
)] (9.9)
e
ru
= E [M(T
u
t
0
) [ T
u
t
0
] P (T
u
t
0
) +E [M(T
u
t
0
) [ T
u
> t
0
] P (T
u
> t
0
)
e
ru
E [M(T
u
) [ T
u
t
0
] P (T
u
t
0
) . (9.10)
Rappelons que pour utiliser le theor`eme darret de Doob (voir cours de
2`eme annee), il faut (le plus souvent) avoir un temps darret, qui doit etre
ni presque s urement. Or,
P(T
u
= +) = (u) > 0
d`es que > 0. La solution classique consiste `a appliquer le theor`eme
darret au temps darret T
u
t
0
(qui est toujours ni car inferieur `a t
0
<
), et `a passer `a la limite (t
0
+) pour obtenir le resultat avec T
u
.
On a donc dapr`es (9.10)
P (T
u
t
0
)
e
ru
E [M(T
u
) [ T
u
t
0
]
. (9.11)
Or
1
E [M(T
u
) [ T
u
t
0
]
=
1
E
_
e
r(u+X(Tu))
e
g(r)Tu
[ T
u
t
0
_
1
E
_
1
e
g(r)Tu
[ T
u
t
0
,
o` u g(r) est deni par
E
_
e
rX(t)
_
= e
g(r)t
et est egal `a
g(r) =
_
E
_
e
rW

1
_
rc, (9.12)
61
car sachant que T
u
est ni, u+X(T
u
) < 0. Donc linequation (9.11) devient
P (T
u
t
0
)
e
ru
E
_
e
g(r)Tu
[ T
u
t
0
. (9.13)
On a conditionne par rapport `a levenement T
u
t
0
, et donc
E
_
e
g(r)Tu
[ T
u
t
0
_
inf
0tt0
e
tg(r)
,
et
1
E
_
e
g(r)Tu
[ T
u
t
0

1
inf
0tt0
e
tg(r)
= sup
0tt0
e
tg(r)
.
Cela permet de reecrire (9.13) en
P(T
u
t
0
) e
ru
sup
0tt0
e
tg(r)
.
En passant `a la limite quand t
0
+, on obtient
(u) = P(T
u
< +) e
ru
sup
t0
e
tg(r)
.
Pour que la borne soit nie et presente un interet, il faut que r soit le plus
grand possible tout en ayant g(r) 0. Il faut donc prendre
R = supr 0, g(r) 0.
Dans le cas o` u W Exp(1/), on retrouve la valeur de lexposant de
Cramer-Lundberg
R =

(1 +)
,
qui est ici le nombre strictement positif qui verie g(R) = 0. On obtient
alors dans le cas general linegalite de Cramer-Lundberg
(u) e
Ru
. (9.14)
Le cas o` u W Exp(1/) nous montre que la valeur de R est optimale. Il
existe dans de nombreux cas des inegalites doubles qui permettent den-
cadrer la probabilite de ruine par deux fonctions de type Ce
ru
.
On a applique le theor`eme de Doob `a la martingale exponentielle pour
pouvoir utiliser le theor`eme de convergence dominee : u + X(t) +
presque s urement quand t +, et donc e
r(u+X(t))
va tendre vers 0
presque s urement.
Linequation (9.11) a ete obtenue en passant de (9.9) `a (9.10) en minorant
brutalement par 0 le terme
E [M(T
u
t
0
) [ T
u
> t
0
] P (T
u
> t
0
) .
62
En prenant r = R, on peut montrer que ce terme tend vers 0 lorsque t
0

+. Rappelons que dans ce cas g(R) = 0 et que M(t) secrit simplement
M(t) = e
R(u+X(t))
.
Ceci nous permet decrire
0 E [M(T
u
t
0
) [ T
u
> t
0
] P (T
u
> t
0
) = E
_
e
R(u+X(t0))
.1
{Tu>t0}
_
,
et comme
T
u
> t
0
u +X(t
0
) 0,
on obtient linegalite
0 E [M(T
u
t
0
) [ T
u
> t
0
] P (T
u
> t
0
) E
_
e
R(u+X(t0))
.1
{u+X(t0)0}
_
1.
(9.15)
Or quand t +,
u +X(t) + p.s.,
ce qui implique que lorsque t
0
+,
1
{u+X(t0)0}
0 p.s..
Dapr`es le theor`eme de convergence dominee, on peut passer `a la limite
dans linequation (9.15), ce qui donne `a partir de (9.9) legalite suivante :
(u) =
e
Ru
E
_
e
R(u+X(Tu))
[ T
u
< +
. (9.16)
Exercice III.1 Dans le cas o` u W Exp(1/), utiliser la perte de memoire
de la loi exponentielle et lequation (9.16) pour retrouver la formule exacte
de la probabilite de ruine dans le cas exponentiel (9.8).
Cet exercice sera corrige en seance de TD. Il est vivement conseille de le
faire auparavant. Conseil : utiliser le conditionnement par rapport `a la
tribu qui correspond `a linformation disponible sur le processus (X(t))
t0
jusqu`a juste avant la ruine (cest-`a-dire obtenue `a des temps strictement
inferieurs `a T
u
) :
T
T

u
= (A t < T
u
, A T
t
, t > 0) ,
o` u (T
t
)
t0
est la ltration naturelle du processus (X(t))
t0
.
63
Sixi`eme partie
Appendice, pense-bete
95
Chapitre 33
Lois usuelles
33.1 Lois de probabilite usuelles
Distribution Probabilites p
k
Param`etres
Uniforme discr`ete 1/N, k = 1, 2, . . . , N N = 1, 2, . . .
Bernoulli p
1
= p, p
0
= q 0 p 1, q = 1 p
Binomiale C
k
n
p
k
q
nk
, k = 0, 1, . . . , n 0 p 1, q = 1 p, n = 1, 2, . . .
Poisson e

k
k!
, = 0, 1, . . . > 0
Geometrique q
k1
p, k = 0, 1, . . . 0 p 1, q = 1 p
Binomiale negative C
r1
k1
p
r
q
kr
, k = r, r + 1, . . . 0 p 1, q = 1 p, r = 1, 2, . . .
96
Distribution Densite Param`etres
Uniforme sur [a, b] 1/(b a), a x b a, b R; a < b
Normale ou Gaussienne (2
2
)
1/2
e
(x)
2
/(2
2
)
, x R R, > 0
Log-normale
1
x

2
exp
_

(log x)
2
2
2
_
, x > 0 R, > 0
Rayleigh xe
x
2
/2
, x 0
Gamma
x
1
e
x/
()

, x 0 > 0, > 0
Beta
x
r1
(1x)
s1
B(r,s)
, 0 x 1 r > 0, s > 0
Exponentielle (, = 1, = 1/) e
x
, x 0 > 0
Laplace
1
2
e
|x|
, x R > 0
Chi-deux,
2
(, = n/2, = 2)
2
n/2
x
n/21
e
x/2
(n/2)
, x 0 n = 1, 2, . . .
Student, t
(
1
2
(n+1))
(n)
1/2
(n/2)
_
1 +
x
2
n
(n+1)/2
_
, x R n = 1, 2, . . .
F
(m/n)
m/2
B(m/2,n/2)
x
m/21
(1+mx/n)
m+n)/2
m, n = 1, 2, . . .
Cauchy

(x
2
+
2
)
, x R > 0
Logistique
e
(x)/
(1+e
(x)/
)
2
R, > 0
Weibull x
1
e
x

, x > 0
0 < < 1,
> 0
Gumbel exp(x e
x
), x R
Pareto k

x
(+1)
, x k
k > 0,
a > 0,
x k
97
Chapitre 34
Types de convergence
34.1 Convergence en Loi
Nous considerons ici une analyse classique de la convergence de mesures
de probabilite appelee convergence en loi, sachant que dautres approches
utilisant des distances entre lois de probabilite (on peut par exemple
construire une distance entre lois de probabilite absolument continues par
rapport `a une mesure dominante, comme la distance associee `a la norme
L
1
des densites de probabilite par rapport `a cette mesure dominante).
Denition VI.1 Convergence compl`ete dune suite de fonctions
de repartition
Soit F
n
une suite de fonctions de repartition sur R
k
, k N et F une
fonction de repartition sur R
k
. On dit que F
n
converge compl`etement vers
F et on note F
n
c
F si F
n
(x) converge vers F(x) en tout point x R
k
de continuite de F.
Remarques :
On a dej`a etudie lensemble de continuite dune fonction de repartition
dans R
n
.
Considerons une suite de fonctions de repartition F
n
convergeant vers
une fonction F en tout point de continuite de F. F nest pas forcement
une fonction de repartition. Par exemple, considerons la suite F
n
denie
par F
n
(x) = 0, si x n, F
n
(x) =
1
2
, si x ] n, n] et F
n
(x) = 1 si
x > n. limF
n
(x) =
1
2
pour tout x et F nest pas une fonction de
repartition.
Denition VI.2 Convergence etroite dune suite de mesures bornees
sur R
k
Soit P, P
1
, P
2
, . . . une suite de mesures positives bornees sur
_
R
k
, B(R
k
)
_
.
On dit que P
n
converge etroitement vers P et on note P
n
e
P, si pour
98
toute fonction reelle f denie sur R
k
continue bornee, on a :
_
f(x)dP
n
(x)
_
f(x)dP(x).
Remarques :
Traduction anglaise de convergence etroite : weak convergence.
La denition donnee pour des mesures positives bornees (ou nies,
cest-`a-dire P
n
(R
k
) < ) sapplique en particulier `a des mesures de
probabilite.
La notion de convergence etroite setend `a des espaces metriques quel-
conques munis de leur tribu borelienne.
On peut reecrire de mani`ere equivalente
_
f(x)dP
n
(x)
_
f(x)dP(x)
comme
_
f(x)dF
n
(x)
_
f(x)dF(x) o` u F, F
1
, F
2
, . . . sont les fonc-
tions de repartition associees aux mesures P, P
1
, P
2
, . . ..
Theor`eme VI.1 Helly-Bray (convergence compl`ete convergence etroite)
Si F
n
est une suite de fonctions de repartition sur R
k
, k N convergeant
compl`etement vers une fonction de repartition sur R
k
, F. Alors pour toute
fonction f denie sur R
k
, continue bornee :
_
f(x)dF
n
(x)
_
f(x)dF(x)
quand n .
Remarque : Notons P
n
la mesure de probabilite sur (R
k
, B(R
k
)) de
fonction de repartition F
n
et P la mesure de probabilite associee `a F.
La convergence compl`ete des F
n
implique la convergence etroite des me-
sures de probabilite P
n
. Il existe une reciproque au theor`eme precedent.
Theor`eme VI.2 equivalence entre convergence compl`ete et conver-
gence etroite
Soit F, F
1
, F
2
, . . . les fonctions de repartition sur R
k
, k N de probabilites
P, P
1
, P
2
, . . . sur
_
R
k
, B(R
k
)
_
. Alors :
P
n
e
P F
n
c
F.
La demonstration des deux theor`emes precedents est admise. Dans le cas
de mesures de probabilite admettant des densites, il existe un crit`ere simple
pour verier la convergence etroite.
Propriete VI.1 convergence etroite de mesures absolument conti-
nues
Soit (P
n
) une suite de mesures de probabilites sur
_
R
k
, B(R
k
)
_
admettant
une densite f
n
par rapport `a la mesure de Lebesgue sur R
k
. Si f
n
converge
presque partout (pour la mesure de Lebesgue sur R
k
) vers une fonction de
densite f, alors P
n
converge etroitement vers P la mesure de probabilite
sur
_
R
k
, B(R
k
)
_
de densite f.
99
Sauf dans le cas de lois absolument continues par rapport `a la mesure de
Lebesgue, le concept de convergence compl`ete est un peu delicat `a manier
dans R
k
(car il faut etudier lensemble de continuite de la loi limite). On
peut neanmoins proceder avec lapproche suivante :
Denition VI.3 Convergence etroite dune suite de mesures bornees
sur R
k
Soit P, P
1
, P
2
, . . . une suite de mesures de probabilite sur
_
R
k
, B(R
k
)
_
. On
dit que P
n
converge etroitement vers P et on note P
n
e
P, si pour tout
A B(R
k
) tel que P(A) = 0, on a P
n
(A) P(A) quand n .
Propriete VI.2 Les deux denitions de convergence etroite sont equivalentes.
Elles sont en outre equivalentes `a :
(a) liminf P
n
(A) P(A) pour tout A ouvert.
(b) limsupP
n
(A) P(A) pour tout A ferme.
Remarques :
A est la fronti`ere de A denie par A = AA
c
o` u A est la fermeture
de A.
Dans cette denition, on ne demande pas la convergence pour tout
ensemble mesurable, mais simplement pour tout ensemble mesurable
dont la fronti`ere nest pas chargee pour la probabilite limite P.
Pour terminer considerons une derni`ere presentation de la convergence
parfois utilisee :
Denition VI.4 Convergence vague dune suite de mesures bornees
sur R
k
Soit P, P
1
, P
2
, . . . une suite de mesures positives bornees sur
_
R
k
, B(R
k
)
_
.
On dit que P
n
converge vaguement vers P et on note P
n
v
P, si pour
toute fonction reelle f denie sur R
k
continue `a support compact, on
a : _
f(x)dP
n
(x)
_
f(x)dP(x).
Remarques :
On montre quil est equivalent de dire :
(a) P
n
converge etroitement vers P.
(b) P
n
converge vaguement vers P et en outre P
n
(R
k
) P(R
k
).
Dans le cas o` u P, P
1
, P
2
, . . . sont des mesures de probabilite, la condi-
tion P
n
(R
k
) P(R
k
) est automatiquement veriee puisque P
n
(R
k
) =
P(R
k
) = 1.
On peut alors se limiter `a la condition
_
f(x)dP
n
(x)
_
f(x)dP(x)
pour toute fonction f continue `a support compact.
Cest parfois cette derni`ere denition qui est fournie pour la conver-
gence etroite de mesures de probabilite.
100
Il existe une autre approche tr`es simple pour etudier la convergence etroite,
qui utilise les fonctions caracteristiques et ne fait pas appel `a letude de la
continuite de la fonction de repartition jointe.
Propriete VI.3 Si F, F
1
, F
2
, . . . sont des fonctions de repartition sur R
k
,
k N avec des transformees de Fourier associees ,
1
,
2
, . . . et si F
n
c

F alors
n
(t) (t) pour tout t R
k
.
Demonstration : voir lexercice (VI.1).
Exercice VI.1 Montrer que si F, F
1
, F
2
, . . . sont des fonctions de repartition
sur R
k
, k N de transformees de Fourier associees ,
1
,
2
, . . . et si
F
n
c
F alors
n
(t) (t) pour tout t R
k
.
Corrige :
Cest une consequence directe du theor`eme de Helly-Bray.
Pour tout t R
k
donne, les fonctions qui `a x R
k
associent
_
e
i<t,x>
_
et 1
_
e
i<t,x>
_
sont continues bornees.

_
e
i<t,x>
dF
n
(x)
_
e
i<t,x>
dF(x), cest-`a-dire
n
(t) (t).
Theor`eme VI.3 de continuite (dit de Levy)
Soit (
n
), n N, une suite de transformees de Fourier, de mesures de
probabilite P
n
sur
_
R
k
, B(R
k
)
_
, k N. Si
n
converge en tout point de R
k
vers une fonction continue au point (0, 0, . . . , 0), alors est la trans-
formee de Fourier dune mesure de probabilite P sur
_
R
k
, B(R
k
)
_
et P
n
converge etroitement vers P.
Remarques :
Ce theor`eme (admis) etablit une reciproque de la propriete precedente.
Attention : toute fonction nest pas la transformee de Fourier dune
mesure (il faut par exemple quil y ait continuite uniforme). Il existe
plusieurs proprietes permettant de caracteriser des situations o` u une
fonction donnee est une fonction caracteristique.
Si
n
(t) converge vers une fonction caracteristique (t) dune proba-
bilite P, alors le theor`eme sapplique car est continue en zero et P
n
converge vers la probabilite P.
Corollaire VI.1 continuite de la convolution
Soit (P
n
) et (Q
n
) deux suites de mesures de probabilite sur
_
R
k
, B(R
k
)
_
convergeant etroitement, respectivement vers P et Q. Alors (P
n
Q
n
)
converge etroitement vers P Q.
Demonstration : La demonstration est immediate en utilisant le fait que
la transformee de Fourier de P
n
Q
n
est le produit des transformees de
Fourier et le theor`eme de Levy.
Denition VI.5 convergence en loi
Soit X
n
une suite de vecteurs aleatoires denis sur un espace probabilise
`a valeurs dans R
k
, k N. On dit que X
n
converge en loi vers le vecteur
aleatoire X (`a valeurs dans R
k
) et on note X
n
L
X si :
P
Xn
e
P
X
.
101
Remarque :
Si F
n
, F sont les fonctions de repartition de X
n
, X, la convergence en
loi de X
n
vers X est equivalente `a la convergence de F
n
(x) vers F(x)
en tout point de continuite de F.
Corollaire VI.2 Cramer-Wold
Soit X
n
une suite de vecteurs aleatoires denis sur un espace probabilise
`a valeurs dans R
k
, k N. X
n
converge en loi vers le vecteur aleatoire X
(`a valeurs dans R
k
) si et seulement si pour tout = (
1
, . . . ,
k
) R
k
,

X
n
converge en loi vers

X.
Demonstration : voir lexercice VI.2.
Exercice VI.2 Cramer-Wold
Soit X
n
une suite de vecteurs aleatoires denis sur un espace probabi-
lise `a valeurs dans R
k
, k N. Montrer que X
n
converge en loi vers
le vecteur aleatoire X (`a valeurs dans R
k
) si et seulement si pour tout
= (
1
, . . . ,
k
) R
k
,

X
n
converge en loi vers

X.
Corrige : on utilise les fonctions caracteristiques :
Supposons que X
n
converge en loi vers X, cest-`a-dire que P
Xn
converge
etroitement vers P
X
.
Dapr`es le theor`eme de continuite, il est equivalent de dire que
_
e
it

x
dP
Xn
(x)
converge vers
_
e
it

x
dP
X
(x) pour tout t R
k
, cest-`a-dire dapr`es le
theor`eme de transfert que E
_
e
it

Xn
_
converge vers E
_
e
it

X
_
ou encore
avec les notations habituelles que
Xn
(t) converge vers
X
(t).
Soit u R.

Xn
(u) = E
_
e
iu

Xn
_
=
Xn
(u)
X
(u) =

X
(u).
Dapr`es le theor`eme de continuite,

X
n
converge en loi vers

X.
Reciproquement, supposons que

X
n
converge en loi vers

X pour
tout R
k
.
Dans ce cas,

Xn
(1)

X
(1) en appliquant le theor`eme de conti-
nuite.
En utilisant
Xn
() =

Xn
(1) et
Xn
() =

Xn
(1), on obtient la
convergence en loi de X
n
vers X.
Remarque :
En prenant
i
= 1 et
j
= 0, j ,= i, on obtient que la convergence
en loi du vecteur aleatoire X
n
vers le vecteur aleatoire X implique la
convergence en loi des composantes de X
n
, X
i
n
vers les composantes de
X, X
i
.
En revanche, la reciproque est fausse.
Considerons par exemple X N(0, 1) et les suite X
n
= X, Y
n
=
(1)
n
X. X
n
et Y
n
convergent en loi vers X.
La suite (X
n
, Y
n
) ne converge pas en loi (ni la fonction de repartition
jointe, ni la fonction caracteristique jointe ne convergent) et par consequent
(X
n
, Y
n
) ne converge pas en loi vers (X, X).
102
Corollaire VI.3 Soit (X
n
) une suite de vecteurs aleatoires convergeant
en loi vers X, tous ces vecteurs aleatoires etant denis sur un espace
probabilise (, /, P) et `a valeurs dans R
k
. Soit h une fonction continue
de R
k
dans R
m
. Alors h(X
n
) converge en loi vers h(X)
Demonstration : voir exerice (VI.3).
Exercice VI.3 Soit (X
n
) une suite de vecteurs aleatoires convergeant en
loi vers X, tous ces vecteurs aleatoires etant denis sur un espace proba-
bilise (, /, P) et `a valeurs dans R
k
. Soit h une fonction continue de R
k
dans R
m
. Montrer que h(X
n
) converge en loi vers h(X)
Corrige :
Soit t R
m
donne. La fonction x e
it

h(x)
est une fonction continue
bornee.
Dapr`es le theor`eme de Helly-Bray
_
e
it

h(x)
dP
Xn
(x)
_
e
it

h(x)
dP
X
(x),
cest-`a-dire
h(Xn)
(t)
h(X)
(t), ce qui montre la propriete dapr`es le
theor`eme de P. Levy.
Propriete VI.4 equivalence entre convergence en loi et conver-
gence simple des fonctions caracteristiques
Soit X et X
n
, n N des vecteurs aleatoires `a valeurs dans R
k
denis
sur un espace probabilise (, /, P), de fonctions caracteristiques respecti-
vement (t) et
n
(t), t R
k
. Alors,
X
n
L
X lim
n

Xn
(t) =
X
(t), t R
k
.
Propriete VI.5 un exemple rare o` u convergence en loi entrane
convergence presque s ure
Soit X une variable aleatoire reelle denie sur un espace probabilise (, /, P)
et f
0
, f
1
, . . . une suite de fonctions reelles croissantes. Si f
n
(X) converge
en loi vers f
0
(X) alors f
n
(X) converge P-presque s urement vers f(X).
Pour conclure, mentionnons que lon peut sinteresser `a la metrisabilite de
la convergence en loi, cest-`a-dire `a la possibilite de construire une distance
entre mesures de probabilite telle que la convergence etroite de mesures se
caracterise par une distance entre les mesures et la mesure limite tendant
vers 0.
34.2 Convergence presque s ure et convergence
en probabilite
Denition VI.1 convergence presque s ure Soit (X
n
= (X
1
n
, . . . , X
k
n
))
une suite de vecteurs aleatoires `a valeurs dans R
k
, k N denis sur un
espace probabilise (, /, P). On denit lensemble de convergence des X
n
comme X

n
= , lim
n
X
j
n
(), j, 1 j k. On dit que X
n
converge presque s urement (ou presque-partout) si P (X

n
) = 1.
103
Denition VI.2 convergence presque s ure Soit (X
n
) une suite de
vecteurs aleatoires `a valeurs dans R
k
, k N denis sur un espace pro-
babilise (, /, P). On dit que X
n
converge presque s urement (ou presque-
partout) vers le vecteur aleatoire X lorsque n et on note X
n
p.s
X,
si P ( , limX
n
() = X()) = 1.
Remarques :
En dautres termes X
n
converge simplement vers X sur un ensemble de
probabilite egale `a un.
De mani`ere equivalente, lensemble des tels que X
n
() ne converge
pas vers X() est negligeable.
La coherence entre les deux denitions est assuree par la propriete sui-
vante.
Propriete VI.1 Soit (X
n
= (X
1
n
, . . . , X
k
n
)) une suite de vecteurs aleatoires
`a valeurs dans R
k
, k N denis sur un espace probabilise (, /, P)
convergeant presque s urement. Alors, il existe un vecteur aleatoire X,
unique au sens de legalite P-presque s ure, tel que X
n
p.s
X.
Demonstration : voir exercice (VI.4).
Exercice VI.4 Soit (X
n
= (X
1
n
, . . . , X
k
n
)) une suite de vecteurs aleatoires
`a valeurs dans R
k
, k N denis sur un espace probabilise (, /, P)
convergeant presque s urement. Montrer quil existe un vecteur aleatoire
X, unique au sens de legalite P-presque s ure, tel que X
n
p.s
X.
Corrige :
Pour chaque j = 1, . . . , k, considerons X
j
= inf
n1
sup
mn
X
j
m
=
limsupX
j
n
.
X
j
est deni de mani`ere sur et est une variable aleatoire. X =
(X
1
, . . . , X
k
) est un vecteur aleatoire.
Pour tout X

n
, X
j
n
() converge et par consequent X
j
() =
limsupX
j
n
() = limX
j
n
().
On en deduit que pour tout j = 1, . . . , k, X
j
n
converge vers X
j
sur un
ensemble de probabilite egale `a 1, ce qui montre la propriete.
Notation : Dans la suite, quand x = (x
1
, . . . , x
k
) R
k
, on note par [ x [,
la norme euclidienne de x, `a savoir
_

k
j=1
x
2
j
_
1/2
.
Theor`eme VI.1 condition necessaire et susante de convergence
presque s ure
Soient X une variable aleatoire reelle et (X
n
) une suite de variables
aleatoires reelles denies sur un espace probabilise (, /, P). Une condi-
tion necessaire et susante pour que X
n
p.s
X est que :
P
__
, sup
mn
[ X
m
() X() [>
__
0, quand n ,
pour tout > 0.
104
Demonstration :
Notons A

m
= , [ X
m
() X() [> et A

=

n1

mn
A

m
(en
langage ensembliste, il sagit de limsupA

n
).
On remarque que
_
, sup
mn
[ X
m
() X() [>
_
=

mn
A

m
et la condition du theor`eme sexprime de mani`ere equivalente comme
lim
n
P
_

mn
A

m
_
= 0 pour tout > 0.
On remarque que pour tout > 0, il existe k N tel que
1
k
< . On alors
A

m
A
1/k
m
et donc

mn
A

mn
A
1/k
m
. En utilisant la croissance
de P,
P
_

mn
A

m
_
P
_

mn
A
1/k
m
_
et donc lim
n
P
_

mn
A

m
_

lim
n
P
_

mn
A
1/k
m
_
.
Il sut donc de montrer la propriete pour des de la forme
1
k
avec
k N.
Examinons les ensembles de convergence, X

n
, et de non convergence,
X

n

c
de X
n
,
X

n
k N

, n N

tel que m n, [ X
m
() X() [
1
k
.
En utilisant les proprietes des quanticateurs,
X

n

c
k N

, n N

tel que m n, [ X
m
()X() [>
1
k
.
En utilisant les denitions precedentes, on voit que :
X

n

c
k N

tel que

n1

mn
A
1/k
m
, cest-`a-dire tel
que A
1/k
.
On a ainsi X

n

c
=

k1
A
1/k
.
La convergence presque s ure des X
n
est equivalente `a :
P (X

n

c
) = P
_

k1
A
1/k
_
= 0.
P
_

k1
A
1/k
_
= 0 P
_
A
1/k
_
= 0, k 1.
CommeA
1/k
=

n1

mn
A
1/k
m
, P
_
A
1/k
_
= 0 lim
n
P
_

mn
A
1/k
m
_
=
0 par continuite decroissante de P.
Comme

mn
A
1/k
m
=
_
, sup
mn
[ X
m
() X() [>
1
k
_
, on ob-
tient la propriete annoncee.
Denition VI.3 convergence en probabilite
Soit (X
n
) une suite de vecteurs aleatoires `a valeurs dans R
k
, k N denis
sur un espace probabilise (, /, P). On dit que X
n
converge en probabilite
quand n vers le vecteur aleatoire X (et on note X
n
P
X) si pour
tout > 0,
lim
n
P ([ X
n
X [> ) = 0.
Theor`eme VI.2 convergence p.s implique convergence en proba-
bilite
Soit (X
n
) une suite de vecteurs aleatoires `a valeurs dans R
k
, k N denis
sur un espace probabilise (, /, P) convergeant presque s urement vers un
vecteur aleatoire X. Alors X
n
converge en probabilite vers X.
105
Demonstration : voir exercice (VI.5).
Exercice VI.5 convergence p.s implique convergence en proba-
bilite
Soit (X
n
) une suite de vecteurs aleatoires `a valeurs dans R
k
, k N denis
sur un espace probabilise (, /, P) convergeant presque s urement vers un
vecteur aleatoire X. Montrer qualors X
n
converge en probabilite vers X.
Corrige :
Dapr`es le theor`eme precedent caracterisant la convergence presque s ure,
on a :
, [ X
n
()X() [>
_
, sup
mn
[ X
m
() X() [>
_
.
Do` u :
P ( , [ X
n
() X() [> ) P
__
, sup
mn
[ X
m
() X() [>
__
.
par passage `a la limite en n, et en utilisant les notations simpliees,
lim
n
P ([ X
n
X [> ) lim
n
P
__
sup
mn
[ X
m
X [>
__
=
0.
Denition VI.4 suite de cauchy pour la convergence en probabi-
lite
Soit (X
n
) une suite de vecteurs aleatoires `a valeurs dans R
k
, k N denis
sur un espace probabilise (, /, P). On dit que X
n
est une suite de Cauchy
pour la convergence en probabilite si et seulement si, pour tout > 0 :
lim
n,m
P ([ X
n
X
m
[> ) = 0.
On verie immediatement quune suite de variables aleatoires convergeant
en probabilite est une suite de Cauchy pour la convergence en probabilite.
On montrera ulterieurement la reciproque.
Theor`eme VI.3 Soit (X
n
) une suite de vecteurs aleatoires `a valeurs
dans R
k
, k N denis sur un espace probabilise (, /, P) de Cauchy
pour la convergence en probabilite. Alors, on peut en extraire une sous
suite (X
n
k
) convergeant presque s urement.
Demonstration :
La denition de X
n
suite de Cauchy en probabilite peut se reecrire :
> 0, h > 0, n
h
, n n
h
, m n
h
P ([ X
n
X
m
[> ) < h.
Prenons = h =
1
k
2
pour k N

.
n
k
, n n
k
, m n
k
P
__
[ X
n
X
m
[>
1
k
2
__
<
1
k
2
.
On peut prendre la suite n
k
croissante : si n
k+1
< n
k
, on peut remplacer
n
k+1
par n
k
+ 1.
On a en particulier P
__
[ X
n
k+1
X
n
k
[>
1
k
2
__
<
1
k
2
.


k1
P
__
[ X
n
k+1
X
n
k
[>
1
k
2
__
<

k1
1
k
2
< . On peut donc ap-
pliquer le lemme de Borel-Cantelli :
limsup
_
[ X
n
k+1
X
n
k
[>
1
k
2
_
est negligeable.
limsup
_
[ X
n
k+1
X
n
k
[>
1
k
2
_
=

n1

kn
_
[ X
n
k+1
X
n
k
[>
1
k
2
_
.

n1

kn
_
[ X
n
k+1
X
n
k
[>
1
k
2
_
106
n 1, k n, [ X
n
k+1
() X
n
k
() [>
1
k
2

_

n1

kn
_
[ X
n
k+1
X
n
k
[>
1
k
2
_
_
c
n 1, k n, [ X
n
k+1
() X
n
k
() [
1
k
2
On en conclut que si
_
limsup
_
[ X
n
k+1
X
n
k
[>
1
k
2
__
c
(qui est de
probabilite 1), alors


k1
[ X
n
k+1
() X
n
k
() [

k1
1
k
2
< .
La serie de terme general X
n
k+1
() X
n
k
() est absolument conver-
gente, donc convergente.
Pour tout
_
limsup
_
[ X
n
k+1
X
n
k
[>
1
k
2
__
c
,

p
k+1
X
n
k+1
()
X
n
k
() = X
np+1
() X
n1
() converge quand p .
Ceci montre que lensemble de convergence de (X
np
) est de probabilite
1, cest-`a-dire que la suite (X
np
) converge presque s urement.
Lemme VI.1 Soit X et Y deux vecteurs aleatoires `a valeurs dans R
k
,
k N denis sur un espace probabilise (, /, P). Alors, pour tout > 0,
P ([ X +Y [ ) P
__
[ X [

2
__
+P
__
[ Y [

2
__
.
Demonstration :
Comme [ X() +Y () [[ X() [ + [ Y () [,
[ X() +Y () [ [ X() [ + [ Y () [ .
Si [ X() [ + [ Y () [ , alors [ X() [

2
ou [ Y () [

2
,
cest-`a-dire
_
[ X [

2
_
ou
_
[ Y [

2
_
, ou encore
[ X +Y [
_
[ X [

2
__
[ Y [

2
_
, ce qui donne le resultat du
lemme par croissance de P.
Propriete VI.2 Soit X
1
, X
2
, . . . une suite de vecteurs aleatoires `a valeurs
dans R
k
, k N, denis sur un espace probabilise (, /, P) convergeant
en probabilite vers le vecteur aleatoire X. Alors X est unique au sens de
legalite presque s ure.
Demonstration : voir exercice (VI.6).
Exercice VI.6 Soit X
1
, X
2
, . . . une suite de vecteurs aleatoires `a valeurs
dans R
k
, k N, denis sur un espace probabilise (, /, P) convergeant
en probabilite vers le vecteur aleatoire X. Montrer en utilisant le lemme
(VI.1) que X est unique au sens de legalite presque s ure.
Corrige :
Supposons que X
n
P
X et X
n
P
Y .
Dapr`es le lemme precedent,
0 P ([ X Y [ ) P
__
[ X X
n
[

2
__
+P
__
[ X
n
Y [

2
__
.
De par la convergence en probabilite, le terme de droite tend vers 0
quand n et donc pour tout > 0, P ([ X Y [ ) = 0.
Par la continuite en zero de P, on en deduit P ([ X Y [> 0) = 0,
soit P (X = Y ) = 1, ce qui montre legalite presque s ure de X et Y .
107
Theor`eme VI.4 Soit (X
n
) une suite de vecteurs aleatoires `a valeurs
dans R
k
, k N denis sur un espace probabilise (, /, P) de Cauchy
pour la convergence en probabilite. Alors, il existe un vecteur aleatoire X
tel que X
n
converge en probabilite vers X.
Demonstration : voir exercice (??).
Exercice VI.7 Soit (X
n
) une suite de vecteurs aleatoires `a valeurs dans
R
k
, k N denis sur un espace probabilise (, /, P) de Cauchy pour la
convergence en probabilite. Montrer en utilisant le theor`eme (VI.3) et le
lemme (VI.1) quil existe un vecteur aleatoire X tel que X
n
converge en
probabilite vers X.
Corrige :
Considerons X
np
la sous-suite presque s urement convergente mise en
evidence au theor`eme VI.3 et notons X sa limite.
X
np
converge aussi en probabilite vers X dapr`es le theor`eme VI.2.
Pour tout > 0, dapr`es le lemme VI.1, on a :
0 P ([ X
n
X [ ) P
__
[ X
n
X
np
[

2
__
+P
__
[ X
np
X [

2
__
.
Quand p tend vers linni, n
p
tend vers linni (cest une suite crois-
sante).
Quand p et n tendent vers linni, P
__
[ X
n
X
np
[

2
__
tend vers
zero car X
n
est de Cauchy en probabilite.
De meme P
__
[ X
np
X [

2
__
tend vers 0 quand n et donc la
convergence en probabilite de X
n
vers X.
Remarques :
Par ailleurs, comme toute suite convergeant en probabilite est de cauchy
en probabilite et en vertu du theor`eme VI.3, si X
n
converge en probabi-
lite vers X, il existe une sous-suite X
np
convergeant presque s urement.
Notons Z cette limite.
De par le theor`eme VI.2, X
np
converge aussi en probabilite vers Z.
Par ailleurs, on remarque que X
np
converge en probabilite vers X.
De par lunicite de la limite pour la convergence en probabilite, on en
conclut Z = X, cest-`a-dire que :
Si X
n
converge en probabilite vers X, il existe une sous-suite X
np
convergeant presque s urement vers X.
Le theor`eme suivant generalise cette propriete.
Theor`eme VI.5 Soit X, (X
n
) respectivement un vecteur aleatoire et une
suite de vecteurs aleatoires `a valeurs dans R
k
, k N, denis sur un es-
pace probabilise (, /, P). Une condition necessaire et susante pour que
X
n
P
X est que toute sous-suite de X
n
contienne une sous-suite qui
converge presque-s urement vers X.
Demonstration :
Condition necessaire :
Supposons X
n
P
X.
108
En ecrivant la denition de la convergence en loi, on remarque que toute
sous-suite X
np
(n
p
croissante en p) converge en loi vers X.
De par la remarque precedente, il existe une sous-suite de X
np
qui
converge presque s urement vers X, ce qui montre que la condition
donnee est necessaire.
Condition susante :
Raisonnons par labsurde et supposons que toute sous-suite de X
n
contient
une sous-suite qui converge presque s urement vers X mais que X
n
ne
converge pas en probabilite vers X.
La condition de convergence en probabilite secrit > 0, h > 0, k
N, n k, P([ X
n
X [> ) < h.
La non convergence secrit > 0, h > 0, k, n k, P([ X
n
X [>
) h.
Notons n
k
ce n. On peut prendre n
k
croissant en k sans perte de
generalite.
On a donc k N, P([ X
n
k
X [> ) h et ni X
n
k
ni aucune
sous-suite extraite de X
n
k
ne converge en probabilite vers X.
Ainsi, aucune sous-suite de X
n
k
ne converge presque s urement car si elle
convergeait presque s urement, elle convergerait aussi en probabilite.
Ceci est en contradiction avec le point de depart.
Theor`eme VI.6 invariance de la convergence en probabilite par
transformation continue
Soit X, (X
n
) respectivement un vecteur aleatoire et une suite de vecteurs
aleatoires `a valeurs dans R
k
, k N, denis sur un espace probabilise
(, /, P). Soit f une fonction mesurable de R
k
dans R
l
, l N, f etant
en outre continue sur un borelien de R
k
, B, tel que P(X B) = 1. Si
X
n
P
X, alors f(X
n
)
P
f(X)
Demonstration :
La demonstration est une consequence du theor`eme precedent.
Considerons f(X
nj
) une sous-suite de f(X
n
).
Comme X
nj
converge en probabilite vers X (verier la denition), il
existe une sous suite de X
nj
, soit X
rj
(cest aussi une sous suite de X
n
)
qui converge presque s urement vers X.
Notons A = X

rj

X B.
A appartient, intersection de deux evenements appartient `a /. Ces deux
evenements etant de probabilite 1, A est egalement de probabilite 1.
Pour tout A, X
rj
() X().
Comme en outre f est continue sur A, on en deduit que f(X
rj
())
f(X()), pour tout A, cest-`a-dire que :
f(X
rj
) converge presque s urement vers f(X).
Dapr`es le theor`eme precedent f(X
n
) converge en probabilite vers f(X).
Propriete VI.3 Soient X, X
1
, X
2
, . . . et Y, Y
1
, Y
2
, . . . deux suites de vec-
teurs aleatoires `a valeurs respectivement dans R
k
, k N, et R
l
, l N,
109
denis sur un espace probabilise (, /, P). Si X
n
P
X et Y
n
P
Y , alors
(X
n
, Y
n
)
P
(X, Y ).
Demonstration : voir exercice (VI.8).
Exercice VI.8 Soient X, X
1
, X
2
, . . . et Y, Y
1
, Y
2
, . . . deux suites de vec-
teurs aleatoires `a valeurs respectivement dans R
k
, k N, et R
l
, l
N, denis sur un espace probabilise (, /, P). Montrer en utilisant le
lemme (VI.1) que si X
n
P
X et Y
n
P
Y , alors (X
n
, Y
n
)
P
(X, Y ).
Corrige :
Rappelons tout dabord que (X
n
, Y
n
) et (X, Y ) sont bien des vecteurs
aleatoires `a valeurs dans R
k+l
, denis sur (, /, P)
Avec les notations precedentes, linegalite triangulaire donne :
[ (X
n
, Y
n
) (X, Y ) [[ (X
n
, Y
n
) (X, Y
n
) [ + [ (X, Y
n
) (X, Y ) [.
Par ailleurs, [ (X
n
, Y
n
) (X, Y
n
) [=[ X
n
X [ et [ (X, Y
n
) (X, Y ) [=[
Y
n
Y [.
Avec le meme raisonnement que dans le lemme precedent (VI.1), on
montre que :
P ([ (X
n
, Y
n
) (X, Y ) [ ) P
__
[ X
n
X [

2
__
+P
__
[ Y
n
Y [

2
__
.
Comme les deux quantites de droite convergent vers 0 quand n ,
on en conclut la convergence en probabilite de (X
n
, Y
n
) vers (X, Y ).
Corollaire VI.1 Soient X, X
1
, X
2
, . . . et Y, Y
1
, Y
2
, . . . deux suites de va-
riables aleatoires reelles denies sur un espace probabilise (, /, P). Si
X
n
P
X et Y
n
P
Y et si f est une fonction reelle denie sur R
2
, conti-
nue sur un borelien B de R
2
, tel que P ((X, Y ) B) = 1, alors :
f(X
n
, Y
n
)
P
f(X, Y ).
Demonstration : Ceci est une consequence immediate de la propriete VI.3
et du theor`eme VI.6.
Corollaire VI.2 Soient X, X
1
, X
2
, . . . et Y, Y
1
, Y
2
, . . . deux suites de vec-
teurs aleatoires `a valeurs dans R
k
, k N denis sur un espace probabilise
(, /, P). Si X
n
P
X et Y
n
P
Y , alors :
(a) aX
n
+bY
n
P
aX +bY , a, b R
(b)
1
Xn
P

1
X
si P(X
n
,= 0) = P(X ,= 0) = 1, n.
(c) X
n
Y
n
P
XY
Theor`eme VI.7 convergence en probabilite convergence en loi
Soit X, X
1
, X
2
, . . . une suite de vecteurs aleatoires `a valeurs dans R
k
,
k N denis sur un espace probabilise (, /, P).
X
n
P
X X
n
L
X.
110
Demonstration :
[
Xn
(t)
X
(t) [=[ E
_
e
i<t,Xn>
e
i<t,X>
_
[ E
_
[ e
i<t,Xn>
e
i<t,X>
[
_
(voir cours sur lintegration de fonctions `a valeurs complexes).
Lesperance precedente secrit comme :

_
|XnX|>
[ e
i<t,Xn>
e
i<t,X>
[ dP +
_
|XnX|
[ e
i<t,Xn>
e
i<t,X>
[
dP.
Comme [ e
i<t,Xn>
e
i<t,X>
[ 2, le premier terme est majore par :
2P ([ X
n
X [> ).
[ e
i<t,Xn>
e
i<t,X>
[ represente la longueur de la corde qui relie les
points e
i<t,Xn>
et e
i<t,X>
, ces deux points etant sur le cercle unite.
La longueur de la corde etant inferieure `a la longueur de larc joignant
les deux points, on en deduit :
[ e
i<t,Xn>
e
i<t,X>
[[< t, X
n
> < t, X >[. Par Cauchy-Schwarz,
[ e
i<t,Xn>
e
i<t,X>
[[< t, X
n
> < t, X >[[ t [ [ X
n
X [.
Le deuxi`eme terme est donc majore par [ t [ .
Pour tout > 0 (t etant donne), On peut choisir tel que [ t [ <

2
.
etant maintenant donne, il existe n tel que m n, P ([ X
n
X [> ) <

4
, de par la convergence en probabilite de X
n
vers X.
Ceci montre que m n, [
Xn
(t)
X
(t) [< .

Xn
converge simplement vers
X
, ce qui montre la convergence en loi
de X
n
vers X.
34.3 Convergence en moyenne
Denition VI.1 Convergence en moyenne dordre p
Soit X, X
1
, X
2
, . . . et Y, Y
1
, Y
2
, . . . une suite de vecteurs aleatoires `a valeurs
dans R
k
, k N denis sur un espace probabilise (, /, P). On dit que X
n
converge en moyenne dordre p (ou converge dans L
p
) vers X si X
p
est
integrable (E ([ X
p
[) < ) et si
lim
n
E ([ X
n
X [
p
) = 0.
Remarques :
On rappelle que lapplication X | X |
p
= (E [[ X [
p
])
1/p
denit une
norme sur lensemble des variables aleatoires integrables `a lordre p.
On peut verier que lon conserve une norme dans le cas de vecteurs
aleatoires, en notant comme precedemment [ X [ la norme euclidienne
de X.
La denition peut se reecrire | X
n
X |
p
0 quand n , cest-
`a-dire que lon consid`ere la convergence des vecteurs aleatoires pour la
norme | |
p
.
Comme | X
n
|
p
| X |
p
+ | X
n
X |
p
et que | X
n
X |
p
, X
n
a automatiquement des moments nis dordre p `a partir dun certain
rang.
111
Dans le cas o` u p = 2, on parle de convergence en moyenne quadratique.
Dans le cas o` u p = 1, on parle de convergence en moyenne.
Comme P est une probabilite, si r < p, nous avons dej`a vu que | X |
r
|
X |
p
.
Par consequent, si | X
n
X |
p
0, alors | X
n
X |
r
0. La conver-
gence en moyenne `a lordre p entrane la convergence en moyenne `a tous
les ordres inferieurs `a p.
En particulier, la convergence en moyenne quadratique (ou dans L
2
)
entrane la convergence en moyenne (ou dans L
1
).
Propriete VI.1 convergence en moyenne implique convergence
en probabilite
Soit X, X
1
, X
2
, . . . une suite de vecteurs aleatoires `a valeurs dans R
k
, k
N denis sur un espace probabilise (, /, P). La convergence en moyenne
de X
n
vers X (notee X
n
L1
X) entrane la convergence en probabilite de
X
n
vers X.
Demonstration : voir exercice (VI.9).
Exercice VI.9 convergence en moyenne implique convergence en
probabilite
Soit X, X
1
, X
2
, . . . une suite de vecteurs aleatoires `a valeurs dans R
k
, k
N denis sur un espace probabilise (, /, P). Montrer que la convergence
en moyenne de X
n
vers X (notee X
n
L1
X) entrane la convergence en
probabilite de X
n
vers X.
Corrige :
| X
n
X |=
_
[ X
n
() X() [ dP().
Soit > 0 quelconque.

_
[ X
n
() X() [ dP()
_
|Xn()X()|>
[ X
n
() X() [ dP().

_
|Xn()X()|>
[ X
n
() X() [ dP() P ([ X
n
() X() [> ).
On en conclut, | X
n
X | 0 P ([ X
n
() X() [> ) 0 pour
tout > 0.
La derni`ere propriete netant autre que la convergence en probabilite.
Nous rappelons quelques proprietes etudiees dans le chapitre consacre aux
espaces L
p
.
Propriete VI.2 Soit (X
n
) une suite de vecteurs aleatoires `a valeurs dans
R
k
, k N denis sur un espace probabilise (, /, P). On suppose que la
serie de terme general X
n
est absolument convergente (on rappelle que
labsolue convergence est denie par

n
| X
n
|
1
< ), alors

n
X
n
converge presque partout et dans L
1
, cest-`a-dire quil existe un vecteur
aleatoire X L
1
, tel que :
(a)

nm
X
n
p.s.
X,
(b)

nm
X
n
L1
X,
quand m .
112
Propriete VI.3 Toute suite de cauchy dans L
1
est convergente.
Si X
n
est une suite de cauchy dans L
1
, il existe donc X vers lequel X
converge en moyenne (et a fortiori en probabilite).
Nous enoncons maintenant un theor`eme de convergence enoncant des
conditions susantes pour la convergence en moyenne. Par rapport au
theor`eme de convergence dominee de Lebesgue, on ne suppose ici que la
convergence en probabilite. En revanche, les variables aleatoires sont ma-
jorees par une constante et non simplement par une variable aleatoire
integrable.
Theor`eme VI.1 convergence
Soit X
n
une suite de vecteurs aleatoires denis sur un espace probabilise
(, /, P) `a valeurs dans R
k
(k N) et X un vecteur aleatoire. On suppose
que les [ X
n
[ sont presque s urement majores par une constante K, K 0,
et que les X
n
convergent en probabilite vers X, alors X
n
converge en
moyenne vers X.
demonstration :
Montrons dabord que X
Pp.s
K. [ X [[ X X
n
[ + [ X
n
[
Pp.s
[
X X
n
[ +K. Soit k N et .
[ X() [> K +
1
k
[ X() X
n
() [ +K > K +
1
k
. On a alors [ X [>
K+
1
k
[ XX
n
[>
1
k
. P
_
[ X [> K +
1
k
_
P
_
[ X X
n
[>
1
k
_
. De
par la convergence en probabilite, lim
n
P
_
[ X X
n
[>
1
k
_
= 0. Do` u
P
_
[ X [> K +
1
k
_
= 0. Comme [ X [> K =

kN
[ X [> K +
1
k
,
P([ X [> K) = P
_
kN
[ X [> K +
1
k

kN
P
_
[ X [> K +
1
k
_
=
0, on a P([ X [> K) = 0, ce qui montre que X
Pp.s
K.
Montrons maintenant le theor`eme. Soit > 0. Comme X
n
converge
en probabilite vers X, lim
n
P
_
[ X
n
X [>

3
_
= 0. Donc il existe
n
0
N, tel que n n
0
P
_
[ X
n
X [>

3
_
<

3K
. Pour n n
0
,
E([ X
n
X [) = E([ X
n
X [ 1I
|XnX|>

3
)+E([ X
n
X [ 1I
|XnX|

3
)
E
_
([ X
n
[ + [ X [)1I
|XnX|>

3
_
+

3
E(1I
|XnX|

3
). Cette derni`ere quan-
tite est majoree par 2KP([ X
n
X [>

3
) +

3
, et donc par , ce qui
montre que X
n
converge en moyenne vers X.
Pour aller plus loin dans les liens entre convegence en probabilite et
convergence en moyenne, il est utile dintroduire le concept duniforme
integrablite. On rappelle au prealable que si [ X [ est un vecteur aleatoire
integrable (E
P
([ X [) < ), alors E
P
([ X [ 1I
|X|>
) 0 quand
0. En eet, pour toute suite
n
tendant vers 0, la suite X
n
=[ X [
1I
|X|>n
converge P presque-s urement vers 0 et les X
n
sont majores par
X integrable, ce qui montre lassertion par le theor`eme de convergence
dominee.

Etant donne une suite de vecteurs aleatoires, le concept duni-
forme integrabilite exprime que cette decroissance vers 0 se fait de mani`ere
uniforme.
113
Denition VI.2 uniforme integrabilite.
Soit X
i
, i I, une famille de vecteurs aleatoires denis sur un espace
probabilise (, /, P) `a valeurs dans R
k
(k N). On dit que cette famille
est uniformement integrable si pour tout > 0, il existe K > 0 tel que :
i I, E
P
_
[ X
i
[ 1I
|Xi|>K
_
< .
La famille I nest pas forcement denombrable. Luniforme integrabilite
implique lintegrabilite et que la famille X
i
est bornee dans L
1
, cest-`a-
dire que toutes les esperances des [ X
i
[ sont majorees par une constante
(independante de i). En eet, prenons = 1 et notons K
1
tel que i
I, E
P
_
[ X
i
[ 1I
|Xi|>K1
_
< 1. Comme E
P
([ X
i
[) = E
P
_
[ X
i
[ 1I
|Xi|>K1
_
+
E
P
_
[ X
i
[ 1I
|Xi|K1
_
< 1 + K
1
. En revanche, une famille de vecteurs
aleatoires integrables nest pas forcement uniformement integrable. Il se
peut meme quune famille de vecteurs aleatoires integrables soit bornee
dans L
1
sans etre uniformement integrable. Considerons par exemple le
cas o` u P est la mesure uniforme sur [0, 1] et une suite de variables aleatoires
X
n
= n1I
]0,1/n[
. On a E
P
[X
n
] = 1, n N. Soit K > 0 quelconque et
n > K. On a E
P
([ X
n
[ 1I
|Xn|>K
) = 1, ce qui montre que la suite X
n
nest
pas uniformement integrable. On remarque au passage que X
n
Pp.s
0, mais
que E
P
(X
n
) = 1 ne tend pas vers 0.
Propriete VI.4 condition susante duniforme integrabilite Soit
(, /, P) un espace probabilise et Soit X
i
, i I une famille de vecteurs
aleatoires denis sur (, /, P) `a valeurs dans R
k
, k N.
(a) Si la famille X
i
, i I est bornee dans L
p
pour p > 1,cest-`a-dire sil
existe une constante A > 0 telle que i I, E
P
([ X
i
[
p
) < A, alors
la famille X
i
est uniformement integrable.
(b) Si la famille X
i
est dominee par une variable integrable Y , cest-`a-
dire si i I, [ X
i
[
Pp.s
Y et E
P
(Y ) < , alors la famille X
i
est
uniformement integrable.
demonstration : la demonstration est laissee `a titre dexercice.
On remarque que la condition 2 est celle qui intervient dans le theor`eme
de convergence dominee de Lebesgue.

Enoncons maintenant le theor`eme
qui relie convergence en probabilite en convergence en moyenne au moyen
du concept duniforme integrabilite.
Theor`eme VI.2 Soit (, /, P) un espace probabilise, X
n
une suite de
vecteurs aleatoires integrables denis sur (, /, P) `a valeur dans R
k
(k
N) et X un vecteur aleatoire integrable. Alors X
n
converge en moyenne
(ou dans L
1
) vers X si et seulement si les deux conditions suivantes sont
veriees.
(a) X
n
converge vers X en probabilite.
(b) la suite X
n
est uniformement integrable.
114
Chapitre 35
Theor`emes de
convergence
35.1 Loi des grands nombres
On rappelle pour memoire le lemme de Borel-Cantelli demontre au cha-
pitre I.
Propriete VI.1 Lemme de Borel-Cantelli
Soit (, /, P) un espace probabilise et A
n
une suite dev`enements de /.
On suppose que

P(A
n
) < . Alors limsupA
n
est negligeable.
Il est egalement possible detablir le resultat suivant :
Corollaire VI.1 theor`eme de Borel-Cantelli
Soit (, /, P) un espace probabilise et A
n
une suite dev`enements independants
de /.
(a) Si

P(A
n
) < , alors limsupA
n
est negligeable.
(b) Si

P(A
n
) diverge, alors P(limsupA
n
) = 1.
Demonstration :
Verions la partie 2 du corollaire.
On rappelle que P(limsupA
n
) = lim
n
P
_

mn
A
m
_
.
Il faut donc montrer que pour tout n P
_

mn
A
m
_
= 1.
Dapr`es les proprietes des operations sur les ensembles,
_

mn
A
m
_
c
=

mn
A
c
m
et par consequent P
_

mn
A
m
_
= 1 P
_

mn
A
c
m
_
.
P
_

mn
A
c
m
_
= lim
N
P
_

nmN
A
c
m
_
.
Dapr`es lindependance des A
n
, P
_

nmN
A
c
m
_
=

nmN
P(A
c
m
) =

nmN
(1 P(A
m
)).
115
Comme 1 = x expx, 0 1 P(A
m
) exp(P(A
m
)).
P
_

nmN
A
c
m
_
exp
_

nmN
P(A
m
)
_
.
Comme

P(A
n
) diverge, lim
N
exp
_

nmN
P(A
m
)
_
= 0.
Donc, P
_

mn
A
c
m
_
= 0, ce qui montre le corollaire.
Propriete VI.2 Soit X
n
une suite de variables aleatoires reelles denies
sur un espace probabilise (, /, P) et une constante. On a :
X
n
P
X
n
L
.
Demonstration :
Limplication est un resultat general deja demontre. Montrons la reciproque.
Soit > 0. On veut montrer que P([ X
n
[> ) 0 quand n ,
ou de mani`ere equivalente que P([ X
n
[ ) 1.
P([ X
n
[ ) = E
P
_
1I
|Xn|
_
= E
P
Xn
_
1I
|x|
_
=
_
1I
|x|
dP
Xn
(x).
Considerons la fonction reelle continue f, nulle en dehors de ], +[,
telle que f() = 1 et lineaire sur [ , ], [, + ]. f est continue,
bornee et f(x) 1I
|x|
.
Do` u P([ X
n
[ )
_
f(x)dP
Xn
(x).
Comme P
Xn
e
P

= (),
_
f(x)dP
Xn
(x)
_
f(x)dP

(x) = f() =
1.
Comme 1 P([ X
n
[ )
_
f(x)dP
Xn
(x), on en deduit que
P([ X
n
[ ) 1, ce qui montre la propriete.
Theor`eme VI.1 Loi faible des grands nombres de Khintchine
Soit X
n
une suite de variables aleatoires reelles denies sur un espace
probabilise (, /, P), independantes, de meme loi, integrables desperance
E(X
n
) = . Alors,
1
n

mn
X
m
=
S
n
n
P
.
Demonstration : voir exercice (VI.10).
Exercice VI.10 Loi faible des grands nombres de Khintchine
Soit X
n
une suite de variables aleatoires reelles denies sur un espace
probabilise (, /, P), independantes, de meme loi, integrables desperance
E(X
n
) = . Montrer en utilisant le theor`eme de Levy et en faisan un
developpement limite que,
1
n

mn
X
m
=
S
n
n
P
.
Corrige :
Montrons dabord la convergence en loi de
Sn
n
vers .
On utilise les fonctions caracteristiques ; on note , la fonction ca-
racteristique de X
n
(ne dependant pas de n).
116
Dapr`es lindependance des
Xm
n
, la fonction caracteristique de

mn
Xm
n
secrit comme
_

_
t
n
__
n
.
Comme le premier moment existe, on en deduit que
(1)
(0) = i.
En faisant un developpement limite autour de zero, (t) = 1+it+o(t).

_
t
n
__
n
= exp
_
nln
_
1 +i
t
n
+o
_
t
n
___
dont la limite quand n
est e
it
.
La limite est donc la fonction caracteristique dune variable aleatoire
constante egale `a , ce qui montre la convergence en loi vers .
Dapr`es la propriete precedente, la convergence en loi vers une constante
implique la convergence en probabilite, ce qui montre la loi faible des
grands nombres.
Theor`eme VI.2 Loi forte des grands nombres de Kolmogorov
Soit X
n
une suite de variables aleatoires reelles denies sur un espace
probabilise (, /, P), independantes, de meme loi, integrables desperance
E(X
n
) = . Alors,
1
n

mn
X
m
=
S
n
n
p.s.
.
Theor`eme VI.3 Loi des grands nombres dans L
2
Soit X
n
une suite de variables aleatoires reelles denies sur un espace
probabilise (, /, P), non correlees, de carre integrable, et de meme
esperance et variance
2
. Alors,
1
n

mn
X
m
=
S
n
n
L2
.
Demonstration : voir exercice (VI.11)
Remarques : on demande ici lexistence des moments dordre 2. Par
ailleurs, on na pas besoin de lindependance, il sut que les X
n
soient non
correles. On na pas non plus besoin que les X
n
soient de meme loi, mais
simplement que les deux premiers moments soient invariants. Bien s ur si
les X
n
sont iid, les hypoth`eses du theor`eme sont veriees. Enn, rappelons
que la convergence dans L
2
implique la convergence en probabilite, mais
que convergence en moyenne quadratique et convergence presque s ure ne
sont pas comparables en toute generalite.
Exercice VI.11 Loi des grands nombres dans L
2
Soit X
n
une suite de variables aleatoires reelles denies sur un espace
probabilise (, /, P), non correlees, de carre integrable, et de meme
esperance et variance
2
. Alors,
1
n

mn
X
m
=
S
n
n
L2
.
Corrige :
117
On cherche `a montrer que E
_
_
Sn
n

_
2
_
tend vers zero quand n .
Comme E
_
Sn
n

= 0, E
_
_
Sn
n

_
2
_
= Var
_
Sn
n

.
Var
_
Sn
n

= Var
_
Sn
n

=
1
n
2
Var [S
n
].
Comme les X
n
sont non correles, Var [S
n
] = n
2
.
Do` u E
_
_
Sn
n

_
2
_
=

2
n
0 quand n , ce qui montre le
theor`eme.
35.2 Theor`eme central limite
Theor`eme VI.1 theor`eme central limite (Lindeberg-Levy) unidi-
mensionnel
Soit (X
n
) une suite de variables aleatoires reelles denies sur un espace
probabilise (, /, P), independantes et de meme loi, de carre integrable
(E(X
2
n
) < ). On note et
2
respectivement la moyenne et la variance
de X
n
et

X
n
=
1
n

n
i=1
X
i
. Alors,

n
_

X
n

_
L
N(0, 1).
Remarque : on rappelle que
L
N(0, 1) signie la convergence etroite des
mesures images associees aux variables aleatoires

n
_

Xn

_
vers la loi
normale centree reduite.
Demonstration : voir exercice (VI.12).
Exercice VI.12 theor`eme central limite (Lindeberg-Levy) unidi-
mensionnel
Soit (X
n
) une suite de variables aleatoires reelles denies sur un espace
probabilise (, /, P), independantes et de meme loi, de carre integrable
(E(X
2
n
) < ). On note et
2
respectivement la moyenne et la variance
de X
n
et

X
n
=
1
n

n
i=1
X
i
. En utilisant , la fonction caracteristique
de
Xi

et en faisant un developpement limite `a lordre 2 de la fonction


caracteristique de

n
_

Xn

_
, montrer que :

n
_

X
n

_
L
N(0, 1).
Corrige :
Notons la fonction caracteristique de la variable aleatoire,
Xi

.
Comme les X
i
sont de meme loi, cette fonction caracteristique ne depend
pas de i.
On peut reecrire

n
_

Xn

_
comme
1

n
i=1
Xi

.
118
La fonction caracteristique de
1

n
Xi

secrit en fonction de comme


t
_
t

n
_
.
Les variables aleatoires
1

n
Xi

sont independantes. La fonction ca-


racteristique de leur somme est egale `a
_

_
t

n
__
n
.
On remarque que
Xi

est desperance egale `a zero et de variance egale


`a 1. On en deduit les derivees premi`ere et seconde de la fonction ca-
racteristique en zero :
(1)
(0) = 0 et
(2)
(0) = 1.
Un developpement limite `a lordre 2 en
t

n
de donne :

_
t

n
_
= 1
t
2
2n
+
t
2
n
o
_
t

n
_
, avec lim
x0
o(x) = 0. Do` u :

_
t

n
__
n
=
_
1 +
1
n
_

t
2
2
+o
_
t

n
___
n
. Cette derni`ere quantite secrit
comme :
exp
_
nln
_
1 +
1
n
_

t
2
2
+o
_
t

n
____
.
En utilisant les r`egles usuelles sur la composition des developpements
limites, on obtient que la derni`ere quantite converge vers e
t
2
/2
quand
n , ce qui montre la convergence en loi vers la loi normale centree
reduite.
Theor`eme VI.2 theor`eme central limite (Lindeberg-Levy) mul-
tidimensionnel
Soit (X
n
) une suite de vecteurs aleatoires `a valeurs dans R
p
, p N, denis
sur un espace probabilise (, /, P), independants et de meme loi, de carre
integrable (E([ X
n
[
2
) < ). On note et
2
respectivement le vecteur
moyenne et la matrice de variance-covariance de X
n
et

X
n
=
1
n

n
i=1
X
i
.
Alors,

n
_

X
n

_
L
N(0, ).
Demonstration :
Soit t R
p
. Posons Y
n
= t

X
n
et

Y
n
=
1
n

jn
Y
j
. Les Y
n
sont des
variables aleatoires independantes et de meme loi, desperance egale `a
t

et de variance egale `a t

t.
En utilisant le theor`eme central limite (unidimensionnel),

n
_

Ynt

(t

t)
1/2
_
L

N(0, 1).
On verie facilement en utilisant les proprietes des fonctions caracteristiques
que si une suite de variables aleatoires reelles Z
n
converge en loi vers
N(0, 1) alors pour tout R, Z
n
L
N(0,
2
).
On en deduit,

n
_

Y
n
t

_
L
N(0, t

t).
Notons X un vecteur aleatoire `a valeurs dans R
p
, distribue comme
N(0, ) (on a vu lexistence de tels vecteurs aleatoires). t

X est une
variable aleatoire gaussienne distribuee comme N(0, t

t).
Comme

Y
n
= t


X
n
, la convergence en loi de

n
_

Y
n
t

_
vers une loi
N(0, t

t) signie que t

_
n
_

X
n

_
converge en loi vers t

X.
Comme la propriete precedente est vraie pour tout t R
p
, on en deduit
le resultat annonce dapr`es le theor`eme de Cramer-Wold.
119
Propriete VI.1 approximation de la loi normale par une loi bi-
nomiale
Soit X
n
une suite de variables aleatoires reelles, denies sur un espace
probabilise (, /, P), X
n
suivant une loi B(n, p) (o` u B(n, p) designe la loi
binomiale de param`etres n et p). Alors,
X
n
np

npq
L
N(0, 1),
o` u q = 1 p.
Demonstration : Voir exercice (??).
Corrige :
On rappelle que si X est distribue comme une loi binomiale de pa-
ram`etres n et p, alors P(X = x) = C
x
n
p
x
(1p)
nx
pour x = 0, 1, 2, . . . , n.
Si lon consid`ere n tirages avec remise parmi une urne contenant une
proportion p de boules rouges, on a une probabilite P(X = x) de tirer x
boules rouges. La pour fonction caracteristique de X,
X
est telle que

X
(t) = E
_
e
itX
_
=

n
x=1
P(X = x)e
itx
=

n
x=1
C
x
n
_
pe
it
_
x
q
nx
=
_
pe
it
+q
_
n
en vertu de la formule du binome. En considerant les derivees
de en zero, on en deduit les deux premiers moments de X : E(X) = np,
Var(X) = npq.
Considerons une suite de variables aleatoires independantes, de Ber-
noulli, Y
i
, i = 1, 2, . . . , prenant la valeur 1 avec la probabilite p et 0
avec la probabilite q (il sagit en fait dune loi B(1, p).
On remarque que la fonction caracteristique de Y
i
est egale `a pe
it
+q.


in
Y
i
admet pour fonction caracteristique
_
pe
it
+q
_
n
et a donc la
meme loi que X
n
.
Par la denition meme de la convergence en loi si une suite de variables
aleatoires converge en loi vers une loi limite, toute suite de variables
aleatoires de meme loi converge en loi vers la meme loi limite.
Il sut donc de verier que
P
in
Yinp

npq
L
N(0, 1).
En notant

Y
n
=
1
n

in
Y
i
, le terme de gauche secrit comme

n

Ynp

pq
.
La propriete enoncee est alors une application directe du theor`eme cen-
tral limite dans le cas de variables de Bernoulli.
On peut ainsi simuler une loi normale `a partir dun simple jeu de pile
ou face.
Propriete VI.2 approximation de la loi normale multivariee par
une loi multinomiale
Soit X
n
une suite de vecteurs aleatoires `a valeurs dans R
m
(m N),
denis sur un espace probabilise (, /, P), X
n
suivant une loi multino-
miale /(n, p
1
, . . . , p
m
) de param`etres n et p
1
, . . . , p
i
, . . . , p
m
(p
i
> 0,

m
i=1
p
i
= 1). On note p le vecteur de dimension m et de composantes
p
i
, i = 1, . . . , m et on note q
i
= 1 p
i
. Alors,
X
n
np

n
L
N(0, ),
120
o` u est la matrice de termes diagonaux p
i
q
i
et de termes croises p
i
p
j
.
Demonstration :
Quelques rappels sur la loi multinomiale.
Si le vecteur aleatoire X = (X
1
, . . . , X
m
) est distribue comme une loi
multinomiale de param`etres n et p = (p
1
, . . . , p
m
), alors :
P(X
1
= x
1
et . . . et X
m
= x
m
) =
n!
x1!...xm!
p
x1
1
. . . p
xm
m
pour x
1
= 0, 1, 2, . . . , n, . . ., x
m
= 0, 1, 2, . . . , n et

n
i=1
x
i
= n.
La fonction caracteristique (vectorielle) de X,
X
est telle que :

X
(t
1
, . . . , t
m
) =
_

m
j=1
p
j
e
itj
_
n
.
On remarque que la loi de X est la loi de la somme de n vecteurs
aleatoires Y
i
= (Y
i,1
, . . . , Y
i,m
) independants identiquement distribues
suivant une loi multinomiale /(1, p).
En considerant les derivees en zero de la fonction caracteristique, on
en deduit que les deux premiers moments du vecteur aleatoire Y
i
sont
tels que :
E(Y
i,j
) = p
j
, Var(Y
i,j
) = p
j
q
j
(o` u q
j
= 1 p
j
) et Cov(Y
i,j
, Y
i,l
) =
p
j
p
l
pour j = 1, . . . , m et l = 1, . . . , m.
On reconnat la matrice introduite dans lenonce de la propriete.
Comme X
n

in
Y
i
, il sut donc detudier la convergence (en loi)
de
P
in
Yinp

n
.
En notant

Y
n
=
1
n

in
Y
i
, le terme precedent secrit comme

n
_

Y
n
p
_
.
La propriete enoncee est alors une application directe du theor`eme
central limite (cas muldimensionnel).
Propriete VI.3 Convergence de la loi de Poisson vers la loi nor-
male
Soit X une variable aleatoire distribuee selon une loi de Poisson T().
Alors
X

L
N(0, 1) quand .
Demonstration :
On rappelle quune variable aleatoire X suit une loi de Poisson de
param`etre ( > 0), notee T() si :
P(X = x) = e

x
x!
pour x N. On a par ailleurs, E(X) = et
Var(X) = .
La fonction caracteristique de X se calcule facilement comme
X
(t) =
e
(e
it
1)
.
Posons Y =
X

=
X

. En utilisant les proprietes des fonctions


caracteristiques,

Y
(t) = e
it

X
_
t

_
= exp
_
it

+(e
it/

1)
_
.
e
it/

1 =
it

+
1
2
_
it

_
2
+
_
it

_
2
o
_
1

_
.

_
e
it/

1
_
= it


t
2
2
_
1 +o
_
1

__
.
On en conclut que
Y
(t) tend vers e
t
2
/2
quand , ce qui
montre la propriete.
121
Propriete VI.4 Soit X
n
une suite de variables aleatoires X
n
distribuees
selon des lois binomiales B(n, p
n
). Si np
n
quand n tend vers linni,
alors,
X
n
L
T(),
quand n tend vers linni (T() est la loi de Poisson de param`etre ).
Demonstration :
Notons
Xn
(t) la fonction caracteristique de X
n
.
On a
Xn
(t) =
_
q
n
+p
n
e
it
_
n
=
_
1 +p
n
(e
it
1)
_
n
.
Comme np
n
= +o
_
1
n
_
, on peut ecrire
Xn
(t) comme :

Xn
(t) = exp
_
nLog
_
1 +
1
n
_
+o
_
1
n
__
(e
it
1)
__
.
On voit alors que
Xn
(t) tend vers exp
_

_
e
it
1
__
, ce qui montre la
propriete.
35.3 Convergence de la fonction de repartition
empirique
Denition VI.1 Empirical c.d.f. Let X
n
be a sequence of independent,
identically distributed, real-valued random variables. The empirical cumu-
lative distribution function F
n
is dened by :
F
n
(x) =
1
n
n

k=1
1I
{X
k
x}
For all n, F
n
is a simple function. You can use the F
n
to approximate the
c.d.f. of the X
n
thanks to the following theorem.
Theor`eme VI.3 (Gnedenko-Cantelli theorem) Let X
n
be a sequence
of i.i.d. random variables and F
n
the associated empirical c.d.f. s. Then
sup
xR
[F
n
(x) F(x)[
a.s.
0 as n .
122
Chapitre 36
Esperance conditionnelle
36.1 Denition of Conditional Expectation
36.1.1 General denition
Recall the denition of conditional probability associated with Bayes Rule
P(A[B)
P(A B)
P(B)
For a discrete random variable X we have
P(A) =

x
P(A, X = x) =

x
P(A[X = x)P(X = x)
and the resulting formula for conditional expectation
E(Y [X = x) =
_

Y ()P(dw[X = x)
=
_
X=x
Y ()P(dw)
P(X = x)
=
E(Y 1
(X=x)
)
P(X = x)
We would like to extend this to handle more general situations where
densities dont exist or we want to condition on very complicated sets.
Denition VI.2 Given a random variable Y with E[Y [ < dened on
a probability space (, /, P) and some sub--eld ( / we will dene the
conditional expectation as the almost surely unique random variable
E(Y [() which satises the following two conditions
1. E(Y [() is (-measurable
2. E(Y Z) = E(E(Y [()Z) for all Z which are bounded and (-measurable
123
Remark : one could replace 2. in the previous denition with :
G (, E(Y 1
G
) = E(E(Y [()1
G
).
124
Proof of existence and unicity
Existence Using linearity, we need only consider X 0. Dene a mea-
sure Q on T by Q(A) = E[X1
A
] for A T. This is trivially absolutely
continuous with respect to P
|F
, the restriction of P to F. Let E[X[T] be
the Radon-Nikodym derivative of Q with respect to P
|F
. The Radon-
Nikodym derivative is T-measurable by construction and so provides
the desired random variable.
Unicity : If Y
1
, Y
2
are two T-measurable random variables with E[Y
1
1
A
] =
E[Y
2
1
A
] for all A T, then Y
1
= Y
2
, a.s., or conditional expectation is
unique up to a.s. equivalence.
For ( = (X) when X is a discrete variable, the space is simply par-
titioned into disjoint sets = .G
n
. Our denition for the discrete case
gives
E(Y [(X)) = E(Y [X)
=

n
E(Y 1
X=xn
)
P(X = x
n
)
1
X=xn
=

n
E(Y 1
Gn
)
P(G
n
)
1
Gn
which is clearly (-measurable. In general for ( = (X) :
Denition VI.3 Conditional expectation of Y given X
Let (, /, P) be a probability space, Y L
1
(, /, P) and X another ran-
dom variable dened on (, /, P). Dene then E(Y [ X) the conditional
expectation of Y given X as E(Y [ (X)).
Proposition VI.1 Let (, /) be a measurable space,
Y L
1
(, /, P)
and X another real-valued random variable dened on (, /, P). As
X = f(Y ), where f is measurable, real-valued function if and only if
(X) (Y ), we get that E(Y [ X) is a measurable function of X.
Proposition VI.2 Let (, /, P) be a probability space, and X and Y two
independent random variables such that Y is P-integrable. Then E(Y [
X) = E(Y ), P-almost surely.
Do not mix this notion with the following :
36.1.2 Couples of random variables with p.d.f.
Proposition VI.3 Let (X, Y ) be a couple of real-valued random variables
with p.d.f. f
X,Y
(x, y) w.r.t. the Lebesgue measure on R
2
. Denote the res-
pective marginal p.d.f. of X and Y as f
X
(x) and f
Y
(y). Consider f
X|Y
(x [
125
y) =
f
X,Y
(x,y)
f
Y
(y)
. Then almost surely
C B, P(X C [ Y = y) =
_
C
f
X|Y
(x [ y)dx.
If besides X is P-integrable, then
E(X [ Y = y) =
_
R
xf
X|Y
(x [ y)dx.
If g : R
2
R is a measurable function such that g(X, Y ) is integrable,
then
E(g(X, Y ) [ Y = y) =
_
R
g(x, y)f
X|Y
(x [ y)dx.
Remarks : As soon as f
Y
(y) > 0, this denes the distribution of X given
that Y = y, described by p.d.f f
X|Y
(x [ y), which is nonnegative and of
integral 1.
If X and Y are independent, f
X|Y
= f
X
and f
Y |X
= f
Y
. To make the link
with E[X[Y ] would require to introduce the concept of regular conditional
distribution.
Equation (V I.3) may be useful to compute the mathematical expectation
of g(X, Y ) as
E(g(X, Y )) =
_
R
__
R
g(x, y)f
X|Y
(x [ y)dx
_
f
Y
(y)dy.
36.2 Properties of Conditional Expectation
36.2.1 Conditional expectation
E([() may be seen as an operator on random variables that transforms
/-measurable variables into (-measurable ones.
Let us recall the basic properties of conditional expectation :
(a) E([() is positive :
Y 0 E(Y [() 0)
(b) E([() is linear :
E(aX +bY [() = aE(X[() +bE(Y [()
(c) E([() is a projection :
E(E(X[()[() = E(X[()
126
(d) More generally, the tower property. If H ( then
E(E(X[()[H) = E(X[H) = E(E(X[H) [ ()
Proof : The right equality holds because E[X[H] is H- measurable,
hence (-measurable. To show the left equality, let A H. Then since
A is also in (,
E[E[E[X[(][H]1
A
] = E[E[X[(]1
A
] = E[X1
A
] = E[E[X[H]1
A
].
Since both sides are H- measurable, the equality follows.
(e) E([() commutes with multiplication by (-measurable variables :
E(XY [() = E(X[()Y for E[XY [ < and Y (measurable
Proof : If A (, then for any B (,
E[1
A
E[X[(]1
B
] = E[E[X[(]1
AB
] = E[X1
AB
] = E[(1
A
X)1
B
].
Since 1
A
E[X[(] is (-measurable, this shows that the required equa-
lity holds when Y = 1
A
and A (. Using linearity and taking limits
shows that the equality holds whenever Y is (-measurable and X and
XY are integrable.
(f) E([() respects monotone convergence :
0 X
n
X = E(X
n
[() E(X[()
(g) If is convex (in particular if (x) = x
2
) and E[(X)[ < then a
conditional form of Jensens inequality holds :
(E(X[() E((X)[()
(h) E([() is a continuous contraction of L
p
for p 1 :
|E(X[()|
p
|X|
p
and
X
n
L
p

X implies E(X
n
[() L
p

E(X[()
(i) Repeated Conditioning. For (
0
(
1
. . ., (

= ((
i
), and X
L
p
with p 1 then
E(X[(
n
) a.s.

E(X[(

)
E(X[(
n
) L
p

E(X[(

)
127
(j) Best approximation property :
Suppose that the random variable X is square-integrable, but not
measurable with respect to (. That is, the information in ( does not
completely determine the values of X. The conditional expectation,
Y = E[X [ (], has the property that it is the best approximation
to X among functions measurable with respect to Y , in the least
squares sense. That is, if

Y is (-measurable, then
E
_
(

Y X)
2
_
E
_
(Y X)
2

.
It thus realizes the orthogonal projection of X onto a convex closed
subset of a Hilbert space. This predicts the variance decomposition
theorem that we shall see in a further section.
36.2.2 Conditional variance
Denition VI.4 Let X be a square-integrable, real-valued random va-
riable dened on a probability space (, /, P), and let T be a sub--
algebra of /. Dene the conditional variance of X given T (denoted
by Var(X [ T)) as the random variable E((X E(X [ T))
2
[ T).
Dene also the conditional variance of X given a real-valued random va-
riable Y dened on (, /, P) (denoted by Var(X [ Y )) as the random
variable E((X E(X [ Y ))
2
[ Y ).
Proposition VI.4 Var(X [ T) and Var(X [ Y ) are well- dened, almost
surely nonnegative and nite.
Var(X [ T) = E(X
2
[ T) E(X [ T)
2
,
and
Var(X [ Y ) = E(X
2
[ Y ) E(X [ Y )
2
.
Proposition VI.5 Variance decomposition formula
Let (X, Y ) be a couple of random variables dened on a probability space
(, /, P), such that X is square-integrable. Then
Var(X) = E(Var(X [ Y )) + Var(E(X [ Y )).
This may be very useful in non-life insurance to nd the variance of a
compound distribution.
Proof :
Var(X [ Y ) = E(X
2
[ Y ) (E(X [ Y ))
2
.
E[Var(X [ Y )] = E[E(X
2
[ Y )] E[(E(X [ Y ))
2
].
E[E(X
2
[ Y )] = E[X
2
].
E[Var(X [ Y )] = E[X
2
] E[(E(X [ Y ))
2
].
Var(E(X [ Y )) = E[(E(X [ Y ))
2
] (E[E(X [ Y )])
2
.
E[E(X [ Y )] = E[X].
Hence Var(E(X [ Y )) = E[(E(X [ Y ))
2
] (E[X])
2
.
128
36.2.3 Compound distributions
Let (, /, P) be a probability space, and
(X
n
)
nN
a sequence of i.i.d., nonnegative random variables dened on
(, /, P). X
n
represents the severity of the n
th
claim in the collective
risk model.
N an random variable dened on (, /, P) and taking values in N,
independent from the X
n
. It represents the number of claims.
Let S
N
= X
1
+... +X
N
represent the aggregate claim amount.
In many models we may know the mean and variance of N and X
1
. How
can we then get the mean and variance of S
N
? Simply by conditioning
on the number of claims, and using conditional expectation and variance
given N.
Proposition VI.6 First,
ES
N
= EN.EX
1
Moreover, thanks to the variance decomposition theorem, we may decom-
pose V ar(S
N
) into two parts : the rst one represents the part due to
variability in claim amounts ; the second one represents the part due to
variability in the number of claims :
V ar(S
N
) = EN.V ar(X
1
) + (EX
1
)
2
.V ar(N)
Formule de decomposition de la variance
Soit (X, Y ) un couple de variables aleatoires reelles denies sur un espace
probabilise (, /, P), X de carre integrable. Montrer que :
Var(X) = E(Var(X [ Y )) + Var(E(X [ Y )).
Preuve :
Var(X [ Y ) = E(X
2
[ Y ) (E(X [ Y ))
2
.
E[Var(X [ Y )] = E[E(X
2
[ Y )] E[(E(X [ Y ))
2
].
E[E(X
2
[ Y )] = E[X
2
].
E[Var(X [ Y )] = E[X
2
] E[(E(X [ Y ))
2
].
Var(E(X [ Y )) = E[(E(X [ Y ))
2
] (E[E(X [ Y )])
2
.
E[E(X [ Y )] = E[X].
Do` u Var(E(X [ Y )) = E[(E(X [ Y ))
2
](E[X])
2
et le resultat annonce.

129
Septi`eme partie
Bibliographie
131
Basel-Commitee (2001a) Operational risk, consultative document. Sup-
porting Document to the New Basel Capital Accord.
Basel-Commitee (2001b) Sound practices for the management and super-
vision of operational risk Consultative Document.
Basel-Commitee (2001c) Working paper on the regulatory treatment of
operational risk .
Basel-Commitee (2003) Supervisory guidance on operational risk advan-
ced measurement approaches for regulatory capital .
Charpentier, A., Denuit, M. (2004) Mathematiques de lassurance non-vie,
tome I. Economica.
Durrett, R. (1999) Essentials of stochastic processes. Springer Texts in
Statistics. Springer-Verlag, New York.
Frachot, A., Moudoulaud, O., Roncalli, T. (2003) Loss distribution ap-
proach in practice. dans le livre : The Basel Handbook : A guide for
nancial practitionners .
Giure, S. E. (2004) Operational risk : How good is the coverage ? .
Jordan, J. S. (2003) Quantifying operational risk : A supervisors pers-
pective. presentation lors du seminaire Operational Risk in Banks and
Financial Institutions `a Londres .
Kuritzkes, A., Zi, B. (2004) Operational risk : New approaches to mea-
surement and modeling .
Lopez, J. A. (2002) What is operational risk ? FRBSF Economic Letter
(2).
McNee, A. (2002) Rating operational risk. disponible en ligne sur le site
www.erisk.com .
OBrien, N., Smith, B., Allen, M. (2002) Operational risk - models. dispo-
nible en ligne sur le site www.nancewise.com .
Partrat, C., Besson, J.-L. (2004) Assurance non-vie. Modelisation, simu-
lation. Economica.
Pennequin, M., Roncalli, T., Salomon, E. (2004) La prise en compte de la
diversication des risques operationnels. Banque Magazine 660.
Rolski, T., Schmidli, H., Schmidt, V., Teugels, J. (1999) Stochastic pro-
cesses for insurance and nance. Wiley Series in Probability and Statis-
tics. John Wiley & Sons Ltd., Chichester.
132
Roncalli, T. (2004) Gestion des risques nanciers. Economica.
Rudin, W. (1987) Real and complex analysis, 3e

Edition. McGraw-Hill
Book Co., New York.
Shaked, M. (1980) On mixtures from exponential families. J. Roy. Statist.
Soc. Ser. B 42, 192198.
Tripp, M. H., Bradley, H. L., Devitt, R., Orros, G. C., Overton, G. L.,
Pryor, L. M., Shaw, R. A. (2004) Quantifying operational risk in general
insurance companies. presente `a lInstitute of Actuaries .
133

Vous aimerez peut-être aussi