Académique Documents
Professionnel Documents
Culture Documents
Httpsmoodle Sciences - Upmc.frmoodle 2020pluginfile - Php795875mod Resourcecontent2polycopie 3M290 Probabilites PDF
Httpsmoodle Sciences - Upmc.frmoodle 2020pluginfile - Php795875mod Resourcecontent2polycopie 3M290 Probabilites PDF
3M290
Version 1
2020-2021
2
Table des matières
Introduction 5
Notations 6
1 Formalisme de Kolmogorov 7
1.1 Le cas discret : Ω fini ou dénombrable . . . . . . . . . . . . . 7
1.2 Le cas continu : Ω = R ou Rd . . . . . . . . . . . . . . . . . . 8
1.3 Le cas des espaces produits . . . . . . . . . . . . . . . . . . . 9
2 Variables aléatoires 11
2.1 Définition d’une variable aléatoire . . . . . . . . . . . . . . . . 11
2.2 Espérance et variance . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4 Loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . . 14
2.5 Loi d’un multiplet de variables aléatoires . . . . . . . . . . . . 17
3 Indépendance 19
3.1 Indépendance d’évènements et de variables aléatoires . . . . . 19
3.2 Lemme de Borel-Cantelli . . . . . . . . . . . . . . . . . . . . . 20
3.3 Loi d’un multiplet de variables indépendantes . . . . . . . . . 22
3
4 TABLE DES MATIÈRES
7 Vecteurs aléatoires 57
7.1 Variables aléatoires à valeurs vectorielles . . . . . . . . . . . . 57
7.2 Définition des vecteurs gaussiens . . . . . . . . . . . . . . . . 58
7.3 Loi des vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . 60
7.4 Théorèmes limites pour les vecteurs aléatoires . . . . . . . . . 63
A Rappels d’intégration 73
A.1 Théorèmes de convergence . . . . . . . . . . . . . . . . . . . . 73
A.2 Intégrales dépendant d’un paramètre . . . . . . . . . . . . . . 74
A.3 Intégrales multiples . . . . . . . . . . . . . . . . . . . . . . . . 75
A.4 Espaces Lp . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
A.5 Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
A.6 Formule d’inversion de Fourier . . . . . . . . . . . . . . . . . 77
B Formulaire 81
B.1 Loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . . 81
B.2 Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
B.3 Couples de variables aléatoires . . . . . . . . . . . . . . . . . 83
B.4 Convergence de variables aléatoires . . . . . . . . . . . . . . . 84
B.5 Théorèmes limites . . . . . . . . . . . . . . . . . . . . . . . . 84
C Références 85
Index 87
Introduction
5
6 TABLE DES MATIÈRES
Notations
Les ensembles des nombres entiers, entiers relatifs, réels et complexes sont
notés respectivement N, Z, R, C.
On travaille en genéral sur un espace probabilisé (Ω, T , P ).
1A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . fonction indicatrice de A
B(x, r) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . boule ouverte de centre x de rayon r
C ∞ . . . . . . . . . . . . . . . . . . . . ensemble des fonctions indéfiniment différentiables
Cov(X, Y ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .covariance de X et Y
δω . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . mesure de Dirac au point ω
E(X) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . espérance de X
FX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . fonction de répartition
Lp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . espace des classes de fonctions Lp
lim . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . limite supérieure
lim . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .limite inférieure
µ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . mesure
N∗ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . nombres entiers non nuls
Ω . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ensemble de résultats
◦ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . composition
ø . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .ensemble vide
P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . mesure de probabilité
PX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . loi de la variable aléatoire X
P(X,Y ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . loi du couple (X, Y )
P ⊗ Q . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . produit des probabilités P et Q
p.s. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . presque sûrement
Sn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . somme de X1 à Xn
σ(X) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . écart-type de X
Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . matrice de covariance
T . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . tribu
T1 ⊗ T2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . produit des tribus T1 et T2
V (X) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . variance de X
X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . variable aléatoire
#X, Y $ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . produit scalaire dans L2
%X%p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . norme Lp de X
Chapitre 1
Formalisme de Kolmogorov
7
8 CHAPITRE 1. FORMALISME DE KOLMOGOROV
δω ({ω}) = 1, δω ({ω}c ) = 0.
!
On peut exprimer la probabilité P comme une somme de Dirac : P = pω δω .
On a alors, pour g : Ω → R mesurable, positif ou P -intégrable, ω∈Ω
# !
g dP = pω g(ω).
Ω ω∈Ω
Exemples
– Loi uniforme sur Ω = {1, 2, ..., n} :
#A
pω = 1/n, P (A) = .
#Ω
Le lancé d’un dé à 6 faces bien équilibré est modélisé par un tel espace
probabilisé ( n = 6).
– Loi binomiale de paramètres n ∈ N∗ , p ∈ [0, 1], sur Ω = {0, ..., n} :
λk −λ
pk = P ({k}) = e pour k ∈ N.
k!
avec n ∈ N et A0 , ..., An ∈ T .
• Dans le cas indépendant, on considère sur T ⊗N la mesure produit P ⊗N ,
caractérisée de la façon suivante :
Variables aléatoires
X −1 (A) = {ω ∈ Ω | X(ω) ∈ A} = (X ∈ A)
X −1 ([a, b]) = (a ≤ X ≤ b)
X −1 ([a, ∞[) = (a ≤ X) = (X ≥ a)
On a alors
P (X −1 (A)) = P (X ∈ A).
C’est la probabilité d’obtenir, à l’issue de l’épreuve, un résultat pour lequel la
valeur de X est dans A. La quantité P (X ∈ A) est bien définie dès que A est
borélien car l’image réciproque d’un borélien par une application mesurable
est mesurable (c’est-à-dire est dans T ).
11
12 CHAPITRE 2. VARIABLES ALÉATOIRES
La variable aléatoire X est dite de carré intégrable si son carré est inté-
grable : #
E(X 2 ) = X 2 dP < +∞.
Ω
Dans ce cas X est intégrable et on définit la variance de X par la formule
% &
V (X) = E (X − E(X))2 .
Propriétés
Soit λ ∈ R et X, Y deux variables aléatoires intégrables.
– E(λX + Y ) = λE(X) + E(Y ). (linéarité)
– Si X ≤ Y , c’est-à-dire si pour tout ω ∈ Ω, X(ω) ≤ Y (ω), alors
E(X) ≤ E(Y ). (monotonie)
– Pour tout évènement A ∈ T , P (A) = E(1A ).
– Soit (Xn ) une suite de variables aléatoires qui converge de manière crois-
sante vers X : pour presque tout ω ∈ Ω, (Xn (ω))n∈N est croissante et
Xn (ω) → X(ω). Alors
E(Xn ) −−−−→ E(X).
n→∞
2.3. INÉGALITÉS 13
– Soit (Xn ) une suite de variable aléatoires qui converge vers X presque
partout. On suppose qu’il existe Y intégrable telle que |Xn | ≤ Y pour tout
n ∈ N. Alors E(Xn ) −−−−→ E(X).
n→∞
– V (λX) = λ2 V (X).
– V (X + Y ) = V (X) + V (Y ) + 2 Cov(X, Y )
La covariance de X, Y a été notée
2.3 Inégalités
On s’intéresse maintenant à deux inégalités classiques qui donnent des
informations sur la manière dont les valeurs d’une variable aléatoire se ré-
partissent.
Application
Si X est de carré intégrable, la probabilité d’obtenir à l’issue de l’épreuve
une valeur à plus de 10 fois l’écart-type de l’espérance est inférieure à 1/100.
Preuve
L’égalité de Bienaymé-Tchebichev se déduit de l’inégalité de Markov en pre-
nant Y = (X − E(X))2 et λ = t2 dans cette inégalité. On a alors
PX (A) = P (X ∈ A) = P (X −1 (A))
Exemple
Si X est variable aléatoire obéissant à une loi exponentielle de paramètre
l > 0 , PX est associée à la densité fX (x) = le−lx 1R+ (x) et on a :
# # b
PX ([a, b]) = P (X ∈ [a, b]) = fX (x) dx = le−lx dx
[a,b] a
dès que 0 ≤ a ≤ b.
Il est parfois plus pratique de travailler avec des fonctions plutôt qu’avec
des lois de probabilité. Ceci nous amène à la notion de fonction de réparti-
tion.
FX (x) = P (X ≤ x).
FX = FY ⇔ PX = PY .
Exemple
La fonction de répartition de la loi uniforme sur l’intervalle [a, b], a < b, est
donnée par
#
1 x 1
0 si x < 0
0.6
0.4
x−a
= b−a si a ≤ x ≤ b
0.2
1 si x > b
0
0 0.5 1 1.5 2
(X1 , X2 , ..., Xn ) : Ω → Rn .
P(X1 ,...,Xn) (A) = P ((X1 , ..., Xn ) ∈ A) = P ({ω ∈ Ω | (X1 (ω), ..., Xn (ω)) ∈ A})
On dit que les lois PXi sont les lois marginales de la distribution (X1 , ..., Xn ).
Dans le cas continu, la densité des Xi se déduisent de celle de (X1 , ..., Xn )
grâce à la formule suivante :
# %# &
PXi (I) = fX1 ,...,Xn (x1 , ..., xn ) dx1 ...dxi−1 dxi+1 ...dxn ) dxi
I R n−1
Indépendance
Exemple
Pour une famille de trois évènements {A1 , A2 , A3 }, I = {1, 2, 3}, ces condi-
tions s’écrivent comme suit :
S = {1} P (A1 ) = P (A1 )
S = {2} P (A2 ) = P (A2 )
S = {3} P (A3 ) = P (A3 )
S = {1, 2} P (A1 ∩ A2 ) = P (A1 )P (A2 )
S = {1, 3} P (A1 ∩ A3 ) = P (A1 )P (A3 )
S = {2, 3} P (A2 ∩ A3 ) = P (A2 )P (A3 )
S = {1, 2, 3} P (A1 ∩ A2 ∩ A3 ) = P (A1 )P (A2 )P (A3 )
19
20 CHAPITRE 3. INDÉPENDANCE
Soit (Xi )i∈I une famille de variables aléatoires. Elle sont dites indépendantes
entre elles si pour tout sous-ensemble S ⊂ I fini et (Ai )i∈S des boréliens de
R, les évènements (Xi ∈ Ai ) sont indépendants dans leur ensemble :
%. & /
P (Xi ∈ Ai ) = P (Xi ∈ Ai ).
i∈S i∈S
Preuve du lemme !
Nous avons la relation #{i ∈ N | ω ∈ Ai } = 1Ai (ω). Intégrons cette éga-
lité. i∈N
# # ! !
#{i ∈ N | ω ∈ Ai } dP (ω) = 1Ai dP = P (Ai ) < +∞.
i∈N i∈N
%.
M & M
/ M
/ )M
P Aci = P (Aci ) = (1 − P (Ai )) ≤ e− i=N
P (Ai )
%.
M & )M
P Aci ≤ e− i=N
P (Ai ) 1
i=N
0.5
i≥N -0.5
1 .
Ceci entraîne P ( Aci ) = 0 puis en passant au complémentaire,
N ∈N i≥N
% . 1 &
P (lim Ai ) = P Ai = 1.
N ∈N i≥N
Exemple
On considère une suite de variables aléatoires (Xn )n∈N indépendantes entre
elles et x ∈ R tel qu’il existe δ > 0 pour lequel P (Xn = x) ≥ δ pour tout n.
22 CHAPITRE 3. INDÉPENDANCE
où les fi : R → R sont des fonctions boréliennes telles que les fi (Xi ) sont
intégrables.
Preuve
Si f et g sont des fonctions indicatrices, f = 1A , g = 1B ,
E(f (X)g(Y )) = E(1A (X)1B (Y )) = E(1(X∈A) 1(Y ∈B) )
= E(1(X∈A)∩(Y ∈B) ) = E(1(X∈A, Y ∈B) )
= P (X ∈ A, Y ∈ B)
3.3. LOI D’UN MULTIPLET DE VARIABLES INDÉPENDANTES 23
Complément
On montre que la loi d’un couple ou d’un multiplet de variables aléatoires
indépendantes entre elles est égale au produit des lois de chacune des va-
riables aléatoires.
Proposition 6 Soit X, Y deux variables aléatoires indépendantes entre
elles. Alors
P(X,Y ) = PX ⊗ PY ,
# #
E(h(X, Y )) = h(X, Y ) dP = h(x, y) dPX (x) dPY (y)
Ω R2
pour toute fonction h : R2→ R borélienne, positive ou P(X,Y ) -intégrable.
Soit X1 ,..., Xn des variables aléatoires indépendantes entre elles. Alors
P(X1 ,...,Xn) = PX1 ⊗ PX2 ⊗ ... ⊗ PXn ,
#
E(h(X1 , ..., Xn )) = h(x1 , ..., xn ) dPX1 (x1 )...dPXn (xn )
Rn
pour toute fonction h : Rn → R borélienne, positive ou P(X1 ,...,Xn) -intégrable.
La preuve se ramène à celle de la proposition précédente en utilisant le
fait que toute fonction borélienne bornée h : R2 → R peut s’approcher en
norme L1 (R2 , P(X,Y ) + PX ⊗ PY ) par une combinaison linéaire de fonctions
de la forme (x, y) 2→ f (x)g(y), avec f et g boréliennes bornées. On généra-
lise ensuite aux fonctions boréliennes positives en utilisant le théorème de
convergence croissante puis aux fonctions intégrables. Le raisonnement est
le même pour un multiplet de variables aléatoires.
24 CHAPITRE 3. INDÉPENDANCE
Chapitre 4
P (Xi ∈ A) = P (Xj ∈ A)
25
26 CHAPITRE 4. LOI DES GRANDS NOMBRES
Théorème 4 (loi faible des grands nombres) Soit (Xi )i∈N une suite de
variables aléatoires indépendantes entre elles, identiquement distribuées, de
carrés intégrables. Alors pour tout ε > 0,
%3 S 3 &
3 n 3
P 3 − E(X0 )3 > ε −−−−→ 0.
n n→∞
Preuve du lemme
E(Sn ) = E(X1 + X2 + ... + Xn ) = E(X1 ) + E(X2 ) + ... + E(Xn ) par linéarité.
)
V (Sn ) = V (X1 + ... + Xn ) = V (X1 ) + ... + V (Xn ) + 2 i<j Cov(Xi , Xj ),
où Cov(Xi , Xj ) = E(Xi Xj ) − E(Xi )E(Xj ).
La covariance de deux variables aléatoires est nulle dans le cas indépendant.
D’où V (Sn ) = V (X1 ) + ... + V (Xn ) = n V (X0 ).
Preuve du théorème
D’après le lemme,
√
E(Sn /n) = E(X0 ), V (Sn /n) = V (X0 )/n, σ(Sn /n) = σ(X0 )/ n.
Remarque
On peut montrer que la loi faible des grands nombres est encore vraie
pour des variables aléatoires indépendantes, identiquement distribuées, inté-
grables.
Sn
(ω) −−−−→ E(X0 ).
n n→∞
Sn
En d’autres termes, l’ensemble {ω ∈ Ω | n (ω) −−−−→ E(X0 )} est un
n→∞
ensemble dont la probabilité vaut 1.
4.2. LOI FORTE DES GRANDS NOMBRES 27
On dit qu’une propriété est vraie presque sûrement si elle est satisfaite
pour presque tout ω ∈ Ω. Nous utiliserons dans la suite l’abréviation p.s.
pour le terme presque sûrement.
#{i ≤ n | Xi (ω) ∈ A}
−−−−→ P (X0 ∈ A) presque sûrement.
n n→∞
Preuve
Dans notre exemple, nous avons PXi = 12 (δ0 +δ1 ) ce qui implique l’égalité
#
E(X1 ) = x dPX1 (x) = 0 × 1/2 + 1 × 1/2 = 1/2.
R
On peut maintenant appliquer la loi forte des grands nombres : pour presque
tout ω ∈ Ω,
#{i ≤ n | ωi = f ace}
−−−−→ 1/2
n n→∞
ou encore
%4 1 5&
P̃ ⊗N (ωi )i∈N ∈ {pile, f ace}N | #{i ≤ n | ωi = f ace} −−−−→ 1/2 = 1.
n n→∞
Nous allons démontrer la loi forte des grands nombres à partir du lemme
suivant.
Lemme 3 Soit (Yi ) une suite de variables aléatoires. Si pour tout ε > 0,
∞
!
P (|Yi | > ε) < ∞
i=1
4.2. LOI FORTE DES GRANDS NOMBRES 29
Preuve du lemme
On applique le lemme de Borel-Cantelli. La quantité ε étant fixée, on pose
) 1
La série i2 est convergente (sa limite vaut π 2 /6). Le lemme précédent
Si2
donne la convergence de la suite i2 :
Si2
−−−−→ 0 p.s.
i2 i→∞
Pour chaque n ∈ N∗ , on prend i ∈ N le plus grand possible, tel que
2 √
i ≤ n. L’entier i est égal à la partie entière de n et on a les encadrements :
√
i2 ≤ n ≤ (i + 1)2 − 1, i2 ≤ n ≤ i2 + 2i, 0 ≤ n − i2 ≤ 2i ≤ 2 n.
n i2 n
! ! !
Sn = Xk = Xk + Xk
k=1 k=1 k=i2 +1
3S 3 3S 2 3 1 33 !
n 3
3 n3 3 i 3 3
3 3≤ 3 2 3+ 3 Xk 3.
n i n
k=i2 +1
Pour majorer le dernier terme, on raisonne comme précédemment :
6 7
1 33 !
n 3
3 1 % !n & n − i2 2 V (X1 )
P 3 Xk 3 > ε ≤ 2 2
V Xk ≤ 2 2
V (X1 ) ≤ 3/2 .
n 2
n ε 2
n ε n ε2
k=i +1 k=i +1
) 1
La série n3/2
est convergente. D’après le lemme,
n
1 !
Xk −−−−→ 0 p.s.
n 2
n→∞
k=i +1
n
!
Sn 1 1
= 1A (Xk (ω)) = #{k ∈ {1, ..., n} | Xk (ω) ∈ A}
n n k=1 n
Cette quantité converge vers E(1A ◦ X1 ) d’après la loi forte des grands
nombres.
Complément
Donnons une généralisation aisée de la loi des grands nombres qui s’avère
utile en pratique.
Proposition 8 Soit (Xi )i∈N une suite de variables aléatoires indépendantes
identiquement distribuées. Soit m ∈ N∗ et f : Rm → R une fonction qui est
P(X1 ,...,Xm) -intégrable. Alors pour presque tout ω ∈ Ω,
N
1 !
f (Xk , ..., Xk+m−1 ) −−−−→ E(f (X1 , ..., Xm )).
N k=1 N →∞
4.2. LOI FORTE DES GRANDS NOMBRES 31
Preuve
On pose Yk = f (Xk , ...Xk+m−1 ) ; les variables Yk ne sont pas indépendantes
dans leur ensemble. Par contre, les variables Y1 , Ym+1 , Y2m+1 , Y3m+1 ... sont
indépendantes entre elles. Plus généralement, pour chaque r ∈ {1, ..., m},
les variables (Ymk+r )k∈N sont intégrables, indépendantes et identiquement
distribuées. On peut donc appliquer la loi des grands nombres à ces m suites
de variables aléatoires et faire la somme des résultats, ce qui donne
mn m
1! !
Yk −−−−→ E(Yi ).
n k=1 n→∞
i=1
La proposition s’ensuit.
Application
On revient à l’exemple de pile ou face. Prenons
%1 1 &⊗N
Ω = {pile, face}⊗N , T = P({pile, face})⊗N , P = δpile + δface .
2 2
D’après la loi des grands nombres,
1 1
#{k ∈ {1, ..., n} | ωk = f ace} −−−−→ pour presque tout ω ∈ Ω.
n n→∞ 2
En particulier, pour presque tout ω ∈ Ω, face apparaît une infinité de fois
dans la suite Ω. Soit (a1 , ..., am ) ∈ {pile, f ace}m . Prenons f = 1{(a1 ,...,am)} .
Nous obtenons
E(f (X1 , ..., Xm )) = P (X1 = a1 , ..., Xm = am )
= P (X1 = a1 )...P (Xn = am )
= 1/2m .
Appliquons la proposition précédente.
1 1
#{k ∈ {1, ..., n} | (ωk , ..., ωk+m−1 ) = (a1 , ..., am )} −−−−→ m p.s.
n n→∞ 2
32 CHAPITRE 4. LOI DES GRANDS NOMBRES
Notons par Ω(a1 ,...,am) l’ensemble des ω ∈ Ω pour lesquels on a cette conver-
gence. Cet ensemble est de probabilité 1. On en déduit
% . . &
P Ω(a1 ,...,am) = 1
m∈N∗ (a1 ,...,am )∈{pile,f ace}m
Presque tout ω ∈ Ω appartient à tous les Ω(a1 ,...,am) . Cela signifie que dans
presque toute suite ω ∈ Ω, tous les mots (a1 , ..., am ) apparaissent une infinité
de fois dans la suite ω avec fréquence 1/2m , pour tout m ∈ N∗ .
1415926535897932384626433832795028 8 4 1 9 7
1 6 9399375105820974944592307816406286 2 0 8 9 9
8 6 2803482534211706798214808651328230 6 6 4 7 0
9 3 8446095505822317253594081284811174 5 0 2 8 4
1 0 2701938521105559644622948954930381 9 6 4 4 2
8 8 1097566593344612847564823378678316 5 2 7 1 2
0 1 9091456485669234603486104543266482 1 3 3 9 3
6 0 7260249141273724587006606315588174 8 8 1 5 2
0 9 2096282925409171536436789259036001 1 3 3 0 5
3 0 5488204665213841469519415116094330 5 7 2 7 0
3 6 5759591953092186117381932611793105 1 1 8 5 4
8 0 7446237996274956735188575272489122 7 9 3 8 1
8 3 0119491298336733624406566430860213 9 4 9 4 6
3 9 5224737190702179860943702770539217 1 7 6 2 9
3 1 7675238467481846766940513200056812 7 1 4 5 2
6 3 5608277857713427577896091736371787 2 1 4 6 8
4 4 0901224953430146549585371050792279 6 8 9 2 5
8 9 2354201995611212902196086403441815 9 8 1 3 6
2 9 7747713099605187072113499999983729 7 8 0 4 9
9 5 1059731732816096318595024459455346 9 0 8 3 0
2 6 4252230825334468503526193118817101 0 0 0 3 1
3 7 8387528865875332083814206171776691 4 7 3 0 3
5 9 8253490428755468731159562863882353 7 8 7 5 9
3 7 5195778185778053217122680661300192 7 8 7 6 6
1 1 1959092164201989
4101491401570162374896178512291275 3 5 1 0 3
5 4 4941913308790788423080205915251791 9 8 3 3 8
9 0 1696427991309520468231697440533929 1 9 4 0 5
9 6 1902708577775484231826460352117856 4 9 2 5 0
9 6 7585665136917980576594106851138596 5 4 8 5 8
4 5 8955740985510007285594255899055073 9 7 9 8 5
2 9 8029040985100938373840645914493851 5 9 5 6 1
5 9 1628567694154582582172250984277115 0 0 8 6 5
4 5 9082771575786424525015569158504797 4 3 4 5 9
7 1 0598959285359315420685922739227940 4 5 5 9 0
9 5 9484940115389582628754958592066836 4 5 9 0 0
3 5 7302018765684685437562175923984509 9 6 9 8 8
5 6 4428995441515273448995874061928395 2 6 8 4 5
7 6 2959364580395803359356020818912959 3 8 6 8 5
3 8 5504368031964239578565961305058575 6 7 5 8 9
7 1 9458989562540698543456794592637926 3 8 4 5 3
3 5 5344980343774389367335686783052857 9 2 4 5 9
5 6 0865938154155820041101907575501499 7 4 0 4 5
1 4 3910649526399245759744828213857757 3 1 3 4 7
3 1 3009208997354368543789892098929936 8 6 6 1 4
1 0 2505741056365874391141530854685953 7 8 4 3 3
2 6 5882223289236284318927585916004997 9 4 8 6 9
8 2 2055448157631761858165894376857761 3 7 2 8 5
3 2 4060192089585537826657525328306791 4 3 7 5 5
7 1 9593059587659128
12345678910111213141516171819202122 2 3 2 4
2 5 26272829303132333435363738394041424 3 4 4 4
5 4 64748495051525354555657585960616263 6 4 6 5
6 6 67686970717273747576777879808182838 4 8 5 8
6 8 78889909192939495969798991001011021 0 3 1 0
4 1 05106107108109110111112113114115116 1 1 7 1
1 8 11912012112212312412512612712812913 0 1 3 1
1 3 21331341351361371381391401411421431 4 4 1 4
5 1 46147148149150151152153154155156157 1 5 8 1
5 9 16016116216316416516616716816917017 1 1 7 2
1 7 31741751761771781791801811821831841 8 5 1 8
6 1 87188189190191192193194195196197198 1 9 9 2
0 0 20120220320420520620720820921021121 2 2 1 3
2 1 42152162172182192202212222232242252 2 6 2 2
7 2 28229230231232233234235236237238239 2 4 0 2
4 1 24224324424524624724824925025125225 3 2 5 4
2 5 52562572582592602612622632642652662 6 7 2 6
8 2 69270271272273274275276277278279280 2 8 1 2
8 2 28328428528628728828929029129229329 4 2 9 5
2 9 62972982993003013023033043053063073 0 8 3 0
9 3 10311312313314315316317318319320321 3 2 2 3
2 3 32432532632732832933033133233333433 5 3 3 6
3 3 73383393403413423433443453463473483 4 9 3 5
0 3 51352353354355356357358359360361362 3 6 3 3
6 4 3653663673683693
79123914796166011625577583471087393 3 1 9 1
6 5 35664974224322114041218753159321189 0 2 8 9
0 5 68680892384532591193692983505442817 3 8 4 4
1 4 74755271464355627483193029623099531 3 4 2 1
4 6 12793724999149456112488095259321762 7 4 2 7
1 7 48148544863020101224421191145186142 0 8 1 2
4 8 07096448367373682899421933353321416 6 7 5 1
6 6 73065098522181915971591679551381465 1 4 7 2
1 7 71431187209312010945279557012675461 5 3 1 2
2 4 25012288710986796255142752721384379 1 7 6 6
2 0 42851300145873442742248869882122639 5 4 7 6
1 9 29102722111817991893815148754224294 3 3 2 5
8 9 05365201214742019684608100495914910 9 7 9 1
7 5 83612217619998061195362142081740698 5 3 1 4
6 0 51150119174238321364221711110335325 5 2 1 8
9 2 03696011792671081271302156627231141 2 6 9 1
1 2 73155538881011581263034406432682109 4 3 1 2
1 9 93225713216210051026165024596406741 3 1 5 1
3 3 12487516882214739221559274200278018 1 6 5 4
8 3 41124666824767172453910100335132462 1 0 6 6
2 5 33747585150616386532548154212895154 4 1 3 8
2 6 32305365911673712371643112438101441 7 8 8 5
0 5 90386780138545450243216417342722231 5 1 7 0
2 8 80823922274324076591578180276681483 3 7 1 1
8 9 8444299597760114
1429578416014533328784524444421455 4 1 2 4 0
0 0 0000001002003004014501594578591674 0 4 0 4 4
0 5 5678814579147953325245425444224425 4 4 2 5 2
8 9 5675421157240130402469514523425102 4 5 6 7 9
8 5 5242545651452035423542456891051456 1 0 5 0 1
2 0 1452414279831214241243911451212454 2 2 1 4 9
8 7 4978425129857642114010142541416999 9 1 0 5 2
4 1 4245241429578416014533328784256897 4 2 1 2 4
5 4 4878233354106148759241014202554302 1 6 8 9 1
0 7 1545014124512201520162017201820192 0 2 4 5 8
1 0 1054274562149874145210025041425249 8 7 6 5 2
1 4 5210421255215169879754321059054200 0 0 0 0 0
0 0 0142979542179854312042175024154979 4 1 1 4 7
2 1 4243444503210214424518952114987241 9 2 4 9 5
1 2 9856719249526142511121314567891042 1 2 3 4 1
2 5 9876414243444546474849410424680135 7 9 6 9 8
1 2 4521100024152172101987654321097959 8 9 5 2 4
1 5 2510024162893411142513218675412345 6 7 9 9 1
1 4 2505242157942152052241254152519675 1 2 2 4 1
5 2 4568710245271412452987521251798791 5 2 4 5 2
1 6 8910111254352162484442007042517924 2 1 7 8 9
1 2 5432102803203802648567891042172412 5 7 9 4 1
5 2 1496798475214142515149762152421524 9 4 5 5 2
1 4 2142452342412689346724165224162425 9 2 3 2 4
1 6 5003472164219671
Le tableau qui suit donne, pour chacune des suites qui viennent d’être
présentées, le nombre d’occurrences de chacun des dix chiffres dans la suite
ainsi que de quelques nombres à deux chiffres pris au hasard : 00, 11, 32, 66,
69 et 77.
0 1 2 3 4 5 6 7 8 9 00 11 32 66 69 77
Pour les trois premières suites, les occurrences sont proches des valeurs
asymptotiques produites par une suite indépendante identiquement distri-
buée. Chaque chiffre apparaît avec une fréquence proche du dixième, tandis
que les mots de deux lettres ont une fréquence proche du centième. On n’est
pas surpris que les deux premières suites se comportent conformément à la
36 CHAPITRE 4. LOI DES GRANDS NOMBRES
Convergence de suites
aléatoires
37
38 CHAPITRE 5. CONVERGENCE DE SUITES ALÉATOIRES
CV L∞ ⇒ CV Lq ⇒ CV Lp ⇒ CV L1 ⇒ CV en proba ⇒ CV en loi.
CV L∞ ⇒ CV p.s. ⇒ CV en proba.
CV L∞ ⇒ CV en proba ⇒ CV p.s. d’une sous-suite.
Remarque
La convergence L2 implique la convergence en probabilité. C’est comme cela
que nous avons démontré la loi faible des grands nombres. Celle-ci affirme
que Snn converge vers E(X0 ) en probabilité si les (Xi ) sont indépendantes,
identiquement distribuées. On avait obtenu ce résultat en montrant que
V ( Snn ) −−−−→ 0. D’après la relation suivante, cela est équivalent à la conver-
n→∞
gence L2 :
0 2 %3 S % S &32 & %3 S 32 & 8 S 82
Sn 3 n n 3 3 n 3 8 n 8
V =E 3 −E 3 =E 3 − E(X0 )3 = 8 − E(X0 )8 .
n n n n n 2
Démonstration de la proposition
• CV Lq ⇒ CV Lp si p ≤ q.
Démontrons l’égalité %Y %p ≤ %Y %q en utilisant l’inégalité de Hölder : pour
tout p, q ≥ 1 tels que 1/p + 1/q = 1,
#
|Y Z| dP ≤ %Y %p %Z%q .
%Y %p ≤ %Y %q .
• CV L∞ ⇒ CV Lp .
On a pour presque tout ω ∈ Ω, |Y (ω)| ≤ %Y %∞ . En intégrant, on obtient
# #
%Y %pp = |Y (ω)|p dP (ω) ≤ %Y %p∞ dP = %Y %p∞ .
• CV L1 ⇒ CV en proba
L1
C’est une conséquence de l’inégalité de Markov. Si Yn −−−−→ Y ,
n→∞
E(|Yn − Y |) %Yn − Y %1
P (|Yn − Y | > ε) ≤ = −−−−→ 0
ε ε n→∞
5.2. FONCTION CARACTÉRISTIQUE ET TRANSFORMÉE DE FOURIER39
• CV L∞ ⇒ CV p.s.
L∞
Si Yn −−−−→ Y , il existe Ω* ⊂ Ω de probabilité 1 tel que
n→∞
Cas discret
La variable aléatoire Y prend un nombre fini ou dénombrable de valeurs yk ,
k ∈ I, avec I = {1, ..., n} ou I = N.
!
ϕY (t) = E(eitY ) = eityk P (Y = yk ).
k∈I
ϕY (t) = 1 − p + peit .
1 it 1 − eitn
ϕY (t) = e si t ∈
/ 2πZ.
n 1 − eit
5.3. CONVERGENCE EN LOI 41
Cas continu
La variable aléatoire
$
Y est associée à la densité fY : R → R+ si bien que
P (Y ∈ A) = A fY (y) dy.
# #
ϕY (t) = E(eitY ) = eity dPY (y) = eity fY (y) dy.
eitb − eita
ϕY (t) = si t 3= 0.
it (b − a)
l
ϕY (t) = .
l − it
Remarque
on utilise parfois à la place de la fonction caractéristique la notion de fonction
génératrice.
z 2→ E(z Y )
Rappelons que f : R → R est à support compact s’il existe A > 0 tel que
f est nulle hors de [−A, A]. Un exemple de fonction C ∞ à support compact
est donné par
1
−
f (x) = e 1−x2 1[−1,1] (x).
0.5
0.4
0.3
0.2
0.1
0
-1 -0.5 -0.1 0 0.5 1
Corollaire 4 Soit µ une mesure de probabilité définie sur la tribu des bo-
réliens de R et f : R → R une fonction C ∞ à support compact. Alors
# #
1
f (x) dµ(x) = f9(t) µ
9(t) dt.
2π
Preuve du corollaire
# # #
1
f (x) dµ(x) = eitx f9(t) dt dµ(x)
R R 2π R
# #
1
= eitx f9(t) dµ(x) dt
2π R R
# 0# 2
1 9 itx
= f (t) e dµ(x) dt
2π R R
#
1
= f9(t) µ
9(t) dt.
2π R
Ici on a utilisé le théorème de Fubini pour intervertir
$$
les deux intégrales.
L’emploi de ce théorème est justifié car l’intégrale R2 |eitx f9(t)| dµ(x) dt est
finie :
# # # # #
|eitx
f9(t)| dµ(x) dt = dµ(x) |f9(t)| dt = |f9(t)| dt < ∞.
R R R R R
L’emploi du théorème de convergence dominée est justifié ici car pour tout
t ∈ R, µ 9(t) par hypothèse et f9 µ
9n (t) −−−−→ µ 9n est majorée par f9 qui est
n→∞
intégrable.
$ $
On cherche à présent à démontrer que si f dµn −→ f dµ pour toute
fonction C ∞ à support compact, il en va de même pour toute fonction conti-
nue bornée.
Lemme 4 Pour tout ε > 0, il existe A > 0 tel que pour tout n ∈ N,
µn ([−A, A]) ≥ 1 − ε.
Une suite de mesures de probabilité qui vérifie cette propriété est dite
tendue.
Preuve du lemme
Soit g une fonction C ∞ telle
que 1
• 0 ≤ g ≤ 1,
• g = 1 sur [−A + 1, A − 1],
• g = 0 sur [−A, A]c . 0
∀n ∈ N, µn ([−A, A]) ≥ 1 − ε.
$ $
On veut montrer que | f dµn − f dµ| est inférieur à ε pour tout n
suffisamment grand. On décompose comme suit :
3# # 3 3# # 3 3# # 3 3# # 3
3 3 3 3 3 3 3 3
3 f dµn − f dµ 3 ≤ 3 f dµn − f˜dµn 3+3 f˜dµn − f˜dµ 3+3 f˜dµ− f dµ 3
$ $
• Comme f˜ est C ∞ à support compact,$
f˜ dµn$ −→ f˜ dµ. On peut
trouver N ∈ N tel que pour tout n ≥ N, | f˜dµn − f˜dµ| < ε.
$ $ $
• | f dµn − f˜dµn | ≤ [−A,A] |f − f˜| dµn + [−A,A]c |f − f˜| dµn
P (a ≤ Xn ≤ b) −−−−→ P (a ≤ X ≤ b).
n→∞
46 CHAPITRE 5. CONVERGENCE DE SUITES ALÉATOIRES
Remarque
On peut démontrer que la convergence des fonctions de répartition en tout
point x tel que P (X = x) = 0 est en fait équivalente à la convergence en loi
de la suite Xn vers X.
Preuve
Il s’agit d’approcher 1[a,b] par des fonctions continues bornées. Soit hm la
fonction continue bornée, affine par morceaux telle que :
1 1
• hm = 1 sur [a + m ,b − m ],
• hm = 0 hors de [a, b].
1 1
• la pente de hm vaut m sur [a, a + m] et −m sur [b − m , b].
Preuve
Soit f : R → R C ∞ à support compact. Par le théorème des valeurs inter-
médiaires, pour tout x, y ∈ R,
Preuve
Notons µ et ν les lois
$
des variables aléatoires et considérons
$
la suite constante
µn = ν. La suite f dµn est constante égale à f dν, les convergences dans
le
$
théorème
$
6 deviennent des égalités. On a donc équivalence entre l’égalité
f dν = f dµ pour toute fonction f de la forme f (x) = eitx et la même
égalité pour toute fonction f continue bornée. On en déduit que les deux
mesures sont égales dès qu’elles ont même fonction caractéristique.
48 CHAPITRE 5. CONVERGENCE DE SUITES ALÉATOIRES
Chapitre 6
Théorème de la limite
centrée
2 /2
ϕY (t) = e−t .
Preuve $ 2
Par définition, ϕY (t) = R eity √12π e−y /2 dy.
)+∞ (ity)k
On sait que eity = k=0 k! pour y ∈ R. Remplaçons dans l’intégrale.
# # +∞
!
2 /2 (ity)k −y2 /2
eity e−y dy = e dy
R R k=0 k!
!#
+∞
(it)k k −y2 /2
= y e dy
k=0 R
k!
+∞
! #
(it)k 2 /2
= y k e−y dy.
k=0
k! R
49
50 CHAPITRE 6. THÉORÈME DE LA LIMITE CENTRÉE
Remarque
L’évènement ci-dessus peut s’écrire comme suit :
% √ & % √ &
n Sn n Sn
a≤ σ(X0 ) ( n − E(X0 )) ≤ b =
% σ(X 0)
(n − E(X0 )) ∈ [a, b]
&
= E(X0 ) + a σ(X
√ 0) ≤
n
Sn
n ≤ E(X0 ) + b σ(X
√ 0)
n
Sn
Lorsque n est grand, la probabilité que n soit dans l’intervalle
< =
σ(X0 ) σ(X0 )
E(X0 ) − t √ , E(X0 ) + t √
n n
$t −x2 /2 dx.
est proche de √1
2π −t e
$t −x2 /2 dx
• Pour t = 1, 96, √1 = 0, 95.
2π −t e
$ t −x2 /2
• Pour t = 2, 58, √1 = 0, 99.
2π −t e dx
Preuve du théorème
Quitte à remplacer les Xi par Xi − E(Xi ), on peut supposer que les Xi sont
centrées : E(Xi ) = 0. Quitte à diviser par σ(Xi ), on peut aussi supposer que
Sn
σ(Xi ) = 1. On veut montrer que la loi de √ n
converge vers la loi normale.
Il suffit donc de montrer que
2 /2
Sn (t) −
ϕ√ −−−→ e−t pour tout t ∈ R.
n n→∞
52 CHAPITRE 6. THÉORÈME DE LA LIMITE CENTRÉE
% Sn &
it √
Sn (t)
ϕ√ = E e n
n
% it
)n &
√ Xk
= E e n 1
%/
n it &
√ X
= E e n k
k=1
n
/ % it &
√ X
= E e n k par indépendance,
k=1
% &n
it
√ X
= E e n 0 car les Xi sont de même loi,
% &n
= ϕX0 √t .
n
Pour calculer la limite de cette expression quand n tend vers +∞ , on
fait un développement limité. Comme X0 est de carré intégrable, ϕX0 est
C 2 et on a :
# # #
itX0
ϕX0 (t) = e dP, ϕ*X0 (t) = iX0 eitX0
dP, ϕ**X0 (t) = −X02 eitX0 dP,
1 0.16
0.14
0.5 0.12
0.1
0
0.08
0.06
−0.5
0.04
0 2 4 6 8 0 2 4 6 8 10 12 14
où la somme porte sur l’ensemble des valeurs l que prend Xn+1 . Si n est
suffisamment grand, le graphe des fréquences devrait se rapprocher d’une
gaussienne, une fois renormalisé. On s’est restreint ci-dessous à des valeurs
de x à moins de trois fois l’écart-type de l’espérance de Sn .
0.12
0.1
0.1
0.08
0.08
0.06
0.06
0.04
0.04
0.02
0.02
0
0
5 10 15 5 10 15 20
Graphe de S3 Graphe de S4
0.1
0.06
0.08
0.06
0.04
0.04
0.02
0.02
0 0
10 15 20 25 20 25 30 35 40 45 50
0.0
0.05
0.05
0.04
0.04
0.03
0.03
0.0
0.0
0.01 0.01
0 0
40 50 0 0 50 0 0 0 0
Il est intéressant de regarder ce qu’on obtient lorsqu’on part d’une loi qui
k2
présente plusieurs maxima. Prenons pour X0 la loi P (X0 = k) = 770 pour
k compris entre −10 et 10. Le graphe des fréquences de X0 est ci-dessous.
0.12 0.08
0.1
0.06
0.08
0.06 0.04
0.04
0.02
0.0
0
−10 0 10 20 30 −10 0 10 20 30 40 50
Graphe de X0 Graphe de S2
0.025 0.015
0.02
0.01
0.015
0.01
0.005
0.005
0 0
0.012
0.012
0.01
0.01
0.008
0.008
0.006
0.006
0.004
0.004
0.002 0.002
0 0
100 150 200 150 200 250 300
P (X0 = 1) = 0, 95
0.8 0.4
0.6 0.3
0.4 0.2
0.2 0.1
0 0
0 1 2 3 4 5 6 7 10 12 14 16 18 20 22 24
0.2
0.08
0.1
0.06
0.1
0.04
0.0
0.02
0 0
2 30 3 40 4 4 0 60 6 70
0.06 0.0
0.0
0.04
0.04
0.03
0.03
0.02
0.02
0.01
0.01
0 0
70 80 0 100 100 110 120 130
Comme nous pouvons le voir sur ces graphiques, la dissymétrie est encore
présente pour n = 100. Cet exemple doit donc inciter à la prudence quant
aux valeurs de n pour lesquelles l’approximation donnée par la loi normale
est pertinente. Il est d’usage en statistique de faire cette approximation dès
que n = 30, mais cela n’est pas toujours valide en pratique.
Chapitre 7
Vecteurs aléatoires
)
On emploie dans la suite la notation u.X = ui Xi , u ∈ Rd . Les vecteurs
u et X sont considérés comme des vecteurs colonnes.
57
58 CHAPITRE 7. VECTEURS ALÉATOIRES
Preuve
Ces formules sont une conséquence directe des propriétés de l’espérance et
de la variance.
! !
E(u.X) = E( ui Xi ) = ui E(Xi ) = u.E(X).
! !
V (u.X) = V ( ui Xi ) = ui uj Cov(Xi , Xj ) = t u V (X) u.
i,j
On parle de vecteurs discret ou à densité suivant que cette loi est discrète
ou absolument continue par rapport à la mesure de Lebesgue sur Rd . On
dit également que deux vecteurs X = (X1 , ..., Xd ) et Y = (Y1 , ..., Yd ) sont
indépendants entre eux si P(X,Y ) = PX ⊗ PY , c’est-à-dire si
Définition 16 Un vecteur aléatoire (X1 , ..., Xd ) est dit gaussien si pour tout
u1 ,..., ud ∈ R, la somme
u1 X1 + ... + ud Xd
suit une loi normale ou est constante.
Preuve du lemme
Posons Z = aY1 + bY2 + c et soit g : R → R une fonction mesurable bornée.
##
E(g(Z)) = g(ay1 + by2 + c) dPY1 (y1 )dPY2 (y2 )
##
1 2 +y 2
y1 2
= g(ay1 + by2 + c) e− 2 dy1 dy2 .
2π
Effectuons le changement de variables
"
z1 = ay1 + by2 + c,
z2 = by1 − ay2 .
Un calcul direct donne les relations
(z1 − c)2 + z22 = (a2 + b2 )(y12 + y22 ), dz1 dz2 = (a2 + b2 ) dy1 dy2
ce qui implique
## (z1 −c)2
2
1 − −
z2
# (z1 −c)2
1 −
= ( g(z1 ) e 2(a2 +b2 ) dz1 .
2π(a2 + b2 )
60 CHAPITRE 7. VECTEURS ALÉATOIRES
Preuve
Nous savons que la variable u.X obéit à une loi normale et nous avons calculé
son espérance et sa variance.
Preuve
La preuve repose sur le résultat suivant : toute matrice symétrique S positive
est de la forme T D t T , où T est une matrice inversible et D une matrice
diagonale dont les coefficients valent 0 ou 1. La matrice T est obtenue par
l’algorithme de réduction de Gauss appliqué à la forme quadratique u 2→
t uSu. On peut aussi la construire en diagonalisant S en base orthonormée.
Prenons pour matrice symétrique la matrice V (X) qui est bien positive :
t
uV (X)u = V (u.X) ≥ 0.
V (Z) = V (T Y ) = T V (Y )t T = T D t T = V (X).
62 CHAPITRE 7. VECTEURS ALÉATOIRES
Les vecteurs Z et X sont gaussiens, ils ont même espérance et même va-
riance. Ils ont donc même fonction caractéristique et même loi. La proposi-
tion est démontrée.
Remarquons que la preuve précédente montre que toute matrice symé-
trique positive est la matrice de covariance d’un vecteur gaussien. Nous
sommes maintenant en mesure de déterminer la densité des vecteurs gaus-
siens dont la matrice de covariance est définie positive, ou de manière équi-
valente, inversible, ou encore de déterminant non nul. On dit qu’elle est non
dégénérée.
Preuve
Employons les décompositions X = T Y + E(X) et Σ = T D t T vues dans la
proposition précédente. Comme Σ est définie positive, la matrice D est égale
à l’identité. Utilisons les notations x = (x1 , ..., xd ) ∈ Rd , dx = dx1 ...dxd et
posons m = E(X).
Si les variables aléatoires ont même loi, la loi des grands nombres affirme
que cette série diverge presque partout dès que leur espérance est non nulle.
Nous allons nous intéresser au cas où les variables aléatoires (Xn ) sont
indépendantes entre elles mais n’ont pas forcément même loi.
P (A∆A* ) < ε.
65
66CHAPITRE 8. SÉRIES DE VARIABLES ALÉATOIRES INDÉPENDANTES
A∆A* = (A ∪ A* ) \ (A ∩ A* ).
Un évènement est dit asymptotique s’il appartient aux tribus T(Xk ,k≥m)
pour tout m ∈ N. L’exemple le plus simple d’évènement asymptotique est
)
donné par l’ensemble des ω ∈ Ω pour laquelle la série Xk converge :
4 3 ! 5
3
ω∈Ω3 Xk (ω) converge .
k≥1
En effet, le caractère convergent ne dépend pas des valeurs prises par les n
premières valeurs de la suite Xk (ω). Pour tout n ∈ N,
4 3 ! 5 4 3 ! 5
3 3
ω ∈Ω3 Xk (ω) converge = ω ∈ Ω 3 Xk (ω) converge ∈ T(Xk ,k≥m) .
k≥1 k≥m
Preuve
Soit ε > 0. Comme A est dans T(Xk ,k≥1) , il existe m ∈ N et A* ∈ T(X1 ,...,Xm)
tels que
P (A∆A* ) < ε.
Comme A est aussi dans T(Xk ,k≥m+1) , il existe n ≥ m+1 et A* ∈ T(Xm+1 ,...,Xn)
tels que
P (A∆A** ) < ε.
Les ensembles A* et A** sont indépendants, ce qui montre que
Preuve de la convergence L2
Pour montrer la convergence de Sn en norme L2 , montrons qu’elle est de
Cauchy. Soit m, n ∈ N avec m < n.
%!
n & n
! n
!
%Sn − Sm %22 = V (Sn − Sm ) = V Xk = V (Xk ) ≤ V (Xk ).
m+1 m+1 m+1
)
La série V (Xk ) est convergente donc de Cauchy. Pour tout ε > 0, il existe
N ∈ N tel que pour tout m, n satisfaisant N < m < n,
n
!
%Sn − Sm %22 ≤ V (Xk ) < ε.
m+1
Lemme 6 (inégalité maximale) Soit (Xn )n∈N une suite de variables aléa-
toires indépendantes entre elles, centrées et de variance finie : E(Xi ) = 0,
V (Xi ) < ∞. Alors pour tout n ∈ N et tout λ > 0,
% & E(Sn2 )
P max |Si | ≥ λ ≤ .
1≤i≤n λ2
68CHAPITRE 8. SÉRIES DE VARIABLES ALÉATOIRES INDÉPENDANTES
Preuve du lemme
On s’intéresse au premier indice pour lequel la série dépasse λ.
A1 = (|S1 | ≥ λ),
A2 = (|S1 | < λ, |S2 | ≥ λ),
Aj = (|S1 | < λ, ..., |Sj−1 | < λ, |Sj | ≥ λ).
Nous avons alors
% & N
E
max |Si | ≥ λ = Aj .
1≤i≤N
j=1
2 1 ) en insérant le terme S dans le carré.
Cherchons à minorer E(SN Aj j
2
SN = (SN − Sj + Sj )2 = (SN − Sj )2 + Sj2 + 2(SN − Sj )Sj
2
E(SN 1Aj ) = E((SN − Sj )2 1Aj ) + E(Sj2 1Aj ) + 2E((SN − Sj )Sj 1Aj ).
Le premier terme à droite de l’égalité est positif, tandis que le second terme
est supérieur à E(λ2 1Aj ) car Sj est supérieur à λ sur Aj . Vérifions que le
dernier terme est nul.
Au final,
2
E(SN 1Aj ) ≥ λ2 E(1Aj ) = λ2 P (Aj ).
On conclut en faisant la somme pour j allant de 1 à n.
! E
2 2
E(SN ) ≥ E(SN 1Aj ) ≥ λ2 P ( Aj ) = λ2 P (max |Si | ≥ λ).
% 1 !N& 1 !
$
∞
P max $ |Si − SN | ≥ ε ≤ 2 V (Xi ) ≤ 2 V (Xi )
N ≤i≤N ε i=N +1 ε i=N +1
)
Par hypothèse, la série V (Xi ) converge, son reste tend vers 0. La suite RN
converge en probabilité vers 0. Elle admet donc une sous-suite qui converge
vers 0 presque sûrement et comme elle est décroissante, elle converge vers
0 presque sûrement. Au final, pour presque tout ω ∈ Ω, pour tout ε > 0, il
existe N ∈ N tel que pour tout m, n ≥ N ,
|Sm (ω) − Sn (ω)| ≤ |Sm (ω) − SN (ω)| + |SN (ω) − Sn (ω)| ≤ 2RN (ω) ≤ 2ε.
Exemple
) ) k
La série harmonique k1 est divergente. La série alternée (−1) k est conver-
gente. Qu’en est-il lorsque nous choisissons les signes des termes de la série
de manière aléatoire, par exemple en les tirant à pile ou face ?
∞
! %ε & ∞
! 1 ∞
! 1
k
V = V (εk ) = < ∞.
k=1
k k=1
k2 k=1
k2
On a alors %4 3 !x 5&
3 k
P (xk )k∈N ∈ Ω 3 converge = 1.
k≥1
k
Théorème 15 (théorème des trois séries) Soit (Xk )k∈N une suite de
variables aléatoires indépendantes entre elles. Posons Yk = Xk 1(|Xk |≤1) .
)
Alors la série Xk converge presque sûrement si et seulement si les trois
séries suivantes convergent :
)
– P (|Xk | ≥ 1),
)
– E(Yk ),
)
– V (Yk ).
Preuve
On se contente de démontrer que la convergence des trois séries implique la
) )
convergence presque sûre de Xk . Comme P (|Xk | ≥ 1) converge, nous
pouvons appliquer le lemme de Borel-Cantelli : pour presque tout ω, il existe
k0 tel que pour tout k ≥ k0 , |Xk (ω)| ≤ 1. On a alors Yk (ω) = Xk (ω). Les
) )
séries Xk et Yk sont donc de même nature.
)
Posons Ỹk = Yk − E(Yk ). Comme E(Yk ) converge, il suffit de dé-
)
montrer la convergence presque sûre de Ỹk . Les Ỹk sont centrées et leur
variance est égale à celle des Yk :
Nous avons de plus V (Yk − E(Yk )) = V (Yk ) ≤ E(Yk2 ), si bien que la série
) ) Yk −E(Yk )
V ( Yk −E(Y
k
k)
) est convergente. La série k converge donc presque
sûrement, en vertu de la proposition 8.2.
xi )
De manière générale, pour toute suite (xk ) telle que i converge, la
1 )
moyenne n xk converge vers 0. Cela découle de la formule suivante
n %!
1! k
xi & ! n
xi 1! n
= − xi
n k=1 i=1 i i=1
i n i=1
$
Par convergence dominée, la suite E(Yk ) = x1{|x|≤k} dPX0 (x) converge vers
)
E(X0 ). Il en va donc de même pour n1 E(Yk ). Il reste à remarquer que
∞
! ∞
! # !
∞ #
P (Yk 3= Xk ) = P (|X0 | ≥ k) = 1{k≤x} dP|X0 | (x) ≤ x dP|X0 | (x)
k=1 k=1 k=1
est une somme finie. D’après le lemme de Borel-Cantelli, pour presque tout
ω, les suites Xk (ω) et Yk (ω) coïncident à partir d’un certain rang et la
) )
différence n1 Xk (ω) − n1 Yk (ω) tend vers 0. Le résultat est démontré.
72CHAPITRE 8. SÉRIES DE VARIABLES ALÉATOIRES INDÉPENDANTES
Annexe A
Rappels d’intégration
73
74 ANNEXE A. RAPPELS D’INTÉGRATION
Alors # #
lim fn (ω) dP (ω) = f (ω) dP (ω).
n→∞ Ω Ω
Alors
# !
∞ ∞ #
!
fn (ω) dP (ω) = fn (ω) dP (ω).
Ω n=1 n=1 Ω
A.4 Espaces Lp
Rappel :
%# &1/p
||f ||p = |f |p dP pour 1 ≤ p < ∞.
Ω
A.5 Inégalités
Théorème 29 (inégalité de Minkowski) Soit p ∈ [1, ∞] et f, g ∈ Lp (Ω).
Alors
||f + g||p ≤ ||f ||p + ||g||p .
f (x)−f (0+ )
Par conséquent, il existe δ > 0 tel que x est borné sur ]0, δ]. La fonc-
f (x)−f (0+ )
tion x 1]0,δ] (x) est intégrable et par le lemme de Riemann-Lebesgue,
# δ f (x) − f (0+ )
lim sin(Ax) dx = 0.
A→+∞ 0 x
f (x)
Loin de 0, sur [δ, +∞[, on a 0 < 1/x < 1/δ, et la fonction x 1[δ,∞[ (x) est
intégrable. Par Riemann-Lebesgue,
# ∞ f (x)
lim sin(Ax) dx = 0.
A→+∞ δ x
A.6. FORMULE D’INVERSION DE FOURIER 79
Formulaire
PX (A) = P (X ∈ A) = P (X −1 (A)).
Espérance # #
E(X) = X dP = x dPX (x).
Ω R
Variance
% & # #
V (X) = E (X − E(X))2 = (X − E(X))2 dP = (x − E(X))2 dPX (x).
Ω R
# %# &2 # %# &2
V (X) = E(X 2 )−E(X)2 = X 2 dP − X dP = x2 dPX (x)− x dPX (x) .
Ω Ω R R
Formule de transfert
# #
E(g(X)) = g(X) dP = g(x) dPX (x).
Ω R
Fonction de répartition
# x
FX (x) = P (X ≤ x) = dPX (x).
−∞
Fonction caractéristique
# #
ϕX (t) = E(eitX ) = eitX dP = eitx dPX (x).
Ω R
81
82 ANNEXE B. FORMULAIRE
Cas discret
! !
PX = pxk δxk , PX (A) = pxk .
k∈I xk ∈A
# !
E(X) = x dPX (x) = xk P (X = xk ).
R k∈I
! ! %! &2
V (X) = (xk −E(X))2 P (X = xk ) = x2k P (X = xk )− xk P (X = xk ) .
k∈I k∈I k∈I
# # !
E(g(X)) = g(X) dP = g(x) dPX (x) = g(xk )P (X = xk ).
Ω R k∈I
!
FX (x) = P (X = xk ).
xk ≤x
!
ϕX (t) = eitxk P (X = xk ).
k
Cas continu
#
dPX (x) = fX (x) dx, PX (A) = fX (x) dx.
A
#
E(X) = x fX (x) dx.
R
# # %# &2
2 2
V (X) = (x − E(X)) fX (x) dx = x fX (x) dx − x fX (x) dx .
R R R
# # #
E(g(X)) = g(X) dP = g(x) dPX (x) = g(x)fX (x) dx.
Ω R R
# x
FX (x) = fX (x) dx.
−∞
#
ϕX (t) = eitx fX (x) dx.
R
B.2 Inégalités
Inégalité de Cauchy-Schwarz
# '# '#
E(|XY |) = |XY | dP ≤ X 2 dP Y 2 dP = %X%2 %Y %2 .
Ω Ω Ω
Inégalité de Markov
E(Y )
P (Y ≥ λ) ≤ si λ > 0, Y ≥ 0.
λ
B.3. COUPLES DE VARIABLES ALÉATOIRES 83
Inégalité de Bienaymé-Tchebichev
V (X)
P (|X − E(X)| ≥ t) ≤ si t > 0, E(X 2 ) < ∞.
t2
Inégalité maximale de Kolmogorov
% & E(Sn2 )
P max |Si | ≥ λ ≤ .
0≤i≤n λ2
Convergence Lp
Lp
Xn −−−−→ X si %Xn − X%p −−−−→ 0.
n→∞ n→∞
Convergence en probabilité
proba
Xn −−−−→ X si P (|Xn − X| > ε) −−−−→ 0 pour tout ε > 0.
n→∞ n→∞
Convergence en loi
# #
loi
Xn −−−−→ X si f dPXn −−−−→ f dPX pour toute f continue bornée.
n→∞ n→∞
Références
85
86 ANNEXE C. RÉFÉRENCES
Index
π, 35 loi uniforme, 42
fonction de répartition, 18
Ain, 36 fonction étagée, 17
annuaire, 35 forme quadratique, 60
formule
borélien, 10
d’inversion de Fourier, 45, 80
continuité sous le signe intégral, 76 de transfert, 17, 19
convergence
en loi, 39, 44, 48, 49, 66 graphe des fréquences, 54
en norme Lp , 39 générateur de nombres aléatoires,
en probabilité, 39, 49 34
normale, 78 identiquement distribué, 27
presque sûre, 39 indépendance
étroite, 44, 47 loi, 25
covariance, 15, 25 tribu, 22
matrice, 59 variable aléatoire, 22
cylindre, 12 vecteur gaussien, 64
définie positive, 64 évènement, 21
densité, 10, 20 interversion somme intégrale, 76
vecteur gaussien, 64 intégrabilité, 13
dé, 34, 54 vecteur gaussien, 60
dérivée sous le signe intégral, 77 inégalité
de Bienaymé-Tchebichev, 15
écart-type, 15 de Cauchy-Schwarz, 14, 79
espace probabilisé, 9 de Hölder, 40, 79
espaces Lp , 78 de Markov, 15, 40
espérance, 13, 24, 59 de Minkowski, 78
évènement, 9 maximale, 70
asymptotique, 68
indépendance, 21 Kolmogorov
formalisme, 9
fonction caractéristique, 41, 49, 59 inégalité, 70
loi de Bernoulli, 42 loi, 68
loi exponentielle, 43 théorème, 12
loi normale, 51, 62 trois séries, 72
87
88 INDEX
résultat, 9
suite