Vous êtes sur la page 1sur 49

Cours 9 : Vecteurs gaussiens et le rôle central de la loi

normale

Feriel Bouhadjera
feriel.bouhadjera@lecnam.net

CNAM, Paris

STA103
Calcul de probabilités
2022–2023
Plan

Rappel

Introduction

Vecteurs gaussiens
Loi d’un vecteur gaussien
Densité et fonction caractéristique
Linéarité et loi marginale
Vecteur gaussien et indépendance
Vecteur gaussien et espérance conditionnelle
Exercices

Le rôle central de la loi normale (Théorème central limite)


Théorème de Lindeberg-Lévy
Cas particulier 1 :Loi Binomiale
Cas particulier 2 :Loi de Poisson
Cas particulier 3 :Loi Exponentielle
Théorème de Lindeberg
Théorème de Liapounov
Application
Exercices
Rappel

La covariance entre deux variables généralise la notion de variance pour


quantifier la dispersion jointe des deux variables. C’est une fonction à valeurs
dans R qui se définit comme ceci :

Cov (X ,Y ) = E[(X − E[X ])(Y − E[Y ])]

Propriétés :
▶ Cov (X ,Y ) = E[XY ] − E[X ]E[Y ]
▶ Si les v.a. X et Y sont indépendantes alors la covariance est nulle.
▶ Cov (X ,Y ) = Cov (Y ,X ) (symétrique)
▶ Cov (αX + βY ,Z ) = αCov (X ,Z ) + βCov (Y ,Z ) et
Cov (αX ,βY ) = αβCov (X ,Y ) (bi(-linéarité))
▶ Cov (a,Y ) = 0
▶ Relation avec la variance :

V (X + Y ) = V (X ) + V (Y ) + 2Cov (X ,Y )

et
Cov (X ,X ) = V (X )
Rappel

Comme nous allons parlé de vecteurs (en dimension >2) Gaussiens, nous
allons rappelé la notion de produit scalaire.

On se donne toujours un espace probabilisé (Ω,A,P).

Produit scalaire
On note < ·,· > le produit scalaire usuel dans Rd . Pour u = (u1 , · · · ,ud ) et
v = (v1 , · · · ,vd )) :
< u,v >= u1 v1 + · · · + ud vd .
Remarque : < u,v >= u T v . a
a
Ici T signifie la transposée.
Vecteur aléatoire gaussien

Un vecteur aléatoire à valeur dans Rd (i.e. X = (X1 , · · · ,Xd )) est dit gaussien
si ∀u ∈ Rd , < u,X > est une variable aléatoire (v.a.) réelle gaussienne. Si
toute combinaison linéaire de ses composantes est une variable gaussienne.

Attention : La normalité de chaque composante ne suffit pas pour dire que X


est un vecteur gaussien.

Nous avons un exercice dans les prochaines diapos qui prouve cette
remarque.

Propriété : Si nous disposons d’un vecteur gaussien X = (X1 , · · · ,Xd ) alors


chacune des ses composantes Xj pour j = 1, · · · ,d est une v.a. gaussienne.
Loi d’un vecteur gaussien

Théorème
La loi d’un vecteur gaussien X = (X1 , · · · ,Xd ) dans Rd est entièrement
déterminée par :

▶ Le vecteur des moyennes µ = E[X ] = (E[X1 ], · · · ,E[Xd ])


▶ La matrice carrée (de variance-covariance)
ΣX = (E[Xi Xj ] − E[Xi ]E[Xj ])1≤i,j≤d qui donne sous forme matricielle

V (X1 ) Cov (X1 ,X2 ) ... Cov (X1 ,Xd )


 
 Cov (X2 ,X1 ) V (X2 ) ... ... 
.. .. ..
 
ΣX =  

 . . ... . 

..
Cov (Xd ,X1 ) . ... V (Xd )

où la covariance entre Xi et Xj par : Cov (Xi ,Xj ) = E[Xi Xj ] − E[Xi ]E[Xj ]

On note : X ⇝ N (µ,ΣX )
Densité et fonction caractéristique

Densité de X : pour tout x ∈ Rd , on a :


 
1 1 T −1
fX (x) = exp − (x − µ) Σ X (x − µ)
(2π)d/2 |ΣX |1/2 2

Fonction caractéristique : d’un vecteur gaussien X est donnée pour tout


t ∈ Rd par :
 
h i 1
ΦX (t) = E ei<t,X > = exp i < t,µ > − < ΣX t,t >
2
 
h T i 1
= E eit X = exp it T µ − t T ΣX t .
2
Exemple (Couple de v.a. gaussiennes)

Soit X et Z deux v.a. indépendantes telles que X ⇝ N (0,1) et Z telle que :


P(Z = 1) = P(Z = −1) = 21 .

On pose Y = XZ .

1. Déterminer la loi de Y

E[g(Y )] = E[g(XZ )]
 
= E g(X )1{Z =1} + g(−X )1{Z =−1}
= E [g(X )] P(Z = 1) + E[g(−X )]P(Z = −1)
E [g(X )] E[g(−X )]
= +
2 2
= E [g(X )]
Exemple (Couple de v.a. gaussiennes)

2. Calculer la covariance entre X et Y :

Cov (X ,Y ) = E[XY ]
= E[X 2 Z ]
= E[X 2 1{Z =1} − X 2 1{Z =−1} ]
= E[X 2 ]P(Z = 1) − E[X 2 ]P(Z = −1)
= 0
3. Le vecteur (X ,Y ) est-il gaussien?
▶ On considère une combinaison linéaire de X et Y et on regarde si cette
dernière est normale?
▶ Or P(X + Y = 0) = P(Z = −1) = 1/2. Donc, le vecteur (X ,Y ) n’est pas
gaussien.
▶ Remarque : X et Y ne sont pas indépendants.

Nous avons montré qu’un vecteur dont les composantes sont gaussiennes
n’est pas forcément gaussien.
Linéarité et loi marginale

La linéarité : Soit X un vecteur gaussien de loi N (µ,ΣX ). Par conséquent,


pour n’importe quelle matrice A à d colonnes et b un vecteur
de Rd , on a Y = AX + b est un vecteur gaussien et sa loi est
N (Aµ + b,AΣTX A).

Loi marginale : Soit X un vecteur gaussien. On peut utiliser la propriétés


précédente pour calculer la loi marginale de tout
sous-vecteur.
Vecteur gaussien et indépendance

Soit X un vecteur gaussien.

Proposition
Les v.a. X1 , · · · ,Xd sont indépendantes ⇐⇒ ΣX est diagonale (i.e. la
covariance est nulle ∀i ̸= j,Cov (Xi ,Xj ) = 0 ou encore E[Xi Xj ] = E[Xi ]E[Xj ])

L’hypothèse gaussienne est fondamentale pour l’équivalence.


Vecteur gaussien et indépendance

Une matrice ΣX (de covariance) est dite diagonale, si elle est de la forme :
 2 
σ1 0 . . . 0
 0 σ2 . . . . . . 
 2 
ΣX =  .. .. .. .. 

 . . . . 

 .. 
0 . 0 σd2

où σj2 = V (Xj ) est la variance de la variable Xj pour j = 1, · · · ,d.


Vecteur gaussien et indépendance

Soient Y1 , · · · ,Yd des v.a. réelles telle que Xj et Yj ont la même loi ∀j et
Y1 , · · · ,Yd sont indépendantes. Calculons la fonction caractéristique de X:
 
1
ΦX (t) = exp i(t1 µ1 + · · · + td µd ) − (σ12 t12 + · · · + σd2 td2 )
2
d  
Y 1
= exp itj µj − σj2 tj2
2
j=1
d
Y
= ΦXj (tj )
j=1
d
Y
= ΦYj (tj )
j=1

Par conséquent, X et Y ont la même loi et on arrive à prouver que Xj sont


indépendants.
Vecteur gaussien et espérance conditionnelle

Soit (Y1 , · · · ,Yn ,X ) un vecteur gaussien centré. Alors ∃λ1 , · · · ,λn ∈ R tels
que :
n
X
E[X |σ(Y1 , · · · ,Yn )] = λj Yj .
j=1

i.e. L’espérance conditionnelle d’un vecteur gaussien est une combinaison


linéaire d’autres variables du vecteur.
De plus, pour toute fonction mesurable h : R −→ R+ ,

(x − µ)2
Z  
1
E [h(X )|σ(Y1 , · · · ,Yn )] = h(X ) √ exp − dx
R 2πσ 2 2σ 2
avec  2 
n
X n
X
σ 2 = E X − λj Yj   , µ= λj E[Yj ],
 
j=1 j=1

E [h(X )|σ(Y1 , · · · ,Yn )] est un v.a. qui s’écrit comme une fonction de
Y1 , · · · ,Yn .
Vecteur gaussien et espérance conditionnelle
Calcul des λj

Notons Z = E[X |σ(Y1 , · · · ,Yn )]. Nous avons ∀j ∈ {1, · · · ,n},

E[ZYj ] = E[XYj ] = Cov (X ,Yi )

et par ailleurs
" n # n
X X
E[ZYj ] = E λi Yj Yi = Cov (Yj ,Yi ).
i=1 i=1

Donc,    
λ1 Cov (X ,Y1 )
ΣY ×  ...  =  ..
   
. 
λn Cov (X ,Yn )
qu’on peut réécrire :
   
λ1 Cov (X ,Y1 )
 .  −1 ..
 ..  = ΣY × 
 
. 
λn Cov (X ,Yn )
Exercice 1

Soient X et Y deux variables aléatoires indépendantes de lois respectives


√ √
Γ(α,β) et Γ(α + 1/2,β), avec α > 0 et β > 0. On pose (U,V ) = ( XY , Y ).

1. Déterminer la loi de (U,V ).

On rappelle que la densité de la loi Γ(α,β) est


Z +∞
1 α α−1 −λx
λ x e 1{x>0} avec Γ(α) = z α−1 e−z dz.
Γ(α) 0
Correction 1

Comme les v.a. X et Y sont indépendantes, la loi de (X ,Y ) a pour densité


fX (x)fY (y ), où fX et fY désignent les densités marginales de X et Y
respectivement. On utilise alors la méthode de la fonction muette :
h √ √ i
E[h(U,V )] = E h( XY , Y )
√ √
Z
= h( xy , y )fXY (x,y )dxdy
R2
√ √
Z
= h( xy , y )fX (x)fY (y )dxdy
R2

β 2α+1/2 √ √ e−λ(x+y )
Z
= h( xy , y )(xy )α−1/2 √ dxdy
Γ(α)Γ(α + 1/2) ]0,+∞[×]0,+∞[ x
√ √
On considère le changement de variable u = xy , v = y qui est un C 1
difféomorphisme de ]0, + ∞[×]0, + ∞[ dans lui même. Le calcul du
déterminant de la matrice jacobienne donne :
1
dudv = √ dxdy .
4 x
Correction 1

Ainsi, avec y = v 2 et x = u 2 /v 2 ,
 
2
4λ2α+1/2 −λ v 2 + u2
E[h(U,V )] = h(u,v )u 2α−1 e v
dudv
Γ(α)Γ(α + 1/2)

Ainsi, (U,V ) est à densité :


 
2
4λ2α+1/2 −λ v 2 + u2
fUV (u,v ) = u 2α−1 e v
1u>0,v >0 .
Γ(α)Γ(α + 1/2)
Exercice 2

Soit X = (X1 ,X2 ,X3 ,X4 ) un vecteur gaussien centré de matrice de covariance
 
3 1 0
Γ= 1 2 0 
0 0 1

1. Que peut-on dire de X3 et de (X1 ,X2 )?


2. Quelle est la loi de (X1 ,X2 )?
3. Montrer que pour tout a ∈ R le vecteur (X2 ,X2 + aX1 ) est un vecteur
gaussien.
4. En choisissant a de sorte que X2 et X2 + aX1 soient indépendants,
calculer E[X1 |X2 ].
Correction 2

1. On voit que pour i = 1 et i = 2, on a Cov (X3 ,Xi ) = 0. Donc X3 est


indépendant du vecteur gaussien (X1 ,X2 ).
2. On va montrer que (X1 ,X2 ) estun vecteur gaussien centré, de matrice
3 1
de covariance Γ12 = . On calcul la densité de (X1 ,X2 ) par la
1 2
formule
Z
1 1 −1
fX1 X2 (x1 ,x2 ) = p e 2 (x3 Γ12 x3 ) dx3
3/2 |Γ12 |
R (2π)
Z
1 1 1 −1
= p √ e 2 (x3 Γ12 x3 ) dx3
2π |Γ12 | R 2π
 −1 
Γ12 0
puisque |Γ| = |Γ12 |. On a de plus Γ−1 = donc
0 1
Z
1 1 −1 t 1 1 2
fX1 X2 (x1 ,x2 ) = p e− 2 ((x1 ,x2 )Γ12 (x1 ,x2 ) ) √ e 2 |x3 | dx3
2π |Γ12 | R 2π
1 − 21 ((x1 ,x2 )Γ−1 (x ,x ) t
)
= p e 12 1 2

2π |Γ12 |
Correction 2
 
t t 0 1
3. On a (X2 ,X2 + aX1 ) = A(X1 ,X2 ) avec A = . Donc
a 1
(X2 ,X2 + aX1 ) est un vecteur gaussien centré de matrice AΓ12 At .
4. Comme le vecteur (X2 ,X2 + aX1 ) est gaussien (centré), X2 et X2 + aX1
sont indépendants si et seulement si Cov (X2 ,X2 + aX1 ) = 0. Or

Cov (X2 ,X2 + aX1 ) = V (X2 ) + aCov (X2 ,X1 ) = 2 + a.

En prenant a = −2, on en déduit que X2 − 2X1 et X2 sont indépendants.


Pour calculer E[X1 |X2 ], l’idée est de choisir α et β pour avoir
X1 = α(X2 − 2X1 ) + βX2 ; en écrivant X1 = − 21 (X2 − 2X1 ) + 21 X2 , on
obtient donc :
 
1 1
E[X1 |X2 ] = − E[X2 − 2X1 |X2 ] + E X2 |X2
2 2
1 1
= − E[X2 − 2X1 |X2 ] + X2
2 2
1
= X2
2
Exercice 3

Soient X , Y et Z trois v.a. indépendantes de même loi N (0,1). Montrer que


la v.a. (X − Y )2 + (X − Z )2 + (Y − Z )2 est indépendante de la variable
X + Y + Z.
Solution 3

Comme X ,Y ,Z sont i.i.d. de loi normale standard, le vecteur (X ,Y ,Z ) est


gaussien centrée de matrice de variance l’identité (produit des densités). On
a (X ,Y ,Z ) ⇝ N3 (0,I3 ). Considérons le vecteur
 
X −Y  
X
 X − Z 
 = A Y 
U :=   Y −Z 
Z
X +Y +Z
avec  
1 −1 0
 1 0 −1 
A= 
 0 1 −1 
1 1 1
Solution 3

Par conséquent, U est un vecteur gaussien en tant que transformation


linéaire d’un vecteur gaussien. Sa matrice de variance-covariance est
donnée par :
 
     2 1 −1 0
X X  1
T T 2 1 0 
V (U) = V A  Y  = AV  Y  A = AA =   −1 1

2 0 
Z Z
0 0 0 3

Les covariances
 nulles
 implique l’indépendance du sous-vecteur
X −Y
W :=  X − Z  de la variable X + Y + Z . Or,
Y −Z
(X − Y )2 + (X − Z )2 + (Y − Z )2 = ||W ||2 est fonction mesurable de W , donc
l’indépendance de X + Y + Z est préservée.
Plan

Rappel

Introduction

Vecteurs gaussiens
Loi d’un vecteur gaussien
Densité et fonction caractéristique
Linéarité et loi marginale
Vecteur gaussien et indépendance
Vecteur gaussien et espérance conditionnelle
Exercices

Le rôle central de la loi normale (Théorème central limite)


Théorème de Lindeberg-Lévy
Cas particulier 1 :Loi Binomiale
Cas particulier 2 :Loi de Poisson
Cas particulier 3 :Loi Exponentielle
Théorème de Lindeberg
Théorème de Liapounov
Application
Exercices
Rappel

▶ Le théorème central limite donne des conditions suffisantes dans


lesquelles une somme finie de v.a. réelles convenablement normalisée
suit approximativement une loi normale.

▶ Nous allons étudier dans cette partie du cours la tendance d’une suite
de v.a. vers une v.a. normale et nous allons établir quelques théorèmes
fournissant des conditions suffisantes pour que cette tendance ait lieu.
La loi Gamma
Une distribution Gamma est caractériser par deux paramètres k et θ et qui
représente respectivement la forme et l’échelle de sa représentation
graphique. Les distributions Gamma sont utilisées pour modéliser une
grande variété de phénomènes, et tout particulièrement les durées de vie (en
analyse de survie).
Soit X une v.a. réelle positive qui suit une loi de Gamma de paramètres k et θ
(strictement positifs) (i.e. X ⇝ Γ(k ,θ)) alors sa densité de probabilité est
donnée par :
x k −1 λk e−λx
fX (x) = 1{x>0}
Γ(k )
R +∞
avec Γ(u) = 0 t u−1 e−t dt.
Théorème central limite

Théorème Lindeberg-Lévy
Soit (Xn )n≥1 une suite de v.a. indépendantes, identiquement distribuées, de
L2 . Posons :

µ = E[X1 ],
2
σ = V (X1 ) (0 < σ < +∞);
Sn = X1 + · · · + Xn ,
Sn
X̄n = ,
n
Sn − nµ X̄n − µ
Yn = √ = √
σ n σ/ n
Alors la suite (Yn )n≥1 converge en loi vers une v.a. de loi N (0,1), c’est-à-dire
que pour tout réel x on a :
Z x
1 2
P(Yn ≤ x) −→ √ e−u /2 du n → +∞.
−∞ 2π
Démonstration du théorème Lindeberg-Lévy

Nous désignons par ψ la fonction caractéristique de X1 − µ, cette v.a. étant


centrée, de L2 , la formule de Taylor jusqu’à l’ordre deux de ψ(t) au voisinage
de t = 0 fournit :
t2
ψ(t) = 1 − σ 2 + o(t 2 ) t →0
2
Or
n
X Xk − µ
Yn = √ ,
k =1
σ n
d’où
  n
t
ψYn (t) = ψ √
σ n
 2 n
t2 2

t 2
= 1− σ +o −→ e−t /2
2n n

ce qui établit le résultat en vertu du THM de Paul Lévy.


Remarque

L’importance du THM précédent réside dans le fait que pour n grand les lois
de probabilité (en général compliquées)
√ de
√ Sn , X̄n peuvent être approchées
par les lois normales N (nµ,σ n),N (µ,σ n). Le théorème comporte un
certain nombre de cas particuliers que nous allons examiner.
Cas particulier 1 : Loi Binomiale (Moivre-Laplace)

Nous prenons comme loi commune des Xn la loi de Bernoulli pϵ1 + qϵ0 ,
(p,q > 0,p + q = 1). Alors Sn suit la loi binomiale Bin(n,p). On a : E[Sn ] = np,
V (Sn ) = npq, le THM affirme que :

Proposition
La suite de v.a. de terme général
Sn − np
Yn = √
npq

converge en loi vers une v.a. de loi N (0,1).

Il en résulte que, pour n (grand) la loi Binomiale Bin(n,p) peut-être



approchée par la loi Nomrale N (np, npq).
Cas particulier 2 : Loi de Poisson

Nous prenons cette fois-ci comme loi commune des Xn la loi de Poisson π1
de paramètre 1. Alors Sn suit la loi de Poisson πn de paramètre n, on a :
E[Sn ] = n et V (Sn ) = n, le THM affirme que :

Proposition
La suite de v.a. de terme général
Sn − n
Yn = √
n
converge en loi vers une v.a. de loi N (0,1).

Il en résulte que, pour


√ n (grand) la loi de Poisson πn peut-être approchée par
la loi Nomrale N (n, n).
Remarque 1
Berenstein

Il résulte de la proposition précédente que lorsque n tend vers l’infini, on a :


  Z 0
Sn − n 1 2 1
P √ ≤0 → √ e−x /2 dx = ,
n 2π −∞ 2

c-à-d que pour n → ∞


n
X nk 1
P (Sn ≤ n) = e−n → .
k! 2
k =0

On remarque que ce dernier passage à la limite n’est pas aisé à établir sans
faire appel au TCL.
Remarque 2

On peut étendre la proposition pour une famille de v.a., où le terme général


Xλ suit la loi de Poisson πλ de paramètre λ. On peut montrer directement
que lorsque λ tend vers l’infini, Xλ√−λ
λ
converge en loi vers une v.a. de loi
N (0,1), de sorte que, pour
√ λ grand, la loi de poisson πλ peut-être approchée
par la loi normale N (λ, λ).
Cas particulier 3 : Loi Exponentielle

Nous prenons maintenant comme loi commune des Xn la loi exponentielle


E(λ) pour un λ > 0, Alors, Sn suit la loi de Gamma Γ(n,λ); on a : E[Sn ] = n/λ
et V (Sn ) = n/λ2 , le THM affirme que :

Proposition
La suite de v.a. de terme général
Sn − n/λ
Yn = √
n/λ

converge en loi vers une v.a. de loi N (0,1).

Il en résulte que, pour √


n (grand) la loi Gamma Γ(n,λ) peut-être approchée par
la loi Nomrale N (n/λ, n/λ).
Un complément au théorème de Lindeberg-Lévy

Dans ce paragraphe, nous donnons une condition nécessaire et suffisante


pour que le TCL soit vrai, lorsque les v.a. sont indépendantes et
identiquement distribués. L’énoncé en question est le suivant :

Théorème
Soit (Xn )n≥1 une suite de v.a. réelles, indépendantes et identiquement
distribuées, telle que X1 ∈ L1 et E[X1 ] = 0. Alors les deux propriétés
suivantes sont équivalentes :
a) La suite de terme général Yn = X1 +···+X

n
n
converge en loi vers une v.a. de
loi N(0,1).
b) X1 ∈ L2 et E[X12 ] = 1.
Lemme
Soit (X ,Y ) un couple de v.a. réelle et indépendantes, tel que X + Y
appartient à L2 . Alors X et Y appartiennent à L2 .
Remarque

La proposition précédente peut-être étendue au cas d’une famille (Xp ) pour


(p > 0) de v.a., où le terme général Xp suit la loi gamma Γ(p,λ), avec λ > 0
fixé. On peur montrer directement que lorsque p tend vers l’infini, λ restant
fixé, la v.a.

Xp − p/λ

p/λ

converge en loi vers une v.a. de loi N (0,1) de sorte que, pour p grand, le loi

Γ(p,λ) peut-être approchée par la loi normale N (p/λ, p/λ).
Théorème de Lindeberg

Dans le THM qui va suivre, on suppose donnée une suite (Xk )k ≥1 de


variables aléatoires, de L2 , centrées et indépendantes. On suppose
V (Xk ) = σk2 et on désigne par µk la loi
Pnde probabilité de Xk . Pour tout n ≥ 1,
on note SPn la somme partielle Sn = k =1 Xk et on pose
V (Sn ) = nk=1 σk2 = Cn2 .

Théorème
Si la "condition de Lindeberg" suivante est satisfaite, a savoir que pour tout
ϵ > 0, on a :
n Z
1 X
x 2 dµk (x) → 0,
Cn2 k =1 |x|≥ϵCn

lorsque n tend vers l’infini, alors la suite des v.a. Zn = Sn /Cn converge en loi
vers une v.a. de loi N (0,1).
Théorème de Liapounov

Le THM de Lindeberg admet le corollaire suivant, connu sous le nom de


théorème de Liapounov.

Théorème
Soit (Xn )n≥1 une suite de v.a. indépendantes, de L2+γ pour un certain γ > 0,
et centrées. Posons V (Xk ) = σk2 . Introduisons la suite des sommes partielles
Sn = nk=1 Xk et posons V (Sn ) = nk=1 σk2 = Cn2 . Enfin, supposons vérifiée
P P
la "condition de Liapounov" :
n
1 X
E[|Xk |2+γ ] −→ 0 (n → ∞).
(Cn )2+γ
k =1

Alors la suite de v.a. Zn = Sn /Cn converge en loi vers une v.a. de loi N (0,1).
Application

Soit (Xn )n ≥ 1 une suite de v.a. indépendantes,


P la loi de Xn étant pn ϵ1 + qn ϵ0
(0 < pn < 1, pn + qn = 1). Supposons que n≥1 pn qn = +∞. Alors la suite
Pn
=1 (Xi −pk )
de v.a. de terme général Zn = √kPn
converge en loi vers une v.a. de loi
k =1
pk qk
N (0,1).
Démonstration

Pn
Comme E[Xk ] = pP k et V (Xk ) = pk qk , en posant Sn = k =1 (Xk − pk ), on a :
(Cn )2 = V (Sn ) = nk=1 pk qk . D’autre part,

E[|Xk − pk |3 ] = pk qk3 + qk pk3 = pk qk (pk + qk )2 ≤ pk qk .

Enfin, la suite (Xn − pn ) vérifie la condition de Liapounov pour γ = 1 puisque :


n Pk
1 n=1 pk qk 1
X 3
2+γ
E[|X k − pk | ] ≤ Pn 3/2
= Pn 1/2
,
(Cn ) ( k =1 pk qk ) ( k =1 pk qk )
k =1

expression qui tend vers 0 lorsque n tend vers l’infini. Il en résulte que
Zn = Sn /Cn converge en loi vers une v.a. de loi N (0,1).
Exercice 1

Soit (Xλ ) (λ > 0) une famille de v.a., où le terme général Xλ suit une loi de
poisson de paramètre π√λ .
Montrer que (Xλ − λ)/ λ converge en loi vers une v.a. de loi N (0,1),
lorsque λ → ∞.
Correction 1

Xλ −λ
La fonction génératrice de Xλ est g0 (u) = exp(λ(eu − 1)); celle de √
λ
est
√ √
−u λ u/ λ
donc g(u) = e exp(λ(e − 1)). D’où,
√ √
log(g(u)) = −u λ − λ + λeu/ λ
√ u2
  
u 1
= −u λ − λ + λ 1 + √ + +o
λ 2λ λ
u2 u2
= + o(1) → ,
2 2
2
ainsi g(u) → eu /2
.
Exercice 2

Soit (Xp ) avec (p > 0) une famille de v.a., où le terme général Xp suit la loi
gamma Γ(p,λ) (λ > 0). Montrer que

Xp − λp
√ ⇝ N (0,1) p −→ ∞.
p/λ
Correction 2

 p
λ
La fonction génératrice de Xp est g0 (u) = λ−u
avec (u < λ). Donc, celle
Xp −(p/λ)
de √
p/λ
est
  !p
√ λ √ 1
−u p −u p
g(u) = e g0 √ =e .
pu 1 − √up

D’où,

 
u
log g(u) = −u p − p log 1 − √
p
 
√ u
= −u p − p − √ 2
 
p − u2p + o p1
u2 u2
 
1
= +o −→
2 p 2
2
Ainsi, g(u) = eu /2
.
Exercice 3

Soit (Xn )n≥1 une


 suite de v.a. indépendantes, la loi de Xn étant donnée par
1
ϵ + 1 − n1 ϵ0 . On pose Sn = nk=1 Xk .
P
n 1

1. Montrer que E[Sn ] ⇝ log n et V (Sn ) ⇝ log n.

n −log n
S√
2. Montrer que Yn = log n
⇝ N (0,1).
Correction 3
a) On a pour l’espérance :
n
X 1
E[Sn ] = ⇝ log n
k
k =1

et pour la variance :
n  
X 1 1
V (Sn ) = 1− ⇝ log n.
k k
k =1

b) Posons Xn′ = Xn − n1 , Cn2 = Sn′ = nk=1 Xn′ . On a V (Sn′ ) = V (Sn ). La suite


P

Xn pour n ≥ 1. Elle vérifie, de plus, la condition de Liapounov pour
δ = 1; en effet,
 3    3
1 1 1 1
E[|Xk′ |3 ] = 1− + 1−
k k k k
   " 2  2 #
1 1 1 1
= 1− 1− +
k k k k
 
1 1
≤ 1−
k k
1
≤ ,
k
Correction 3 (suite)

D’où, lorsque n → ∞
n n
1 X ′3 1 X1 1
3
|Xn | ≤ 3
⇝ √ →0
(Cn ) (Cn ) k log n
k =1 k =1

Il en résulte que Sn′ /Cn ⇝ N (0,1), d’où aussi Yn ⇝ N (0,1).

Vous aimerez peut-être aussi