Académique Documents
Professionnel Documents
Culture Documents
normale
Feriel Bouhadjera
feriel.bouhadjera@lecnam.net
CNAM, Paris
STA103
Calcul de probabilités
2022–2023
Plan
Rappel
Introduction
Vecteurs gaussiens
Loi d’un vecteur gaussien
Densité et fonction caractéristique
Linéarité et loi marginale
Vecteur gaussien et indépendance
Vecteur gaussien et espérance conditionnelle
Exercices
Propriétés :
▶ Cov (X ,Y ) = E[XY ] − E[X ]E[Y ]
▶ Si les v.a. X et Y sont indépendantes alors la covariance est nulle.
▶ Cov (X ,Y ) = Cov (Y ,X ) (symétrique)
▶ Cov (αX + βY ,Z ) = αCov (X ,Z ) + βCov (Y ,Z ) et
Cov (αX ,βY ) = αβCov (X ,Y ) (bi(-linéarité))
▶ Cov (a,Y ) = 0
▶ Relation avec la variance :
V (X + Y ) = V (X ) + V (Y ) + 2Cov (X ,Y )
et
Cov (X ,X ) = V (X )
Rappel
Comme nous allons parlé de vecteurs (en dimension >2) Gaussiens, nous
allons rappelé la notion de produit scalaire.
Produit scalaire
On note < ·,· > le produit scalaire usuel dans Rd . Pour u = (u1 , · · · ,ud ) et
v = (v1 , · · · ,vd )) :
< u,v >= u1 v1 + · · · + ud vd .
Remarque : < u,v >= u T v . a
a
Ici T signifie la transposée.
Vecteur aléatoire gaussien
Un vecteur aléatoire à valeur dans Rd (i.e. X = (X1 , · · · ,Xd )) est dit gaussien
si ∀u ∈ Rd , < u,X > est une variable aléatoire (v.a.) réelle gaussienne. Si
toute combinaison linéaire de ses composantes est une variable gaussienne.
Nous avons un exercice dans les prochaines diapos qui prouve cette
remarque.
Théorème
La loi d’un vecteur gaussien X = (X1 , · · · ,Xd ) dans Rd est entièrement
déterminée par :
On note : X ⇝ N (µ,ΣX )
Densité et fonction caractéristique
On pose Y = XZ .
1. Déterminer la loi de Y
E[g(Y )] = E[g(XZ )]
= E g(X )1{Z =1} + g(−X )1{Z =−1}
= E [g(X )] P(Z = 1) + E[g(−X )]P(Z = −1)
E [g(X )] E[g(−X )]
= +
2 2
= E [g(X )]
Exemple (Couple de v.a. gaussiennes)
Cov (X ,Y ) = E[XY ]
= E[X 2 Z ]
= E[X 2 1{Z =1} − X 2 1{Z =−1} ]
= E[X 2 ]P(Z = 1) − E[X 2 ]P(Z = −1)
= 0
3. Le vecteur (X ,Y ) est-il gaussien?
▶ On considère une combinaison linéaire de X et Y et on regarde si cette
dernière est normale?
▶ Or P(X + Y = 0) = P(Z = −1) = 1/2. Donc, le vecteur (X ,Y ) n’est pas
gaussien.
▶ Remarque : X et Y ne sont pas indépendants.
Nous avons montré qu’un vecteur dont les composantes sont gaussiennes
n’est pas forcément gaussien.
Linéarité et loi marginale
Proposition
Les v.a. X1 , · · · ,Xd sont indépendantes ⇐⇒ ΣX est diagonale (i.e. la
covariance est nulle ∀i ̸= j,Cov (Xi ,Xj ) = 0 ou encore E[Xi Xj ] = E[Xi ]E[Xj ])
Une matrice ΣX (de covariance) est dite diagonale, si elle est de la forme :
2
σ1 0 . . . 0
0 σ2 . . . . . .
2
ΣX = .. .. .. ..
. . . .
..
0 . 0 σd2
Soient Y1 , · · · ,Yd des v.a. réelles telle que Xj et Yj ont la même loi ∀j et
Y1 , · · · ,Yd sont indépendantes. Calculons la fonction caractéristique de X:
1
ΦX (t) = exp i(t1 µ1 + · · · + td µd ) − (σ12 t12 + · · · + σd2 td2 )
2
d
Y 1
= exp itj µj − σj2 tj2
2
j=1
d
Y
= ΦXj (tj )
j=1
d
Y
= ΦYj (tj )
j=1
Soit (Y1 , · · · ,Yn ,X ) un vecteur gaussien centré. Alors ∃λ1 , · · · ,λn ∈ R tels
que :
n
X
E[X |σ(Y1 , · · · ,Yn )] = λj Yj .
j=1
(x − µ)2
Z
1
E [h(X )|σ(Y1 , · · · ,Yn )] = h(X ) √ exp − dx
R 2πσ 2 2σ 2
avec 2
n
X n
X
σ 2 = E X − λj Yj , µ= λj E[Yj ],
j=1 j=1
E [h(X )|σ(Y1 , · · · ,Yn )] est un v.a. qui s’écrit comme une fonction de
Y1 , · · · ,Yn .
Vecteur gaussien et espérance conditionnelle
Calcul des λj
et par ailleurs
" n # n
X X
E[ZYj ] = E λi Yj Yi = Cov (Yj ,Yi ).
i=1 i=1
Donc,
λ1 Cov (X ,Y1 )
ΣY × ... = ..
.
λn Cov (X ,Yn )
qu’on peut réécrire :
λ1 Cov (X ,Y1 )
. −1 ..
.. = ΣY ×
.
λn Cov (X ,Yn )
Exercice 1
β 2α+1/2 √ √ e−λ(x+y )
Z
= h( xy , y )(xy )α−1/2 √ dxdy
Γ(α)Γ(α + 1/2) ]0,+∞[×]0,+∞[ x
√ √
On considère le changement de variable u = xy , v = y qui est un C 1
difféomorphisme de ]0, + ∞[×]0, + ∞[ dans lui même. Le calcul du
déterminant de la matrice jacobienne donne :
1
dudv = √ dxdy .
4 x
Correction 1
Ainsi, avec y = v 2 et x = u 2 /v 2 ,
2
4λ2α+1/2 −λ v 2 + u2
E[h(U,V )] = h(u,v )u 2α−1 e v
dudv
Γ(α)Γ(α + 1/2)
Soit X = (X1 ,X2 ,X3 ,X4 ) un vecteur gaussien centré de matrice de covariance
3 1 0
Γ= 1 2 0
0 0 1
2π |Γ12 |
Correction 2
t t 0 1
3. On a (X2 ,X2 + aX1 ) = A(X1 ,X2 ) avec A = . Donc
a 1
(X2 ,X2 + aX1 ) est un vecteur gaussien centré de matrice AΓ12 At .
4. Comme le vecteur (X2 ,X2 + aX1 ) est gaussien (centré), X2 et X2 + aX1
sont indépendants si et seulement si Cov (X2 ,X2 + aX1 ) = 0. Or
Les covariances
nulles
implique l’indépendance du sous-vecteur
X −Y
W := X − Z de la variable X + Y + Z . Or,
Y −Z
(X − Y )2 + (X − Z )2 + (Y − Z )2 = ||W ||2 est fonction mesurable de W , donc
l’indépendance de X + Y + Z est préservée.
Plan
Rappel
Introduction
Vecteurs gaussiens
Loi d’un vecteur gaussien
Densité et fonction caractéristique
Linéarité et loi marginale
Vecteur gaussien et indépendance
Vecteur gaussien et espérance conditionnelle
Exercices
▶ Nous allons étudier dans cette partie du cours la tendance d’une suite
de v.a. vers une v.a. normale et nous allons établir quelques théorèmes
fournissant des conditions suffisantes pour que cette tendance ait lieu.
La loi Gamma
Une distribution Gamma est caractériser par deux paramètres k et θ et qui
représente respectivement la forme et l’échelle de sa représentation
graphique. Les distributions Gamma sont utilisées pour modéliser une
grande variété de phénomènes, et tout particulièrement les durées de vie (en
analyse de survie).
Soit X une v.a. réelle positive qui suit une loi de Gamma de paramètres k et θ
(strictement positifs) (i.e. X ⇝ Γ(k ,θ)) alors sa densité de probabilité est
donnée par :
x k −1 λk e−λx
fX (x) = 1{x>0}
Γ(k )
R +∞
avec Γ(u) = 0 t u−1 e−t dt.
Théorème central limite
Théorème Lindeberg-Lévy
Soit (Xn )n≥1 une suite de v.a. indépendantes, identiquement distribuées, de
L2 . Posons :
µ = E[X1 ],
2
σ = V (X1 ) (0 < σ < +∞);
Sn = X1 + · · · + Xn ,
Sn
X̄n = ,
n
Sn − nµ X̄n − µ
Yn = √ = √
σ n σ/ n
Alors la suite (Yn )n≥1 converge en loi vers une v.a. de loi N (0,1), c’est-à-dire
que pour tout réel x on a :
Z x
1 2
P(Yn ≤ x) −→ √ e−u /2 du n → +∞.
−∞ 2π
Démonstration du théorème Lindeberg-Lévy
L’importance du THM précédent réside dans le fait que pour n grand les lois
de probabilité (en général compliquées)
√ de
√ Sn , X̄n peuvent être approchées
par les lois normales N (nµ,σ n),N (µ,σ n). Le théorème comporte un
certain nombre de cas particuliers que nous allons examiner.
Cas particulier 1 : Loi Binomiale (Moivre-Laplace)
Nous prenons comme loi commune des Xn la loi de Bernoulli pϵ1 + qϵ0 ,
(p,q > 0,p + q = 1). Alors Sn suit la loi binomiale Bin(n,p). On a : E[Sn ] = np,
V (Sn ) = npq, le THM affirme que :
Proposition
La suite de v.a. de terme général
Sn − np
Yn = √
npq
Nous prenons cette fois-ci comme loi commune des Xn la loi de Poisson π1
de paramètre 1. Alors Sn suit la loi de Poisson πn de paramètre n, on a :
E[Sn ] = n et V (Sn ) = n, le THM affirme que :
Proposition
La suite de v.a. de terme général
Sn − n
Yn = √
n
converge en loi vers une v.a. de loi N (0,1).
On remarque que ce dernier passage à la limite n’est pas aisé à établir sans
faire appel au TCL.
Remarque 2
Proposition
La suite de v.a. de terme général
Sn − n/λ
Yn = √
n/λ
Théorème
Soit (Xn )n≥1 une suite de v.a. réelles, indépendantes et identiquement
distribuées, telle que X1 ∈ L1 et E[X1 ] = 0. Alors les deux propriétés
suivantes sont équivalentes :
a) La suite de terme général Yn = X1 +···+X
√
n
n
converge en loi vers une v.a. de
loi N(0,1).
b) X1 ∈ L2 et E[X12 ] = 1.
Lemme
Soit (X ,Y ) un couple de v.a. réelle et indépendantes, tel que X + Y
appartient à L2 . Alors X et Y appartiennent à L2 .
Remarque
Xp − p/λ
√
p/λ
converge en loi vers une v.a. de loi N (0,1) de sorte que, pour p grand, le loi
√
Γ(p,λ) peut-être approchée par la loi normale N (p/λ, p/λ).
Théorème de Lindeberg
Théorème
Si la "condition de Lindeberg" suivante est satisfaite, a savoir que pour tout
ϵ > 0, on a :
n Z
1 X
x 2 dµk (x) → 0,
Cn2 k =1 |x|≥ϵCn
lorsque n tend vers l’infini, alors la suite des v.a. Zn = Sn /Cn converge en loi
vers une v.a. de loi N (0,1).
Théorème de Liapounov
Théorème
Soit (Xn )n≥1 une suite de v.a. indépendantes, de L2+γ pour un certain γ > 0,
et centrées. Posons V (Xk ) = σk2 . Introduisons la suite des sommes partielles
Sn = nk=1 Xk et posons V (Sn ) = nk=1 σk2 = Cn2 . Enfin, supposons vérifiée
P P
la "condition de Liapounov" :
n
1 X
E[|Xk |2+γ ] −→ 0 (n → ∞).
(Cn )2+γ
k =1
Alors la suite de v.a. Zn = Sn /Cn converge en loi vers une v.a. de loi N (0,1).
Application
Pn
Comme E[Xk ] = pP k et V (Xk ) = pk qk , en posant Sn = k =1 (Xk − pk ), on a :
(Cn )2 = V (Sn ) = nk=1 pk qk . D’autre part,
expression qui tend vers 0 lorsque n tend vers l’infini. Il en résulte que
Zn = Sn /Cn converge en loi vers une v.a. de loi N (0,1).
Exercice 1
Soit (Xλ ) (λ > 0) une famille de v.a., où le terme général Xλ suit une loi de
poisson de paramètre π√λ .
Montrer que (Xλ − λ)/ λ converge en loi vers une v.a. de loi N (0,1),
lorsque λ → ∞.
Correction 1
Xλ −λ
La fonction génératrice de Xλ est g0 (u) = exp(λ(eu − 1)); celle de √
λ
est
√ √
−u λ u/ λ
donc g(u) = e exp(λ(e − 1)). D’où,
√ √
log(g(u)) = −u λ − λ + λeu/ λ
√ u2
u 1
= −u λ − λ + λ 1 + √ + +o
λ 2λ λ
u2 u2
= + o(1) → ,
2 2
2
ainsi g(u) → eu /2
.
Exercice 2
Soit (Xp ) avec (p > 0) une famille de v.a., où le terme général Xp suit la loi
gamma Γ(p,λ) (λ > 0). Montrer que
Xp − λp
√ ⇝ N (0,1) p −→ ∞.
p/λ
Correction 2
p
λ
La fonction génératrice de Xp est g0 (u) = λ−u
avec (u < λ). Donc, celle
Xp −(p/λ)
de √
p/λ
est
!p
√ λ √ 1
−u p −u p
g(u) = e g0 √ =e .
pu 1 − √up
D’où,
√
u
log g(u) = −u p − p log 1 − √
p
√ u
= −u p − p − √ 2
p − u2p + o p1
u2 u2
1
= +o −→
2 p 2
2
Ainsi, g(u) = eu /2
.
Exercice 3
n −log n
S√
2. Montrer que Yn = log n
⇝ N (0,1).
Correction 3
a) On a pour l’espérance :
n
X 1
E[Sn ] = ⇝ log n
k
k =1
et pour la variance :
n
X 1 1
V (Sn ) = 1− ⇝ log n.
k k
k =1
D’où, lorsque n → ∞
n n
1 X ′3 1 X1 1
3
|Xn | ≤ 3
⇝ √ →0
(Cn ) (Cn ) k log n
k =1 k =1