Vous êtes sur la page 1sur 5

VECTEURS GAUSSIENS

P RPARATION L AGRGATION EXTERNE DE M ATHMATIQUES DE L UNIVERSIT R ENNES 1 1


A NNE 2014-2015

1. DEFINITIONS ET PREMIERES PROPRIETES


Dfinition On dit que X est un vecteur gaussien de Rn si il existe m Rn et Mn (R) symtrique semi-dfinie positive tels que
la fonction caractristique X de X scrit :

1
X (u) := E eihu,Xi = exp ihu, mi u> u , u Rn .
2
Dans ce cas, on note X Nn (m, ).
Remarques
(a) Cette dfinition inclut notamment le cas o X suit une loi de Dirac en m (cas = 0) ;
(b) Si X Nn (m, ), alors E(X) = m et V(X) = . En particulier, un vecteur gaussien admet un moment dordre 2 et, de
manire plus gnrale, des moments de tous ordres.
(c) Tout sous-vecteur dun vecteur gaussien est gaussien, et en particulier, les composantes dun vecteur gaussien sont des
v.a.r. gaussiennes. Par contre, il se peut que X1 , , Xn soient des v.a. relles gaussiennes sans pour autant que le vecteur
(X1 , , Xn )> soit gaussien : en effet, soient X1 N1 (0, 1) et X2 = X1 , o
X1 , et de loi dfinie par P( = 1) =
1/2. Alors, X2 N1 (0, 1) mais la fonction caractristique du vecteur (X1 , X2 )> nest pas une fonction caractristique
gaussienne.
Souvent, un moyen simple de montrer quun vecteur alatoire est gaussien est dutiliser la proposition suivante, qui constitue une
dfinition alternative efficace dun vecteur gaussien :
Proposition 1.1 Un vecteur alatoire est gaussien si, et seulement si, toute combinaison linaire de ses composantes est une v.a.
relle gaussienne.
Si X est un vecteur alatoire de carr intgrable, alors X E(X) Im(V(X)) p.s. Par suite, X ne possde pas de densit si
detV(X) = 0. Dans le cas o X est un vecteur gaussien, la condition dinversibilit de sa matrice de variance suffit tablir
lexistence dune densit, comme le montre le rsultat ci-dessous.
Thorme 1.1 Soit X Nn (m, ) avec det 6= 0. Alors, X admet une densit qui est

1
1

exp (x m)> 1 (x m) , x Rn .
2
det

(2)n/2

Daprs la proposition 1.1, les lois gaussiennes sont stables par transformation affine. La forme trs particulire de la loi image,
dcrite dans le rsultat suivant sur lequel on pourrait tre tent - tort- de jeter un coup doeil distrait, est dutilit constante dans
la manipulation des vecteurs gaussiens.
Proposition 1.2 Si A Mk,n (R), b Rk et X Nn (m, ), on a :
AX + b Nk (Am + b, A A> ).
Lorsque est relle, symtrique et semi-dfinie positive, on peut construire laide du thorme de Schur une matrice 1/2
vrifiant 1/2 1/2 = . Cette matrice est inversible, dinverse 1/2 , lorsque est dfinie positive.
Proposition 1.3 Soient m Rn et Mn (R) symtrique semi-dfinie positive.
(i) Si det 6= 0 et X Nn (m, ), alors 1/2 (X m) Nn (0, Id) ;
(ii) Si X Nn (0, Id), alors m + 1/2 X Nn (m, ).
1. Benot Cadre - ENS Rennes

Lorsque 2 v.a.r. sont indpendantes, leur covariance est nulle. En revanche, la rciproque est fausse, sauf dans le cas des vecteurs
gaussiens :
Thorme 1.2 Soit X un vecteur gaussien. Les composantes de X sont des v.a.r. indpendantes si, et seulement si la matrice de
variance de X est diagonale.
La preuve de ce rsultat, sur laquelle nous ne nous arrterons pas, est une illustration de lintrt de la la fonction caractristique,
et donc de la transforme de Fourier (cf [O UVRARD ]). A ce titre, elle peut tre insre dans une lecon danalyse et probabilits
portant sur ce thme.
Remarque Le fait que les composantes du vecteur alatoire X soient des v.a.r. gaussiennnes nest pas suffisant pour tablir cette
quivalence (reprendre lexemple du (c) de la remarque ci-dessus).
A PPLICATION : SIMULATION DE VECTEURS GAUSSIENS . Il est facile de simuler un vecteur gaussien de matrice de variance
diagonale, car les composantes sont alors des v.a.r. indpendantes de lois gaussiennes. Supposons donc que lon ait simuler
une ralisation dun vecteur gaussien X Nn (m, ). Il existe une matrice orthogonale P telle que = P P> (?), o =
diag(1 , , n ). Si Z = P> (X m), alors Z Nn (0, ). Il suffit donc de simuler les n v.a.r. indpendantes Z1 , , Zn de lois
N1 (0, 1 ), , N1 (0, n ) constituant le vecteur gaussien Z pour obtenir une ralisation de X, car X = m + PZ. Lalgorithme de
simulation de X est :
1. Calculer la dcomposition (?) pour . NB : en pratique, Scilab fournit la fonction svd (Singular Value Decomposition) qui,
utilise comme suit : [A, , B] = svd( ), rend la matrice diagonale dont les lments sont rangs par ordre dcroissant,
et A, B sont des matrices unitaires telles que = A B> , cest--dire que dans notre cas, A = B = P.
2. Gnrer une ralisation z de Z en simulant des gaussiennes N1 (0, i ) pour les indices i tels que i > 0, et complter les
autres composantes de z par des 0.
3. Calculer la ralisation correspondante x = m + Pz de X = m + PZ.
Le conditionnement dans un vecteur gaussien possde des proprits trs particulires, comme en tmoigne le rsultat ci-dessous :
Thorme 1.3 Soit (Y, X1 , , Xn )> un vecteur gaussien de Rn+1 tel que X = (X1 , , Xn )> possde une matrice de variance
inversible. Si (a1 , , an )> = V(X)1 (cov(Y, X1 ), , cov(Y, Xn ))> , on a :
n

E(Y |X1 , , Xn ) = ai (Xi EXi ) + EY.


i=1

Preuve On suppose que (Y, X1 , , Xn ) est centr, et on note Y = ni=1 ai Xi . On vrifie facilement que pour tout i = 1, , n :
cov(Y Y , Xi ) = E(Y Y )Xi = 0.
Puisque le vecteur (X1 , , Xn ,Y Y ) est gaussien, Y Y
(X1 , , Xn ). En consquence,
E(Y |X1 , , Xn ) = E(Y Y |X1 , , Xn ) + Y = E(Y Y ) + Y = Y .

2. PROJECTION DE VECTEURS GAUSSIENS


[R F. : DACUNHA -C ASTELLE ET D UFLO , O UVRARD , T OULOUSE]
Le thorme ci-dessous est essentiel dans toute la thorie des modles gaussiens. Il intervient dans la plupart des problmes destimation de paramtres issus dune loi gaussienne : estimation et tests pour un chantillon gaussien, modles linaires gaussiens,
filtrage linaire gaussien (en particulier le filtre de Kalman-Bucy),...
Thorme 2.1 [C OCHRAN ] Soit X Nn (0, 2 Id) avec > 0 et L1 L p une dcomposition de Rn en sous-espaces orthogonaux de dimensions r1 , , r p . Les projections orthogonales 1 , , p de X sur L1 , , L p sont des vecteurs gaussiens
indpendants, et pour chaque i = 1, , p :
1
ki k2 r2i ,
2
avec k.k la norme euclidienne.
Preuve Soit (eij )i, j une base orthonorme de Rn telle que pour chaque i = 1, , p, (eij ) j=1, ,ri est une base orthonorme de Li .
i
Pour chaque i = 1, , p : i = rj=1
hX, eij ieij . Les vecteurs (eij )i, j tant orthogonaux, on trouve pour tout i 6= k : cov(i , k ) = 0.
>
Comme (1 , , p ) est un vecteur gaussien (car toute combinaison linaire des v.a.r. (hX, eij i)i, j est gaussienne), 1 , , p
2

sont des vecteurs gaussiens indpendants. Enfin, pour tout i = 1, , ri , les v.a.r. hX, ei1 i, , hX, eiri i sont indpendantes et de
mme loi N1 (0, 2 ). Par suite,
ri  hX, ei i 2
1
j
2
ki k =
r2i .
2

j=1
Le thorme de Cochran permet dobtenir facilement des informations sur les estimateurs de la moyenne ou de la variance dans
un chantillon gaussien. Pour un chantillon X1 , , Xn de v.a.r., on note Xn et Sn2 sa moyenne et variance empirique :
1 n
1 n
Xn = Xi et Sn2 =
(Xi Xn )2 .
n i=1
n 1 i=1
Lestimateur naturel (1/n) ni=1 (Xi Xn )2 de var(X1 ) est biais. En revanche, Sn2 le mrite destimer sans biais la variance
var(X1 ).
On rappelle que la loi de Student n degrs de libert, note Tn , est la loi du quotient
Y n2 .

nX/ Y , o X
Y , X N1 (0, 1) et

Thorme
2.2 [F ISHER ] Soit X = (X1 , , Xn )> Nn (m e, 2 Id), avec > 0 et e = (1, , 1)> . Alors, Xn
Sn . De plus,

2
n(Xn m)/ N1 (0, 1), (n 1)Sn2 / 2 n1
et n(Xn m)/Sn Tn1 .
Daprs la loi forte des grands nombres, Sn p.s. La dernire assertion du thorme de Fisher, le thorme de la limite centrale
unidimensionnel et le lemme de Slutsky montrent que pour les grandes valeurs de n, Tn est proche de la loi N1 (0, 1).
A titre de complment, on peut montrer (cf [O UVRARD ]) que Xn
Sn X est gaussien. La preuve, qui utilise la fonction
caractristique, peut judicieusement tre insre dans une lecon danalyse et probabilits.
Preuve Cas m = 0 et 2 = 1. Soit L le s.e.v. de Rn engendr par e. Le projecteur orthogonal P sur L est la matrice n n
ne contenant que des 1/n. On a alors PX = Xn e et (Id P)X = (X1 Xn , , Xn Xn )> . Comme (Id P)X est la projection
orthogonale de X sur lorthogonal de L, on dduit du thorme de Cochran que PX
(Id P)X, et en particulier que Xn
Sn2 .
2
2
2
Enfin, (n 1)Sn = k(Id P)Xk n1 daprs le thorme de Cochran.
3. STATISTIQUE DES ECHANTILLONS GAUSSIENS
[R F. : DACUNHA -C ASTELLE ET D UFLO , O UVRARD]
3.1 L E MODLE
On dispose dobservations relles x1 , , xn . En terme de modlisation, la premire tape consiste considrer que ces rels sont
des ralisations de n v.a.r.i.i.d. notes X1 , , Xn , cest--dire que pour une certaine ventualit , xi = Xi (). Ces observations
sont supposes tre issues dune loi gaussienne. On peut donc considrer dans la suite que X1 N1 (m, 2 ), avec m et > 0
inconnus. Lenjeu est maintenant de donner des valeurs approches pour les paramtres m et 2 (cadre paramtrique). On note
xn et s2n la moyenne et la variance des observations x1 , , xn :
xn =

1 n
1 n
xi et s2n =

(xi xn )2 .
n i=1
n 1 i=1

Le modle statistique est {Pm, ; m R, > 0}, o Pm, = N1 (m, 2 )n , et (X1 , , Xn ) dsigne un chantillon de la loi Pm, .
Les intervalles de confiance et les tests sont construits laide du thorme de Fisher, qui a lavantage de fournir des lois n fix
(tests et intervalles de confiance non asymptotiques).
On note ]0, 1[ le niveau du test, cest--dire le maximum de lerreur de 1re espce lorsque le paramtre (m ou ) parcourt
lensemble dfini par lhypothse nulle H0 (rappelons que lerreur de 1re espce est la probabilit de rejeter H0 tort). On choisit
souvent = 1%, 5% ou 10%, de manire considrer en priorit des tests de niveau faible (cest le principe de Neyman). On ne
considre que les cas
les plus courants en pratique, i.e. (resp. m) est inconnu lorsque lon veut tester m (resp. ). Sinon, il suffit
dutiliser lgalit n(Xn m)/ N1 (0, 1) sous Pm, .

3.2 L E TEST DE S TUDENT ( OU t-TEST )

On fixe m0 , et on veut tester par exemple H0 : m m0 contre H1 : m > m0 au niveau . La statistique de test n(Xn m)/Sn
Tn1 sous Pm, . La rgion de rejet est du type {(z1 , , zn ) Rn : zn > a} car H0 est rejete tort ds que Xn prend des valeurs
anormalement grandes. Notons tn1, le quantile dordre 1 de la loi Tn1 . Alors, sous H0 :






Sn
Sn

Pm, Xn m0 + tn1, , Pm, Xn m + tn1, , = .


n
n

Pour ce test, une rgion de rejet au niveau est donc R := {(z1 , , zn ) Rn : zn > m0 + tn1, sn / n}. Autrement dit, la
procdure de dcision est dfinie ainsi : on rejette H0 au niveau si xn R .
3.3 L E TEST DE F ISHER
2
On fixe 0 , et on veut tester par exemple H0 : 0 contre H1 : > 0 au niveau . La statistique de test (n 1)Sn2 / 2 n1
2
2
sous Pm, . Soit n1, le quantile dordre 1 de la loi n1 . On montre comme dans le cas prcdent que pour ce test, la rgion
2
de rejet au niveau est R := {(z1 , , zn ) Rn : zn > n1,
02 /(n 1)}. Autrement dit, on rejette H0 au niveau si s2n R .

4. LE THEOREME DE LA LIMITE CENTRALE SUR Rd


[R F. : TOUTES]
Soient X1 , X2 , des vecteurs alatoires sur Rd , supposs indpendants et de mme loi intgrable. La moyenne empirique des
n premiers vecteurs alatoires est Xn = (1/n) nk=1 Xk . Daprs la loi forte des grands nombres, Xn EX1 p.s. lorsque n .
Le thorme de la limite centrale est un principe dinvariance qui prcise la vitesse de convergence dans la loi forte des grands
nombres.
Thorme 4.1 [TLC] Soient X1 , X2 , des vecteurs alatoires sur Rd , supposs indpendants et de mme loi de carr intgrable.
Alors, lorsque n , on a :

L
n(Xn EX1 ) Nd (0, V(X1 )).
La preuve est directe partir de la version unidimensionnelle du TLC et lastuce de Cramr-Wold.
L E TLC ET LA THORIE DES PROBABILITS . La position "centrale" de ce thorme rside dans le fait suivant : ds lors que les
vecteurs alatoires X1 , , Xn sont indpendants et de mme loi de carr intgrable, la loi de Xn est proche de Nd (EX1 , V(X1 )/n)
lorsque n est grand (avec toutes les prcautions dusage ! !). En termes de modlisation, limpact de ce rsultat est considrable :
il signifie que lon peut raisonnablement considrer que la somme de petites perturbations indpendantes est la ralisation dune
loi qui est proche dune loi gaussienne.
L A VITESSE DE CONVERGENCE DANS LE TLC ( CAS d = 1). Lorsque lon utilise le TLC, que ce soit pour calculer des intervalles
de confiance asymptotiques, faire des tests asymptotiques, ou bien pour justifier le fait quune erreur puisse tre
raisonnablement
considre comme tant issue dune loi normale, on est toujours amen dire : pour les grandes valeurs de n, n(Xn m) suit
peu prs une loi normale.
Que signifie ici "pour les grandes valeurs de n" ? Autrement dit, comment peut-on contrler lerreur
commise en remplacant n(Xn m) par la loi normale correspondante ? Un lment de rponse est donn par lingalit de
Berry-Essen : sous rserve que X1 admette un moment dordre 3, et sous les conditions du TLC :




sup P n(Xn EX1 ) x P(G x)) Cn1/2 ,
xRd

avec G N1 (0, V(X1 )) et C une constante indpendante de n, dpendant des 3 premiers moments de X1 . Pour les applications,
il est important de disposer dune valeur de C qui soit la plus petite possible, ce qui fut lobjet dune longue qute...

REFERENCES
Dacunha-Castelle D. et Duflo M. Probabilits et statistiques, 1. Problmes temps mobile. Masson, 1993.
Foata D. et Fuchs A. Calcul des probabilits, 2me dition. Dunod, 1998.
Ouvrard J.-Y. Probabilits 2 - Matrise Agrgation. Cassini, 2000.
Toulouse P.S. Thmes de probabilits et statistique. Dunod, 1999.

APPENDICE : GENERALITES SUR LES MATRICES ALEATOIRES


[R F. : DACUNHA -C ASTELLE ET D UFLO]
Une matrice (resp. vecteur) alatoire est une matrice (resp. vecteur) dont les lments sont des v.a.r. Elle est intgrable (resp.
de carr intgrable) si ses composantes le sont, et son esprance mathmatique est la matrice (resp. vecteur) des esprances des
lments qui la composent. Si A et B sont des matrices dterministes de tailles n p et k l et si X est une matrice alatoire de
taille p k, on a E(AX) = AE(X), E(XB) = E(X)B et E(X > ) = E(X)> .
Pour les vecteurs alatoires de carrs intgrables, la notion de variance se gnralise ainsi : si X et Y sont des vecteurs alatoires
de mme taille, on pose


V(X) = E X EX)(X EX)> la matrice de variance de X;


cov(X,Y ) = E X EX)(Y EY )> la matrice de covariance de X et Y.
Noter que V(X) est une matrice symtrique semi-dfinie positive.
Si X et Y sont des vecteurs alatoires possdant les proprits dintgrabilit adquates et A et B sont des matrices dterministes,
de tailles permettant deffectuer les sommes et les produits ci-dessous, on a les relations :
V(X) = EXX > EXEX >
cov(X,Y ) = EXY > EXEY >
cov(X,Y ) = cov(Y, X)>

V(X +Y ) = V(X) + V(Y ) + cov(X,Y ) + cov(Y, X)


cov(AX, BY ) = Acov(X,Y )B>
V(AX + B) = AV(X)A>

Thorme Soit X un vecteur alatoire de Rn de carr intgrable. Alors, detV(X) = 0 si, et seulement si il existe une liaison affine
p.s. entre les composantes de X. Dans ce cas, on a aussi P(X EX Im(V(X))) = 1.
Preuve Supposons que detV(X) = 0. Comme V(X) est une matrice symtrique semi-dfinie positive, il existe une matrice
diagonale et une matrice orthogonale Q telles que QV(X)Q> = . En posant Y = QX, on obtient un vecteur alatoire de
matrice de variance . Soit v un vecteur propre correspondant une valeur propre nulle de V(X). Comme Y = QX, on a pour une
coordonne Yk de Y : Yk = v> X. Alors, var(Yk ) = v> V(X)v = 0, do p.s. v> X = v> EX. On a donc p.s. X EX Im(V(X)), ce
qui entrane lexistence dune relation affine p.s. entre les composantes de X. La rciproque est immdiate : sil existe une liaison
affine p.s. entre les composantes de X, alors en considrant la variance dans cette relation, on tablit lexistence dune relation
entre les colonnes de V(X) .
Si detV(X) = 0, on a P(X EX + Im(V(X))) = 1 et le vecteur alatoire X ne prend ses valeurs que dans un sous-espace affine
de Rn : on dit que la loi de X est dgnre. Comme par ailleurs (EX + Im(V(X))) = 0, dsignant la mesure de Lebesgue
sur Rn , le rsultat suivant est immdiat.
Corollaire Soit X un vecteur alatoire de Rn dont les composantes sont de carrs intgrables. Si detV(X) = 0, la loi de X ne
possde pas de densit par rapport la mesure de Lebesgue sur Rn .