Vous êtes sur la page 1sur 2

Théorèmes de Cochran et de Fisher

Florian D USSAP
Agrégation 2018

Théorème 1 (Cochran). Soit X un vecteur gaussien d’espérance nulle et de matrice de covariance Id . On


considère E 1 ⊕ · · · ⊕ E r une décomposition de Rd en sous-espaces orthogonaux de dimensions respectives
d 1 , . . . , d r . Alors les projections orthogonales P E 1 (X ), . . . , P E r (X ) sont des vecteurs gaussiens indépendants.
De plus, pour tout i ∈ {1, . . . , r },
kP E i (X )k2 ∼ χ2 (d i )

Démonstration. Soit Bi = (e i ,1 , . . . , e i ,di ) une base orthonormée de E i et notons Yi , j = 〈X | e i , j 〉. Alors


B = (B1 , . . . , Br ) est une base orthonormée de Rd et les (Yi , j ) sont les coordonnées de X dans cette
base. Soit Q ∈ On (R) la matrice de passage de B à la base canonique. En notant :

Yi ,1 Y1
  
 .   . 
Yi =  ..  Y =  .. 
Yi ,di Yr

on en déduit que Y = Q X suit la loi N (0,Q Id tQ) = N (0, Id ). Donc les (Yi , j ) sont des variables aléatoires
gaussiennes centrées réduites indépendantes. Or comme :
di
X
P E i (X ) = Yi , j e i , j
j =1

on obtient que P E 1 (X ), . . . , P E r (X ) sont des vecteurs gaussiens indépendants. Enfin, en prenant le carré
de la norme :
di
kP E i (X )k2 = Yi2, j ∼ χ2 (d i )
X
j =1

Théorème 2 (Fisher). Soit ν une loi sur {1, . . . , q} telle que ν( j ) > 0 pour tout j et soit (X i )i >1 une suite de
variables aléatoires i.i.d. de loi ν. Notons :
¢2
q Nn, j − n ν( j )
¡
X n X
Nn, j = 1{X i = j } Tn =
i =1 j =1 n ν( j )

Alors :
L
Tn −−−−−→ χ2 (q − 1)
n→+∞

Démonstration. Soit Yi = (1 X i =1 , . . . , 1 X i =q ) et soit S n = Y1 + · · · + Yn =¡ (Nn,1 , . . . , Nn,q


¢ ). On remarque que
les (Yi ) sont des variables aléatoires i.i.d. de même espérance E(Y1 ) = ν(1), . . . , ν(q) . Notons Γ la matrice
de covariance de Y1 . Par le théorème central limite multidimensionnel :
S n − n E(Y1 ) L
Zn = p −−−−−→ Z
n n→+∞

où Z suit la loi N (0, Γ). Par le théorème de l’image continue :

p1
 
q 2
Zn, q Z j2  ν(1)
j L ..

= kD Z k2 ,
X X
Tn = −−−−−→ D = .
 
ν( j ) ν( j )

n→+∞
j =1 j =1
p1
 
ν(q)

1
Il reste à montrer que kD Z k2 suit la loi χ2 (q −1). Remarquons que D Z est un vecteur gaussien centré de
matrice de covariance D Γ tD. Calculons les coefficients de Γ :

Γi , j = Cov(1 X =i , 1 X = j )
= E(1 X =i 1 X = j ) − E(1 X =i ) E(1 X = j )
= δi , j ν(i ) − ν(i ) ν( j )
p ³ p ´p
= ν(i ) δi , j − ν(i ) ν( j ) ν( j )
p

p
Notons c i , j = δi , j − ν(i ) ν( j ) et C la matrice des (c i , j ), de sorte que D Γ tD = C . On remarque que :
p

p
ν(1)

 . 
³p ´
ν(i ) ν( j ) = v tv,
p
Iq −C = v =  ..  unitaire
i,j
ν(q)
p

Ainsi, Iq − C est la matrice de projection orthogonal sur Vect(v). Donc C est la matrice de projection
orthogonale sur Vect(v)⊥ . Le vecteur D Z a donc la même loi que la projection orthogonale d’un vecteur
gaussien centré réduit sur Vect(v)⊥ . Par le théorème de Cochran, kD Z k2 suit la loi χ2 (q − 1).

Références
— G ARET et K URTZMAN, De l’intégration aux probabilités.
— R IVOIRARD et S TOLTZ, Statistique mathématique en action.

Vous aimerez peut-être aussi