Académique Documents
Professionnel Documents
Culture Documents
1 Théorème de Cochran
On munit Rn de sa structure euclidienne canonique.
Théorème 1 (Cochran1 ). Soit X = t (X1 , . . . , Xn ) un vecteur gaussien centré réduit. Pour F un sous-
espace vectoriel de Rn de dimension p, on note PF (resp. PF ⊥ ) la projection orthogonale sur F (resp.
F ⊥ ).
Alors les vecteurs aléatoires PF X et PF ⊥ X sont gaussiens indépendants de lois
PF X ∼ N(0, PF ) et PF ⊥ X ∼ N(0, PF ⊥ )
De plus, les variables aléatoires kPF Xk2 et kPF ⊥ Xk2 sont indépendantes de lois
Remarque 2. Ce théorème est un analogue “en loi” du théorème de Pythagore. L’identité kxk2 = kPF xk2 +
L
kPF ⊥ xk2 (pour x ∈ Rn ) devient en effet dans le contexte du théorème kXk2 = kPF Xk2 + kPF ⊥ Xk2 , et on a
aussi (surtout !) les lois des 2 termes de la somme.
Démonstration. Le résultat est immédiat si on l’écrit dans une base orthonormée adaptée à la somme
directe orthogonale Rn = F ⊕ F ⊥ : soit (u1 , . . . , u p ) (resp. (u p+1 , . . . , un )) une base orthonormée de F
(resp. F ⊥ ), alors u = (u1 , . . . , un ) est une base orthonormée de Rn . Notons U la matrice (orthogonale,
t U = U −1 ) de passage de la base canonique à la base u.
PF = UI p t U et PF ⊥ = U Jn−p t U
où I p est la matrice diagonale avec des 1 sur les p premiers coefficients diagonaux et des 0 ensuite, et
Jn−p = Id − I p .
On pose Y = t UX. C’est encore un vecteur gaussien centré réduit (car il est de matrice de covariance
t UIdU = Id, la loi gaussienne centrée réduite est invariante par rotation), qui correspond aux coordonnées
de X dans la base u.
Pour Y, on a immédiatement que I p Y = t (Y1 , . . . , Y p , 0, . . . , 0) et Jn−p Y = t (0, . . . , 0, Y p+1 , . . . , Yn ) sont
Pp
indépendants, de lois N(0, I p ) et N(0, Jn−p ), puis que kI p Yk2 = i=1 Yi2 ∼ χ2p et kJn−p Yk2 = ni=p+1 Yi2 ∼
P
χ2n−p .
On peut alors revenir au vecteur X en remarquant que PF X = UI p Y et PF ⊥ X = U Jn−p Y sont gaus-
siens centrés indépendants de matrice de covariance respective UI p t U = PF et U Jn−p t U = PF ⊥ , puis,
comme une transformation orthogonale préserve la norme, que
1
Je triche un peu, c’est une version simplifiée, donc plus compréhensible mais généralement suffisante en pratique, du
théorème de Cochran.
T́̀ C Page 2
Remarque 4. On note T n la loi de Student à n degrés de liberté, qui est par définition la loi de √XZ/n , avec
X et Z indépendantes, X de loi normale centrée réduite, Z de loi du chi-deux à n degrés de liberté.
Démonstration. Soit Y = t (Y1 , . . . , Yn ) un vecteur gaussien centré réduit. On notera
n n
1X 1 X 2
Y= Yi et R2 = Yi − Y
n i=1 n − 1 i=1
Démonstration. Les deux variables aléatoires Y et B sont obtenues par combinaison linéaire des (Yi )1≤i≤n
gaussiennes indépendantes, donc sont gaussiennes de moyennes E(Y) = α+βx et E(B) = β et de variances
et covariance
n
1 X σ2
Var(Y) = Var(Yi ) =
n2 i=1 n
n
1 X σ2
Var(B) = P (xi − x)2 Var(Yi ) = Pn
2 2 − x)2
i=1 (xi
n
i=1 (xi − x) i=1
n
1 X
Cov(Y, B) = (xi − x) = 0
− x)2
Pn
n i=1 (xi i=1
On peut donc appliquer le théorème de Cochran au vecteur gaussien centré réduit E = t (E1 , . . . , En )
pour obtenir que la variable aléatoire kE − E ? k2 suit une loi du chi-deux à n − 2 degrés de liberté et est
indépendante de E et b(E).
La conclusion est alors immédiate en remarquant que Y = α + βx + σE, donc Y = α + βx + σE,
B = β + σb(E), Y ? = α + βx + σE ? , et par conséquent (n − 2) σS 2 = kE − E ? k2 .
2
Comme dans le cas d’un échantillon gaussien, ce résultat permet de construire des intervalles de
confiance centrés en A, B et S 2 pour les paramètres α, β et σ2 . Je détaille en corollaire la construction
d’un intervalle de confiance pour α + βx0 , qui est la moyenne de la variable aléatoire Y0 , lorsqu’une
valeur x0 est donnée. Ça donne une région de confiance pour l’estimation de la droite de liaison linéaire,
d’équation y = α + βx, par la droite de régression linéaire, d’équation y = A + Bx.
Corollaire 7. La variable aléatoire
Y0? − α − βx0
s ∼ T n−2
1 (x0 − x)2
S + Pn 2
n i=1 (xi − x)
Y0? − α − βx0 S2
∼ N(0, 1) (n − 2) ∼ χ2n−2
σ2
s
1 (x0 − x)2
σ + Pn 2
n i=1 (xi − x)
et que S 2 est indépendante de B et de Y, donc de Y0? . On peut donc conclure par définition d’une loi de
Student.
On peut aussi utiliser la valeur estimée Y0? pour prévoir la valeur de Y0 = α + βx0 + E0 lors d’un
tirage futur. Un intervalle de prévision sert à encadrer cette valeur. On utilise pour cela le fait que E0 est
un tirage indépendant de (E1 , . . . , En ), donc
(x0 − x)2
!
?
1
Y0 − Y0 ∼ N 0; σ 1 + + Pn
2
2
n i=1 (xi − x)
soit aussi
Corollaire 8. La variable aléatoire
Y0 − Y0?
s ∼ T n−2
1 (x0 − x)2
S 1 + + Pn 2
n i=1 (xi − x)