Académique Documents
Professionnel Documents
Culture Documents
Rappels d’algèbre
Nous ne considérons ici que des matrices réelles. Nous notons A une matrice et A′ sa transposée.
Le polynôme caractéristique est det(λI −A). Les valeurs propres sont les solutions de det(λI −A) =
0. Un vecteur propre associé à la valeur propre λ est une solution non nulle de Ax = λx.
−1 M −1 uv ′ M −1
M + uv ′ = M −1 − . (B.1)
1 + u′ M −1 v
T −1 + T −1 U Q−1 V T −1 −T −1 U Q−1
−1
M = .
−Q−1 V T −1 Q−1
M⊥
y y − Py
Py
La trace d’un projecteur vaut la dimension de l’espace sur lequel s’effectue la projection, donc
tr(PX ) = p. Le second point découle de la propriété P 2 = P . Les matrices PX et PX PX étant
égales, nous avons (PX )ii égal (PX PX )ii . Cela s’écrit :
n
X n
X n
X
hii = hik hki = h2ii + h2ik ⇒ hii (1 − hii ) = h2ik .
k=1 k=1,k6=i k=1,k6=i
La dernière quantité de droite de l’égalité est positive, donc le troisième point est démontré. En
nous servant de cette écriture les deux derniers points sont aussi démontrés. Nous pouvons écrire :
n
X
hii (1 − hii ) = h2ij + h2ik .
k=1,k6=i,j
La quantité de gauche est maximale lorsque hii = 0.5 et vaut alors 0.25. Le quatrième point est
démontré.
Rappels de probabilité
C.1 Généralités
Y vecteur aléatoire de n est par définition un vecteur de n dont les composantes Y1 , · · · , Yn
sont des variables aléatoires réelles.
! ! !
L’espérance du vecteur aléatoire Y est [Y ] = [ [y1 ], · · · , [yn ]]′ , vecteur de n . La matrice de
variance-covariance de Y a pour terme général Cov(Yi , Yj ). C’est une matrice de taille n × n, qui
s’écrit encore :
Var(Y ) = ΣY = !
! ! ! !
(Y − [Y ]) (Y − [Y ])′ = (Y Y ′ ) − [Y ]( [Y ])′ .
!
Considérons une matrice (déterministe) A de taille m × n et un vecteur (déterministe) b de m.
![AY + b] !
= A [Y ] + b
Var(AY + b) = Var(AY ) = AVar(Y )A′ .
!
tr( [Y Y ′ ]) = ![tr(Y Y ′ )] = ![tr(Y ′ Y )] = tr(ΣY ) + ![Y ]′ ![Y ].
C.2 Vecteurs aléatoires gaussiens
Un vecteur aléatoire Y est dit gaussien si toute combinaison linéaire de ses composantes est une
variable aléatoire gaussienne. Ce vecteur admet alors une espérance µ et une matrice de variance-
covariance ΣY . On dit que Y ∼ N (µ, ΣY ).
Un vecteur gaussien Y de n d’espérance µ et de une matrice de variance-covariance ΣY inversible
admet pour densité la fonction
1 1 1 ′ −1
f (y) = exp − (y − µ) Σ Y (y − µ) , où y = [y1 , . . . , yn ]′ .
(2π)n/2 det(ΣY )
p
2
(Y − µ)′ Σ−1 2
Y (Y − µ) ∼ χn
116 Chapitre C. Rappels de probabilité
Enfin, le Théorème de Cochran explicite les lois obtenues après projections orthogonales d’un
vecteur gaussien.
Théorème C.1 (Cochran)
Soit Y ∼ N (µ, σ 2 In ), M un sous-espace de n de dimension p et P la matrice de projection
orthogonale de n sur M. Nous avons les propriétés suivantes :
(i) P Y ∼ N (P µ, σ 2 P ) ;
(ii) les vecteurs P Y et Y − P Y sont indépendants ;
(iii) kP (Y − µ)k2 /σ 2 ∼ χ2p .