Vous êtes sur la page 1sur 3

IUT de Caen - Département STID STID 2ème année 4. On obtient Y = −X1 + X1 + 1 = 1.

Par conséquent, on a
Responsable : Alain LUCAS
E[Y ] = 1 et V[Y ] = 0

Analyse Discriminante Cela signifie que la variable aléatoire Y est dégénérée. En particulier, elle prend systématiquement la
valeur 1.
Correction Fiche TD 1 5. On ne peut pas être d’accord avec cette affirmation. En effet, on vient de montrer que selon la direction
a la variance de la distribution projetée est nulle ce qui entraı̂ne que la distribution de X est dégénérée,
et donc que ce vecteur aléatoire n’est pas gaussien.
Exercice 1.
1. Etant donné que le vecteur a est unitaire, la v.a. Y représente exactement la coordonnée du projeté Exercice 3.
orthogonal de X sur la droite engendré par a. 1. La matrice Σ étant symétrique, elle est diagonalisable. Les valeurs propres de cette matrice sont
2. Posons X = (X1 X2 )t et a = (a1 a2 )t . On a données par l’équation
det(Σ − λIn ) = 0
Y =< a, X >= a1 X1 + a2 X2
où ici
L’espérance étant un opérateur linéaire, on obtient
det(Σ − λIn ) = λ2 − 3λ + 1
E[Y ] = a1 E[X1 ] + a2 E[X2 ] =< a, E[X] >
représente le polynôme caractéristique associé à Σ. On obtient pour solution
3. On a √ √
3− 5 3+ 5
λ1 = >0 et λ2 = >0
h! 2 i h! 2 i
V[Y ] = V(< a; X >) = V(at X) = E at X − E[at X] = E at (X − E[X]) 2 2
= E at (X − E[X])(X − E[X])t a = at E (X − E[X])(X − E[X])t a
   
Finalement, la matrice Σ peut s’écrire sous la forme suivante :
= at Σa  
λ1 0
Σ = U DU −1 avec D=
4. (a) La quantité aléatoire < a, X > représentant la coordonnée du projeté orthogonal de X sur la 0 λ2
droite engendré par a, il découle de la relation sur la variance que cette variable aléatoire est
dégénérée au sens où la distribution se concentre en un unique point. Finalement, dire que X est où la matrice U est la matrice de changement de base. Or, il découle de la propriété de symétrie de
dégénérée revient à dire qu’il existe une direction a sur laquelle la projection orthogonale de la Σ que la matrice U est orthogonale (U −1 = U t ), c’est-à-dire constituée de vecteur orthogonaux. De ce
distribution de X est dégénérée. changement de base, on peut écrire
(b) Par définition, une matrice Σ est définie positive si on a xt Σx = xt U DU t x = (U t x)t D(U t x)
t 2
x Σx > 0, ∀ x ∈ R − {0}
Or, il est clair que U t x = 0 ssi x = 0. En effet, aucun vecteur n’est orthogonal simultanément à deux
vecteurs eux-mêmes orthogonaux dans R2 . Par ailleurs, posons z = U t x. On a alors
Or, on a montré que pour toute direction a, on a V(< a; X >) = at Σa. Ainsi, le fait que Σ soit
supposée définie positive assure que V(< a; X >) > 0 pour toute direction a, et donc que X est (U t x)t D(U t )x = zt Dz = λ1 Z21 + λ2 Z22
non dégénérée.
laquelle est une quantité strictement positive dès lors que z 6= 0 car les valeurs propres sont positives.
Exercice 2. Comme z = 0 ssi x = 0, on obtient finalement
1.
xt Σx > 0, ∀ x ∈ R2 − {0},
2. On a E[X] = (E[X1 ] E[X2 ])t . Or, on a

E[X1 ] = 0 et E[X2 ] = 1 et donc la matrice Σ est bien définie positive. Il découle de cette propriété que le vecteur aléatoire X
est non dégénéré.
Ainsi, on obtient E[X] = (0 1)t . Ce point représente le barycentre de la distribution de X.
3. Cette variable aléatoire représente, à une constante près, la coordonnée du projeté orthogonal de X
sur la droite engendrée par a.
1 2
2. D’après le cours, on sait que pour X ∼ N2 (µ; Σ), on a Exercice 5.
1. Chaque composante Xi de X est distribuée selon une loi gaussienne car on peut écrire
< a, X >∼ N (µa , σa2 )
Xi =< ei , X >
avec
où ei est le i-ème vecteur de la base canonique de Rp , et que par ailleurs Σ est supposée définie positive
µa =< a; µ > et σa2 = at Σa assurant par la même occasion une distribution projetée non dégénérée dans chacune des directions.
2. En faisant usage des résultats du cours, on obtient
Pour a = (1 0)t , on obtient
µi =< ei , E[X] >=< ei , µ > et σi2 = V[< ei , X] = eti Σei
< a, X >= X1 avec µa = 1 et σa2 = 2
3. Pour p = 2, on obtient
Ainsi, on obtient  
1
X1 ∼ N (1, 2) f (x) = (2π)−1 |Σ|−1/2 exp − (x − µ)t Σ−1 (x − µ)
2
3. Pour a = (0 1)t , on obtient
4. On a
cov(X1 , X2 ) σ12
< a, X >= X2 avec µa = 2 et σa2 = 1 ρ= p =
V[X1 ]V[X2 ] σ1 σ2
Ainsi, on obtient Par conséquent, on obtient
X2 ∼ N (2, 1)
σ12
 
ρσ1 σ2
4. Pour a = (4 − 1)t , on obtient Σ=
ρσ1 σ2 σ22
< a, X >= 4X1 − X2 avec µa = 2 et σa2 = 25 comme |Σ| = σ12 σ22 (1 − ρ2 ), on obtient aisément que

Ainsi, on obtient 1/σ12


 
1 −ρ/σ1 σ2
Y = 4X1 − X2 ∼ N (2, 25) Σ−1 =
1 − ρ2 −ρ/σ1 σ2 1/σ22
5. Pour a = (−3 1)t , on obtient 5. A partir de ce résultat, on obtient facilement que

< a, X >= −3X1 + X2 avec µa = −1 et σa2 = 13


(x1 − µ1 )2 ρ(x1 − µ1 )(x2 − µ2 ) (x2 − µ2 )2
  
 p −1 1
f (x) = (2π)−1 σ1 σ2 1 − ρ2 exp − 2 −2 +
Ainsi, on obtient 2(1 − ρ2 ) σ1 σ1 σ2 σ22
Z = −3X1 + X2 ∼ N (−1, 13)
6. Soit X ∼ N2 (µ, Σ). Clairement les composantes X1 et X2 de X sont distribuées selon des lois gaus-
Comme E[Y ] = E[Z] + 1 et V[Y ] = E[Z], on obtient siennes, et l’on a
X1 ∼ N (µ1 , σ12 ) et X2 ∼ N (µ2 , σ22 )
Y = −3X1 + X2 + 1 ∼ N (0, 13) Le produit des densités s’écrit
1 (x1 − µ1 )2 (x2 − µ2 )2
  
Exercice 4. D’après le cours, on sait que f (x1 ) × f (x2 ) = (2π)−1 (σ1 σ2 )−1 exp − +
2 2
σ1 2
σ2
at Σa = V(< a, X >)
Or, cette expression est égale à la densité de X ssi on a
Or, comme par hypothèse V(< a, X >) > 0 pour toute direction a, on en déduit que  
p −1 ρ(x1 − µ1 )(x2 − µ2 )
1 − ρ2 exp =1
at Σa > 0 ∀ a ∈ Rn − {0} σ1 σ2 (1 − ρ2 )

ce qui prouve que la matrice Σ est définie positive. expression qui est vérifiée ssi ρ = 0. Finalement, on obtient dans un cadre gaussien que l’indépendance
des composantes est satisfaite ssi la matrice Σ est diagonale.
7. Ce résultat découle immédiatement de la question 6 puisque ρ = 0 est équivalent à cov(X1 , X2 ) = 0,
i.e. la non corrélation des composantes.
3 4
Exercice 6.
1. On trouve aisément
   
199.454 178.250
µ̂M =  278.575  et µ̂F =  287.975 
141.270 154.510

   
211.180 218.351 69.199 88.912 113.229 46.032
Σ̂M =  218.351 344.555 60.916  et Σ̂F =  113.229 393.816 183.448 
69.199 60.916 55.912 46.032 183.448 161.506

2. Pour Sex=M, on va supposer que X1 ∼ N (µ1 , σ12 ). Le paramètre θ à estimer est donc θ = (µ1 , σ12 ).
D’après le cours, on obtient
n n
1X 1X
µ̂1 = xi et σ̂12 = (xi − µ̂1 )2
n n
i=1 i=1

idem pour Sex=F.


3. Selon les deux graphique, il semble cohérent de supposer que la distribution de la variable X1 est
gaussienne dans chacune des deux sous-populations.
4. Dans ce cadre, le paramètre θ est θ = (µ, Σ). En particulier, on obtient

X|(Sex = M ) ∼ N3 (µ̂M , Σ̂M ) et X|(Sex = F ) ∼ N3 (µ̂F , Σ̂F )

Vous aimerez peut-être aussi