Académique Documents
Professionnel Documents
Culture Documents
Siegfried Hormann
Universite libre de Bruxelles
Plan du cours
1. Vecteurs aleatoires.
2. Loi normale multivariee.
3. Inference dans les mod`eles gaussiens.
4. Methodes classiques de lanalyse multivariee.
- Analyse en composantes principales.
- Analyse factorielle.
- Analyse discriminante lineaire.
- MANOVA et regression multivariee.
Chapitre 1
Chapitre 1
1. Vecteurs aleatoires.
1.1. Definition, types de distributions.
1.2. Esperance et moments.
1.3. Independance.
1.4. Estimateurs usuels de et .
1.5. Modes de convergence, resultats limites.
1.6. Fonction caracteristique.
1.7. Jacobiens.
Definition
Soit (, A, P) un espace de mesure.
D
efinition: un p-vecteur aleatoire (ou p-v.a.) X est une fonction
X : Rp
7 X () =
X1 ()
.
.
.
Xp ()
qui est mesurable, cest-`a-dire qui est telle que pour tout B B p ,
X 1 (B) = { | X () B} A.
Definition
La condition de mesurabilite permet de considerer la distribution P X
de X , qui est la mesure de probabilite sur (Rp , B p ) definie par
P X [B] := P[X B] := P[X 1 (B)],
B B p .
Types de distributions
Types de distributions
D
efinition: P X est absolument continue (par rapport `a mp ) ssi
B Bp tel que mp (B) = 0, on a P X [B] = 0.
Rp
f (x) dx = 1.
Types de distributions
D
efinition: P X est singuli`ere (par rapport `a mp ) ssi N Bp tel
que mp (N) = 0 et P X [N] = 1.
Une classe importante de distributions singuli`eres est celle des
distributions discr`etes:
D
efinition: PX est discr`ete ssi il existe une collection au plus
denombrable {xi , i I} de p-vecteurs telle que
X
P X [B] =
P [X = xi ] , B B p .
i | xi B
...
...
Types de distributions
Les distributions singuli`eres ne sont pas toutes discr`etes...
Exemples:
I
La distribution de X = (Z , 0, . . . , 0)0 , o`
u Z N (0, 1).
1
I
,
mp (C ) [xC ]
o`
u I[xC ] est la fonction indicatrice de C .
p
cp
p/2 ( p2 ( p2 ))1
mp (B p )
=
0,
mp ([1, 1]p )
2p
1
1
2
0.785
3
0.524
4
0.308
5
0.164
6
.081
7
.037
si p .
8
.016
9
.006
10
.002
Plan du cours
1. Vecteurs aleatoires.
1.1. Definition, types de distributions.
1.2. Esperance et moments.
1.3. Independance.
1.4. Estimateurs usuels de et .
1.5. Modes de convergence, resultats limites.
1.6. Fonction caracteristique.
1.7. Jacobiens.
Esperance et moments
Soit X un p-v.a.
Soit g : Rp R une fonction mesurable.
D
efinition: lesperance de g (X ) est definie par
Z
Z
E[g (X )] =
g (X ()) dP() =
g (x) dP X (x),
Rp
iI
Esperance et moments
Si g : Rp Rq (q 2), on prendra lesperance composante par
composante, cest-`a-dire
E[g1 (X )]
..
E[g (X )] =
.
.
E[gq (X )]
En particulier,
E[X1 ]
E[X ] = ... .
E[Xp ]
Esperance et moments
D
efinition: X a des moments finis dordre r (r > 0) ssi E[kX kr ] < .
Esperance et moments
On veillera toujours dans la suite `a imposer les hypoth`eses les
moins fortes possibles en termes de moments.
7 t s /(1 + t r )
est bornee, on a
E[kX ks ] E[Cs,r (1 + kX kr )] = Cs,r (1 + E[kX kr ]) < .
Esperance et moments
Soit X un p-v.a. avec des moments finis dordre 2.
D
efinition: la matrice de variance-covariance de X est
= Var[X ] = E[(X )(X )0 ].
Proprietes:
I
est bien definie. En effet, |ij | |ii |1/2 |jj |1/2 (CS), o`
u
|ii | = E[(Xi )2 ] + 2i < .
Esperance et moments
Pour un X qui a des moments finis dordre 2, on peut donc considerer
E[X1 ]
..
= E[X ] =
.
E[Xp ]
et
= Var[X ] = Cov[Xi , Xj ]
i,j=1,...,p
Var[X1 ]
. . . Cov[X1 , Xp ]
..
..
..
=
.
.
.
Cov[X1 , Xp ] . . .
Var[Xp ]
Esperance et moments
Soient X un p-v.a. et Y un q-v.a., qui ont tous deux des moments
finis dordre 2.
D
efinition: la covariance entre X et Y est
Cov[X , Y ] = E[(X X )(Y Y )0 ].
Proprietes:
I
Cov[X , Y ] = E[XY 0 ] X 0Y .
Si p = q,
Var[X + Y ] = Var[X ] + Var[Y ] + Cov[X , Y ] + Cov[Y , X ].
Esperance et moments
Si on pose Z = (X 0 , Y 0 )0 , on a
E[Z ] =
E[X ]
E[Y ]
et
Var[Z ] =
Var[X ]
Cov[X , Y ]
Cov[Y , X ]
Var[Y ]
.
Plan du cours
1. Vecteurs aleatoires.
1.1. Definition, types de distributions.
1.2. Esperance et moments.
1.3. Independance.
1.4. Estimateurs usuels de et .
1.5. Modes de convergence, resultats limites.
1.6. Fonction caracteristique.
1.7. Jacobiens.
Independance
Independance
0 0
Proposition: X
Y (i) F (X ,Y ) (x, y ) = F X (x)F Y (y ) x, y
0 ,Y 0 )0
(X
(ii) f
(x, y ) = f X (x)f Y (y ) x, y (dans le cas abst continu)
(iii) E[g (X )h(Y )] = E[g (X )]E[h(Y )] g , h `a valeurs reelles.
Remarque: si X
Y , on a X X
Y Y , et donc
(X X )i
(Y Y )j pour tout i, j. La proposition ci-dessus
implique donc que (Cov[X , Y ])ij = E[(X X )i (Y Y )j ] =
E[(X X )i ]E[(Y Y )j ] = 0, de sorte que Cov[X , Y ] = 0.
Esperance et moments
En particulier, si on pose Z = (X 0 , Y 0 )0 ,
Var[X ]
0
Var[Z ] =
,
0
Var[Y ]
et si p = q, Var[X + Y ] = Var[X ] + Var[Y ].
Par contre, Cov[X , Y ] = 0 nimplique pas que X
Y (exemple
aux TP).
Plan du cours
1. Vecteurs aleatoires.
1.1. Definition, types de distributions.
1.2. Esperance et moments.
1.3. Independance.
1.4. Estimateurs usuels de et .
1.5. Modes de convergence, resultats limites.
1.6. Fonction caracteristique.
1.7. Jacobiens.
Estimateurs
Soient X1 , . . . , Xn des p-v.a. i.i.d., avec des moments finis dordre 1.
; on peut estimer = E[X ] par
n
X
= 1
Xi .
=X
n
i=1
?
Quels sont les proprietes de X
1
n2
Pn
i=1 Var[Xi ]
1
n
n2
= n1 .
Estimateurs
Soient X1 , . . . , Xn des p-v.a. i.i.d., avec des moments finis dordre 2.
; on peut estimer = Var[X ] = E[(X E[X ])(X E[X ])0 ] par
n
=S =
1 X
)(Xi X
)0 .
(Xi X
n1
i=1
Estimateurs
Soit X un p-v.a.
Soient A une matrice constante m p et b Rm .
Clairement,
E[AX + b] = AE[X ] + b
et
D
efinitions:
(i) Un estimateur T (X1 , . . . , Xn ) de = E[X ] est affine-equivariant
ssi T (AX1 + b, . . . , AXn + b) = AT (X1 , . . . , Xn ) + b, A, b.
(ii) Un estimateur S(X1 , . . . , Xn ) de = Var[X ] est affine-equivariant
ssi S(AX1 + b, . . . , AXn + b) = AS(X1 , . . . , Xn )A0 , A, b.
et S sont des estimateurs affine-equivariants de
Proposition: X
et , respectivement.
Preuve: exercice.
Estimateurs
Plan du cours
1. Vecteurs aleatoires.
1.1. Definition, types de distributions.
1.2. Esperance et moments.
1.3. Independance.
1.4. Estimateurs usuels de et .
1.5. Modes de convergence, resultats limites.
1.6. Fonction caracteristique.
1.7. Jacobiens.
Xn X (presque s
urement) P[{ | Xn () X ()}] = 1.
P
p.s.
Xn X (presque s
urement) P[{ | Xn () X ()}] = 1.
P
Xn X
Xn X
Lr
Xn X
Xn X
Remarques:
p.s.
Xn a, a constant Xn a.
D
P
L1
Xn X .
0
avec des moments finis dordre 2, S = n1
i=1 (Xi X )(Xi X )
est un estimateur fortement convergent pour .
.
Yn
Y
(exemple aux TP).
Xn
Yn
X
a .
D
Xn X g (Xn ) g (X ).
Il decoule directement de cette proposition et du lemme de Slutzky
le resultat suivant:
D
Corollaire: Si Xn X et Yn a (a Rs constant) et si
D
n (Xn a) Z , o`
u n . Soit g : Rp Rq une fonction
D
Xn a = n1 [n (Xn a)] 0.
Dautre part, lhypoth`ese de differentiabilite permet decrire
g (t) g (a) = Dg (a)(t a) + k(t) kt ak,
o`
u la fonction k(.) definie par
k(t) = [g (t) g (a) Dg (a)(t a)]/kt ak I[t6=a]
D
Dg (a)Z + 0 kZ k = Dg (a)Z .
Plan du cours
1. Vecteurs aleatoires.
1.1. Definition, types de distributions.
1.2. Esperance et moments.
1.3. Independance.
1.4. Estimateurs usuels de et .
1.5. Modes de convergence, resultats limites.
1.6. Fonction caracteristique.
1.7. Jacobiens.
Fonction caracteristique
Nous definissons maintenant un outil qui, comme nous le verrons,
est tr`es puissant pour etablir des resultats distributionnels.
D
efinition: la fonction caracteristique du p-v.a. X est la fonction
X : R p C
t
7 E[e it X ].
Remarques:
I
Fonction caracteristique
Si la loi de X est absolument continue (de densite f X ),
Z
0
0
X (t) = E[e it X ] =
e it x f X (x) dx,
Rp
Fonction caracteristique
Exemple: si X N (0, 1),
Z
1 x 2 /2
2
itX
itx
e
dx = . . . = e t /2 .
X (t) = E[e ] =
e
2
R
Proposition: Soient A Rqp , b Rq . Alors
0
AX +b (t) = e it b X (A0 t) t Rq .
0
On en deduit que, si X N (, 2 ) (X = Z + , o`
u
2
Z N (0, 1)), X (t) = e it Z (t) = e it(t) /2 .
Remarque: si = 0, X est `a valeurs reelles. Ceci est en fait une
illustration du resultat suivant:
D
Proposition: X : Rp R X = X (exercice).
Fonction caracteristique
E[X1k1 . . . Xp p ] =
Preuve: exercice.
k1 +...+kp
X (t)
t=0
Fonction caracteristique
Th
eor`
eme (Cramer-Wold): X = Y u 0 X = u 0 Y u S p1 .
Preuve:
() Pour tout t R, u0X (t) = X (tu) = Y (tu) = u0 Y (t).
() Soit t Rp \{0}. Posons u = t/ktk. Alors X (t) =
X (ktku) = u0X (ktk) = u0 Y (ktk) = Y (ktku) = Y (t). Ceci
permet de conclure, puisque X (0) = 1 = Y (0).
Plan du cours
1. Vecteurs aleatoires.
1.1. Definition, types de distributions.
1.2. Esperance et moments.
1.3. Independance.
1.4. Estimateurs usuels de et .
1.5. Modes de convergence, resultats limites.
1.6. Fonction caracteristique.
1.7. Jacobiens.
Jacobiens
Le resultat suivant decoule facilement de la formule de changement
de variables dans les integrales multiples.
Proposition: soit X un p-v.a. de loi absolument continue (de
densite f X ). Soit Y = (X ) , o`
u est un diffeomorphisme. Alors
Y est egalement de loi absolument
continue et sa densite est
donnee par f Y (y ) = f X (1 (y )) D1 (y ), y Rp (o`
u |Dg (y )|
designe la valeur absolue du jacobien de g en y ).
Preuve: soit B B p .
P[Y B] = P[(X ) B] = P[X
Z
(B)] =
f X (x) dx,
1 (B)
Chapitre 2
Plan du cours
1. Vecteurs aleatoires.
2. Loi normale multivariee.
3. Inference dans les mod`eles gaussiens.
4. Methodes classiques de lanalyse multivariee.
Plan du cours
1
X
1
2
2
/2)
=
exp(
x
exp(kxk2 /2).
=
i
p/2
2
(2)
i=1
Aussi,
E[X ] =
E[X
.. 1 ]
.
E[Xp ]
!
=0
et
Var[X ] = Cov[Xi , Xj ]
i,j=1,...,p
= Ip .
E [kX ks ] Cp,s
p
X
i=1
0
2
4
X_2
0
X_1
et Z Np (0, Ip ), alors + AZ = Np (, ).
(v) Comme dans le cas standard (i.e., = 0 et = Ip ),
X Np (, ) a des moments finis de tout ordre.
dans le cas o`
u X a de loi normale univariee N(, ).
2 /2
= Y (t),
() t Rp \{0}, on a
0
X_2
0
X_1
D
efinition: la distance de Mahalanobis entre x et y dans la
m
petrique associee `a (notation: d (x, y )) est la quantite
(x y )0 1 (x y ).
La densite dune loi normale p-variee est alors
1 p 1
2
x 7 f X (x) =
d2 (x, )/2 ;
1 exp
2 || 2
les courbes de niveau de f X sont donc des hyper-ellipsodes (dans
Rp ) de centre et dont la forme et lorientation sont determinees
par .
10
X_2
4
X_1
10
2p ,
0
2
4
X_2
0
X_1
10
4
2
0
X_2
4
X_1
10
Plan du cours
X1
X2 Cov[X1 , X2 ] = 0, mais que
1
1
0
..
= ... et =
.
.
n
0
n
(i)
i=1 ci Xi
(ii)
P
P
Np ( ni=1 ci i , ni=1 ci2 i );
Pn c X
Pni=1 i i
i=1 di Xi
Pn
Pn c 2
c
i
i
i=1
Pn
N2p
, Pni=1 i i
d
i
i
i=1 ci di i
i=1
I
Pn
c
d
i
i
i
i=1
Pn
;
2
i=1 di i
(iii)
P si i = 1 i,
P
P
( ni=1 ci Xi )
( ni=1 di Xi ) ni=1 ci di = 0.
Alors X := n i=1 Xi Np (, n1 ).
Plan du cours
Lois conditionnelles
Proposition: soit X = (X10 , X20 )0 Np (, ), o`
u Xi est un pi -v.a.
(i = 1, 2), > 0 eto`
u
1
11 12
=
et =
.
2
21 22
Alors X2 | X1 = x1 Np2 (2 + 21 1
u
11 (x1 1 ), 22.1 ), o`
1
22.1 := 22 21 11 12 .
Remarques:
I
Lois conditionnelles
Preuve: 11 est definie positive (puisque cest le cas de ), et est
donc aussi inversible. Bien entendu, X Np (0, ). Donc, en
posant
Ip1
0
B=
21 1
Ip2
11
on obtient B(X ) Np (0, BB 0 ), o`
u
X1 1
B(X ) =
21 1
11 (X1 1 ) + (X2 2 )
et
BB 0 =
11
0
.
0 22.1
Nous posons Y := 21 1
11 (X1 1 ) + (X2 2 ).
Lois conditionnelles
Alors
Y Np2 (0, 22.1 ),
X2 = 2 + Y + 21 1
11 (X1 1 ),
X1
Y,
et donc
E exp(it 0 X2 )|X1 = x1
= E exp(it 0 [2 + Y + 21 1
11 (X1 1 )])|X1 = x1
0
= exp(it 0 [21 1
11 (x1 1 )]) E exp(it [2 + Y ])|X1 = x1
{z
}
|
=E [exp(it 0 [2 +Y ])]
= exp(it
[21 1
11 (x1
puisque X1
Y
1 ) + 2 ]) E exp(it 0 Y )
Plan du cours
A1
a11 B . . . a1n B
.. .
vec A = ...
et A B = ...
.
am1 B . . . amn B
An
Remarques:
I
En general, A B 6= B A.
(A1 + A2 ) B = A1 B + A2 B et
A (B1 + B2 ) = A B1 + A B2 .
(A B) C = A (B C ).
A, B > 0 A B > 0.
Plan du cours
2
(i) X N1 (, n ),
I
I
(ii) S ?, et
(iii) X
S.
I
I
(ii) S ?
(iii) X
S.
Loi de Wishart
D
efinition: soit V une matrice aleatoire p p. Alors
I
Loi de Wishart
Remarques:
I
V = AV0 A0 , o`
u V0 Wp (m).
I
I
(ii) (n 1)S Wp (n 1, ) .
(iii) X
S.
(n 1)Sz = Y Y =
n1
X
i=1
Yi Yi0 Wp (n 1).
Plan du cours
TCL multivarie
Nous terminons ce chapitre en etendant au cas multivarie le
theor`eme central limite.
Proposition: soient X1 , X2 , . . . des p-v.a. i.i.d., avec des moments
P
finis dordre 2. Notons = E[X1 ], = Var[X1 ] et X (n) = n1 ni=1 Xi .
L
u
u 0 Xi u 0 N1 (0, u 0 u).
n X = n
n
i=1
Z
XdP =
Z0 dP
A (Y ).
Remarks.
I
Chapitre 3
Plan du cours
1. Vecteurs aleatoires.
2. Loi normale multivariee.
3. Inference dans les mod`eles gaussiens.
4. Methodes classiques de lanalyse multivariee.
5. Inference dans les mod`eles non gaussiens.
MLE
Le resultat suivant donne les estimateurs du maximum de
vraisemblance de et pour un echantillon gaussien p-varie.
Th
eor`
eme: soient X1 , . . . , Xn i.i.d. Np (, ). Alors les
estimateurs du maximum de vraisemblance de et de sont
respectivement
n
n
X
X
:= 1 W := 1
)(Xi X
)0 .
:= 1
Xi et
(Xi X
=X
n
n
n
i=1
i=1
MLE
) + (X
), on obtient
En decomposant Xi en (Xi X
n h
i
X
(Xi )0 1 (Xi )
i=1
n h
X
i
)0 1 (Xi X
) + n(X
)0 1 (X
)
(Xi X
i=1
ce qui livre
(n)
log L, = C
n
log ||
2
i
1 Xh
)0 1 (X
).
)0 1 (Xi X
) n (X
(Xi X
2
2
i=1
)0 1 (X
) = X
.
arg max log L, = arg min (X
MLE
Il ne reste donc qu`a maximiser, en , la quantite
n
i
1 Xh
n
(n)
)0 1 (Xi X
) .
log LX , = C log ||
(Xi X
2
2
i=1
n
X
)0 1 (Xi X
)
tr (Xi X
i=1
n
X
)(Xi X
)0
tr 1 (Xi X
i=1
= tr
n
X
)(Xi X
)0
(Xi X
i=1
= tr
W .
MLE
Donc
(n)
n
1
log |1 (W /n)| tr 1 W
2h
2
i
n
1
+
=C
log | (W /n)| tr 1 (W /n)
2
+
log LX , = C
,
X
h
i
1/2 0 1
= arg max log |(W ) W 1/2 /n| tr (W 1/2 )0 1 W 1/2 /n ,
est
le resultat suivant permet de conclure (puisquil montre que
1/2
0
1
1/2
MLE
Lemme: soit S la collection des matrices (p p) symetriques et
definies positives. Alors
h
i
arg max log |T | tr T = Ip .
T S
p
Y
i=1
p
p h
X
i
X
i
i =
log i i .
i=1
i=1
MLE
Le resultat suivant donne les estimateurs du maximum de
vraisemblance de et pour un echantillon gaussien p-varie.
Th
eor`
eme: soient X1 , . . . , Xn i.i.d. Np (, ). Alors les
estimateurs
du maximum de vraisemblance de et de sont respectivement
n
n
X
X
:= 1 W := 1
)(Xi X
)0 .
:= 1
Xi et
(Xi X
=X
n
n
n
i=1
i=1
Remarques:
I
est seulement
Tc2 (X ).
= S...
Si est inconnu, il est naturel de remplacer par
2
0
1
0 )0 1 (X
0 ) + oP (1) 2p .
T 2 = n(X
Donc, un test asymptotique (au niveau asymptotique ) consiste `a
rejeter H0 ssi T 2 > 2p;1 .
Remarque: il decoule du TCL multivarie que ce test ne requiert pas
que la loi commune des Xi soit normale, mais seulement que
celle-ci ait des moments finis dordre 2.
Test de Student
Pour p = 1, cette statistique est simplement
n
0 ) 2
n (X
1 X
2
2
)2 ,
u s :=
(Xi X
T =
, o`
s
n1
i=1
Tests de Hotelling
Preuve du lemme: comme dhabitude nous supposons que > 0.
Alors Y 0 V 1 V = (Y )0 (V )1 Y o`
u Y = 1/2 Y et
1/2
1/2
V =
V
. Donc on peut supposer que Y Np (0, Ip ) et
V Wp (m, Ip ) = Wp (m).
On peut montrer (cest un peu delicat), que
1
a0 V 1 a
2
0
aa
mp+1
a Rp , a 6= 0.
Y 0 V 1 Y
Y 0 Y = A(Y , V ) B(Y ).
Y 0Y
Tests de Hotelling
On note F la fonction de repartition de Y . Alors par independence
de V et Y
P(A(Y , V ) x B(Y ) y )
Z
=
P(A(h, V ) x B(h) y )dF (h)
p
ZR
=
P(A(h, V ) x)I {B(h) y }dF (h)
Rp
!Z
1
x
I {B(h) y }dF (h)
=P
2mp+1
Rp
!
1
=P
x P(B(Y ) y ) .
|
{z
}
2mp+1
P(2p y )
Tests de Hotelling
Y 0 V 1 Y =
2p
2mp+1
2p /p
p
2
mp+1 /(m p + 1) m p + 1
p
Fp,pm+1 .
mp+1
Tests de Hotelling
Soient X1 , . . . , Xn i.i.d. Np (, ).
Le test de Hotelling, pour
H0 : = 0
H1 : 6= 0 ,
L
,
L
o`
u := arg max0 L et := arg max L sont respectivement
les estimateurs de maximum de vraisemblance contraint et non
contraint pour .
Et le test associe consiste `a rejeter H0 : 0 (au niveau
asymptotique ) ssi
2 ln (n) > 2kk0 ;1 ,
o`
u k et k0 sont respectivement les nombres de param`etres libres
dans et 0 .
u W0 :=
n
X
(Xi 0 )(Xi 0 )0 .
i=1
Donc
(n) =
L ,W /n
L
= 0 0 .
L
LX ,W /n
)0 (W /n)1 (Xi X
)
(Xi X
i=1
i=1
(n) =
|W0 /n|n/2
|W /n|n/2
= |W0 W 1 |n/2
0 )(X
0 )0 )W 1 |n/2 ,
= |(W + n(X
0 )(X
0 )0 en decomposant
o`
u on a obtenu W0 = W + n(X
Xi 0 en (Xi X ) + (X 0 ).
Le lemme suivant est tr`es utile:
Lemma
Suppose que C Rpp avec |C | > 0. Alors pour tous y Rp
|C + yy 0 | = |C |(1 + y 0 C 1 y ).
Tests de Hotelling
Autres proprietes du test de Hotelling:
I
Zones de confiance
Les resultats distributionnels de la section precedente permettent
de construire des zones de confiance pour .
P(C1 contient ) = 1 .
P n(X ) S (X )
Fp,np;1 = 1 .
np
Zones de confiance
Zones de confiance
De meme, le fait que
h
i
P T 2 () 2p;1 1 , si n ,
implique, quune zone de confiance (au niveau de confiance
asymptotique (1 ) 100%) est donnee par lellipsode
o
n
()
C1 := Rp T 2 () 2p;1
n
o
, ) 1 2p;1 .
= Rp dS2 (X
n
Remarque: tout comme le test de Hotelling asymptotique, cette
procedure ne requiert pas la normalite des Xi , mais seulement
lexistence de moments finis dordre 2.
Exemple
10
10
X_2
X_2
10
X_1
10
X_1
Zones de confiance
A ces zones de confiance elliptiques
(n)
, ) p(n 1) Fp,np;1 ,
C1 = Rp dS2 (X
(n p)n
il est souvent prefere en pratique des zones rectangulaires, qui
livrent des intervalles de confiance pour chacune des composantes
de = (1 , . . . , p )0 .
Bien entendu, il est facile de construire des intervalles de confiance
pour toute combili a0 des composantes de
(ici, a est un p-vecteur non nul fixe).
puisque a0 X1 , . . . , a0 Xn sont i.i.d. N1 (a0 , a0 a).
Zones de confiance
On obtient en effet directement que
1
2
(n)
0
C1 (a) := t R da0 Sa (a X , t) F1,n1;1 ,
n
constitue une zone (un intervalle) de confiance `a (1 ) 100%
pour a0 .
Cet intervalle de confiance se reecrit simplement
r
a0 Sa
0
F1,n1;1 ,
aX
n
ou encore
r
0
aX
a0 Sa
t
.
n n1;1/2
Zones de confiance
Ainsi, un intervalle de confiance `a (1 ) 100% pour i
(i = 1, . . . , p) est donne par
r
(S)ii
i,(n)
F1,n1;1 .
C1 = (X )i
n
Neanmoins, il faut insister sur le fait quil sagit l`a dintervalles de
confiance individuels, dans le sens o`
u, sil est vrai que, i = 1, . . . , p,
i,(n)
P i C1 1 , il est faux (pour p 2) que
h
i
i,(n)
P i = 1, . . . , p, i C1 1 .
1,(n)
p,(n)
Zones de confiance
Question naturelle:
Comment construire des intervalles de confiance simultanes ?
Nous aurons besoin du lemme suivant:
Lemme soit M une matrice p p symetrique et definie positive.
Alors, a, b Rp , (a0 b)2 (a0 Ma)(b 0 M 1 b).
Preuve: Notez que a0 Ma = kM 1/2 ak2 et que linequation de
Cauchy-Schwarz donne
(a0 b)2 = (a0 M 1/2 M 1/2 b)2
= hM 1/2 a, M 1/2 bi2
kM 1/2 ak2 kM 1/2 bk2 .
Zones de confiance
))2
1
(a0 (X
T 2 (),
0
a Sa
n
de sorte que
))2
(a0 (X
(n 1)p
P sup
Fp,np;1 1 .
a0 Sa
n(n p)
a
Zones de confiance
Des intervalles de confiance simultanes (pour tout a Rp ) pour
a0 `a (1 ) 100% sont donc donnes par
s
(n 1)p 0
0
(a Sa) Fp,np;1 .
aX
n(n p)
Ceux-ci sont `a comparer aux intervalles de confiance individuels
r
0
aX
qui ont ete obtenus plus haut.
a0 Sa
F1,n1;1 ,
n
Exemple
10
X_2
4
X_1
10
Exemple
10
6
2
X_2
4
X_1
10
Tests de Hotelling
; la statistique du test de Hotelling pour deux echantillons est
T2 =
1
1 1 1
Y )0 S 1 (X
, Y ),
Y ) = 1 + 1
(X
dS2pool (X
+
pool
n1 n2
n1 n2
n1
n1
X
X
:= 1
)(Xi X
)0 ,
o`
uX
Xi , Wx :=
(Xi X
n1
i=1
1
Y :=
n2
et
n2
X
i=1
Yi , Wy :=
i=1
n2
X
(Yi Y )(Yi Y )0 ,
i=1
Spool :=
Wx + Wy
.
n1 + n2 2
Tests de Hotelling
Preuve de la proposition: comme dans le cas `a un echantillon, la
loi (sous H0 ) de la statistique T 2 decoule du lemme suivant:
Lemme: soient Y Np (0, ) et V Wp (m, ). Alors, si m p
Y 0 V 1 Y Fp,mp+1 .
et Y
V , mp+1
p
et Y sont independantes et de loi respective
En effet, sous H0 , X
1
Np (, n1 ) et Np (, n12 ) (o`
u est la valeur commune de 1 et 2 ).
1
1
Proprietes dinvariance
ni de la valeur de ,
ni de la valeur commune de 1 = 2 .
Remarque
Pour ce probl`eme, on a constamment suppose que les deux
echantillons (X1 , . . . , Xn1 ) et (Y1 , . . . , Yn2 ) sont independants.
Si ce nest pas le cas, tout ce qui a ete fait plus haut seffondre...
Exemple classique:
Supposons que les deux echantillons soient paires : (X1 , . . . , Xn ) et
(Y1 , . . . , Yn ), o`
u Xi et Yi reprennent p mesures effectuees, avant
et apr`es traitement respectivement, sur un meme individu.
Dans ce cas, si on veut tester H0 : 1 = 2 , il convient deffectuer
un test `a un echantillon de H0 : = 0 sur la serie des differences
(Y1 X1 , . . . , Yn Xn ).
i
h
.
n/2 exp n tr (1 )
(n) = e np/2 |1
|
0
0
2
H0 : 1 = 2
H1 : 1 6= 2
Test de sphericite
Soient X1 , . . . , Xn i.i.d. Np (, ).
Considerons le probl`eme de test
H0 : > 0 tel que = Ip
H1 : > 0, 6= Ip ,
qui consiste `a tester la sphericite des contours dequidensite
sous-jacents.
Dans ce cas, le test de rapport de vraisemblance rejette H0 (au
niveau asymptotique ) si
|S|1/p np/2
(n)
2
(n)
, o`
u = 1
.
2 ln > p(p+1)
1;1
2
p (tr S)
Test de sphericite
Remarque: en ecrivant
0
S = OO , o`
u :=
1
2
!
..
et o`
u O est orthogonale, on obtient que
(n)
2/(np)
Q 1/p
i i
= 1P
,
i i
p
Test dindependance
Test dindependance
Le test de rapport de vraisemblance rejette ici H0 (au niveau
asymptotique ) si
2 ln (n) > 2p1 p2 ;1 ,
o`
u
(n)
=
|Sz |
|Sx ||Sy |
n/2
,
avec
n
0
1 X Xi X
Xi X
Sx
Sz :=
=:
Syx
Yi Y
Yi Y
n1
i=1
Sxy
Sy
.
1
1xB2 ,
m2 (B 2 )
o`
u m2 la mesure de Lebesgue et B 2 est la boule unite fermee de R2 .
Soient Y = (R, ) les coordonnees polaires de X. Dans chacun des cas,
determinez les densites des variables R est , sont-elles independantes?
X
= 1
Ex 4. Soit X = (X1 , . . . Xp )0 un p-v.a. tel que les Xi sont i.i.d. N (0, 1). Determiner
la densite de Y = AX + b, o`
u A GL(Rp ) et b Rp .
Ex 5. Soient X1 , X2 , . . . , Xn des p-v.a. iid tels que EkX1 k2 < . Montrer quil
existe une variable aleatoire Z telle que
n(kXk kk) Z.
EkX k2 > E
2
kXk
pour tout Rp , p 3 et 2 > 1/2.
Indication : montrer que
Xi (Xi i )
kXk2 2Xi
2
E
= E
.
kXk2
kXk4
Paradoxe de Stein
La moyenne empirique X dun echantillon de n vecteurs Gaussiens standards
p-varies est elle meme la realisation unique dun p-v.a. comme ci-dessus, avec
2 = n1 . Il en resulte que lestimateur de
p2
S = 1
X,
kXk2
est meilleur que lestimateur naf
= X, au sens o`
u R(
, ) > R(
S , ) pour
tout Rp , lorsque p 3 et n 3.
1
3
2
et b = (4, 5)0 ?
4
3 1 2
1
1 4 1 .
EX = (4.1, 3.22, 6.81)0 and Var(X) =
1000
2 1 4
Once in 2 weeks a quality control is performed. In a sample of 10 observations
the following measurements were taken.
[,1]
[,2]
[,3]
[,4]
[,5]
[,6]
[,7]
[,8]
[,9]
[,10]
[1,] 4.210619 4.187051 4.179901 4.190450 3.990219 4.008184 4.015704 4.296161 4.287021 4.289658
[2,] 3.313502 3.315440 3.328547 3.118566 3.105510 3.115786 3.120105 3.422434 3.415658 3.419418
[3,] 6.913022 6.922251 6.921745 6.719244 6.691387 6.702546 7.012949 7.010364 6.997263 7.000275
T 2 (X) = nX
and reject if T 2 (X) > 2p,1 . Show that the test is asymptotically unbiased.
I.e., when n , we reject H0 with probability when H0 is correct.
5. Our results in the lectures often rely on the assumption that we have a random
sample from a multivariate normal distribution. In practice, we first have to
(approximately) verify this assumption from the data. A very good empirical
method offer so-called q-q-plots. If p = 1 (univariate case), the idea is to
plot the hypothesized normal quantiles against the corresponding empirical
quantiles of the observations. The algorithm is as follows:
(a) Estimate and 2 from the sample X = {X1 , . . . , Xn }.
(b) Order the sample: X(1) , . . . , X(n) .
(c) Let 0 < 1 < 2 < < k < 1 be a partition of [0, 1].
(d) Plot the k empirical quantiles
Xb1 nc , Xb2 nc , . . . , Xbk nc
(here bxc is the floor function) against
+
q1 ,
+
q2 , ,
+
qk ,
where q be the -quantile of a standard normal random variable.
If the data X are normally distributed, we expect that the plot is more or less
diagonal. (See the figure on the next page.)
Can you propose a similar procedure for a multivariate normal sample?
6. The following data give the age x1 , measured in years, as well as the selling
price x2 , measured in thousands of dollars, for n = 10 used cars.
3
5 5 7
7 7
8
9
10 11
X0 =
2.3 1.9 1 0.7 0.3 1 1.05 0.45 0.7 0.3
Do you think these data are approximately bivariate normal?
Normal QQ Plot
student.t4
1
0
Sample Quantiles
Theoretical Quantiles
normal
Figure 1: Q-Q-plot from a standard normal sample (left) and a t sample with 4
degrees of freedom (right).
Analyse multivari
ee
TP6 : Inference dans les mod`eles gaussiens multivaries
Exercice 1
X)(X
X)
i
i
i=1
i=1
= 1 Pn1 Xi et Y = 1 Pn2 Yi .
X
i=1
i=1
n1
n2
2 log (n) > 2p(p+1)/2;1 , o`
u (n) =
Exercice 2
Soient Z1 = (X10 , Y10 )0 , . . . , Zn = (Xn0 , Yn0 )0 i.i.d. de loi commune Np1 +p2 (, ), o`
u
1
11 12
=
et =
.
2
21 22
Considerons le probl`eme de test
H0 : 12 = 0
H1 : 12 6= 0,
0
1 X Xi X
Xi X
Sx Sxy
Sz :=
=:
.
Yi Y
Yi Y
Syx Sy
n 1 i=1
1
Exercice 3
Exercice 4
C = A
1 0 . . . 0 1
0 1
0 1
..
..
...
.
.
0
1 1
T 2 = n(C X)
0
:= n1 Pn Xi et S = (n 1)1 Pn (Xi X)(X
epend
o`
uX
i X) , ne d
i=1
i=1
pas de C.
5. Determiner la distribution exacte, puis asymptotique, de T 2 sous H0 , en
justifiant tous les calculs.
6. En deduire (en expliquant intuitivement votre r`egle de decision) un test
exact, puis asymptotique, de H0 contre H1 : i, j tel que i =
6 j .
Exercice 5
i=1
Exercice 1
Soit 1 q p. Montrer que
2
2
q
q
n
n
X
X
X
1
1 X
0
0
Xk X
Xk X
bj (Xk X)
ej (Xk X)
.
n
n
j=1
j=1
k=1
k=1
Pour toute base orthonorme (bj )pj=1 de Rp et o (
ej )pj=1 sont les vecteurs
propres de S.
Exercice 2
Soit X = (X1 , X2 )0 , o X1 Ber(p) (0 < p < 1) et X2 = 1 X1 .
Calculer = Var(X)
Dterminer les composantes principales et interprtez.
Exercice 3
Dterminer les composantes principales du vecteur alatoire X = (X1 , X2 , X3 )0 ,
sachant que EX = 0 et que
1 0
= 2 1
0 1
Calculer la proportion de variance explique par chaque composante.
Exercice 4
Chargez les donnes "pollution.txt". Il sagit dune matrice n p contenant une certaine mesure de la pollution de lair au cours du temps, toute les
demi-heures (donc p = 48 mesures par jours), pendant n = 182 jours. Faire
lACP et interprter en utilisant la fonftion prcomp. Mme travail avec les donnes "NationalTrackRecord.txt".
Exercice 5
Chargez les donnes "data.txt" et "missing.txt". Imaginez une mthode
destimation de et lorsquil manque certaines donnes.
Exercice 6
Chargez les donnes "salmondata.txt". On suppose quil sagit dun chantillons Gaussien bivari. Comparer les diffrentes zones de confiances (exactes)
95% : ellipsodales, rectangulaires, individuelles.
1
Ik
1
X
.
Y
k
Y
(1 + bi ).
i=1
p
k X
X
bi j
m2ij = (Ik |0)0 ,
1
+
b
i
i=1 j=1
(b)
arg min{bi 0}
k
X
log(1 + bi ) +
i=1
bi j
1 + bi
= (c1 , c2 , ..., ck ),
(ii) L1 L2 L2 ;
(iii)
(L1 L2 ) L2 = L1
(= L L = Rn );