Vous êtes sur la page 1sur 16

MAT7381 Chapitre 2

Loi normale multidimensionnelle


2.1 Moments d'un vecteur alatoire
Soit Y =
11 12 1
21 22 2
1 2
p
p
n n np
y y y
y y y
y y y
(
(
(
(
(

une matrice alatoire.
Dfinition. L'esprance M = E(Y) d'une matrice alatoire Y est la matrice des esprances :
M = E(Y) =
11 12 1
21 22 2
1 2
E( ) E( ) E( )
E( E( E( )
E( ) E( ) E( )
) )
q
q
n n nq
y y y
y y y
y y y
(
(
(
(
(

=
11 12 1
21 22 2
1 2
q
q
n n nq



(
(
(
(
(


Les proprits suivantes sont aisment dmontres :
Thorme 2.1.1 Si Y est une matrice alatoire carre et A une matrice constante, alors
E(AY) = AE(Y).
et si Y est carre,
E[tr(Y))] = tr[E(Y)]
Dmonstration Exercice
Dfinition
La matrice de covariance E = Var(y) d'un vecteur alatoire y e
n
d'esprance est une
matrice E dfinie par
Var(y) = E = E[(y-)(y-)] =
2
1 1 1 1 2 2 1 1
2
2 2 1 1 2 2 2 2
2
1 1 2 2
E( ) E( )( ) E( )( )
E( )( ) E( ) E( )( )
E( )( ) E( )( ) E( )
q q
q q
q q q q q q
y y y y y
y y y y y
y y y y y



(
(
(
(
(


Si o
ij

= Cov(y
i
; y
j
) et o
ii

=
2
i
o = Var(y
i
), les composantes de la matrice E scrivent
E =
(
(
(
(
(

o o o
o o o
o o o
nn n n
n
n

2 1
2 22 21
1 12 11

Remarque. La matrice E est ncessairement symtrique.
La covariance entre deux vecteurs alatoires y
1

et y
2

de moyennes
1

et
2

est une matrice dfinie par
Cov(y
1
; y
2
) = E[(y
1
-
1
)(y
2
-
2
)]
Si y' = [y
1
' | y
2
'] et si = Var(y) est partitionne de faon conforme
2.2 MAT7381 Chapitre 2 Loi normale multidimensionnelle
28 novembre 2011 2.2 REG02NormaleH12
=
(

22 21
12 11
E E
E E

alors
11

= Var(y
1
),
22

= Var(y
2
),
12

= Cov(y
1
; y
2
),
21

= (
12
)'

= Cov(y
2
;
y
1
).
Thorme 2.1.2. Soit y un vecteur alatoire n 1 de moyenne et de matrice de covariance E,
L une matrice n p, M une matrice n q et a un vecteur p 1. Alors
E(L'y + a) = L' + a, Var(L'y + a) = L'EL, (2.1.1)
et
Cov(L'y, M'y) = L'EM (2.1.2)
Il est utile de noter la gnralisation suivante de la proprit bien connue Var(X) = E(X
2
)-[E(X)]
2
.
Var(y) = E(yy') - ' (2.1.3)
Remarque. Puisque pour tout , 'E est la variance de 'y, on a que 'E > 0 pour tout . Donc E est
semi dfinie positive. Elle est en fait dfinie positive, moins quil existe un vecteur tel que 'E =0,
donc moins quil existe un vecteur tel que yest constante.
Thorme 2.1.3. Si A est une matrice relle symtrique, y un vecteur alatoire de moyenne et de
matrice de covariance E, alors
E(y'Ay) = tr(AE) + 'A (2.1.4)
Dmonstration. E[y'Ay] = E[tr(y'Ay)] = E[tr(Ayy')] = tr[E(Ayy')] = tr[AE(yy')] = tr[A{E + '}] =
tr(AE) + tr(A') = tr(AE) + tr('A) = tr(AE) + 'A
2.2 La fonction de densit normale multidimensionnelle
Un vecteur alatoire y' = (y
1
; ... ; y
n
) suit une loi normale de dimension n si sa fonction de densit est
donne par :
f(y
1
, , y
n
) =
1
1/ 2
1/ 2
( )( )' ( )
/ 2
1
(2 ) | |
n
e


t
y y E
E

Le vecteur alatoire y est alors de moyenne et de matrice de covariance E, et on crit y ~
n
( ; E).
Lorsque n = 1, la fonction f est la fonction de densit normale usuelle,
f(x) =
2 2
2 / ) (
2
1
o
t o
x
e , - < x <
de moyenne E(y) =
}
xf(x)dx = et de variance Var(y) =
}
(x-)
2
f(x)dx = E(y - )
2
= o
2
.
Remarque. de la fonction de densit normale multidimensionnelles suppose que la matrice de covariance
est non-singulire (auquel cas on dit que la distribution est non-singulire). La normalit multidi-
mensionnelle peut se dfinir sans cette restriction, et les conclusions des thormes qui suivent s'appli-
quent mme lorsque ||

= 0. Dans ce cours, cependant, nous nous restreindrons aux lois normales non
singulires.
MAT7381 Chapitre 2 Loi normale multidimensionnelle 2.3
REG02NormaleH12 2.3 28 novembre 2011
Lois marginales et conditionnelles
Thorme 2.2.1. Soit y ~
n
( ; E) et supposons que y , et E sont partitionns de la faon
suivante, o y
1
est de dimension n
1
et y
2
de dimension n
2
= n n
1
.
y =
|
|
.
|

\
|
2
1
y
y
, =
|
|
.
|

\
|
2
1

E =
|
|
.
|

\
|
22 21
12 11
E E
E E
(2.2.1)
Alors la loi marginale de y
1
est
y
1
~
1
1 11
; )
n
E ( (2.2.2)
et la loi conditionnelle de y
2
est normale de moyenne et de matrice de covariances
E(y
2
| y
1
) =
2
+ E
21
1
11

E (y
1
-
1
), Var(y
2
| y
1
) = E
22
- E
21
11
1
E E
12
= E
22.1
(2.2.3)
Dmonstration Considrons la transformation z =
1
2
| |
|
\ .
z
z
= A(y-) o A =
1
2
1
21 11
0
n
n

(
(
(


I
I
. La
transformation inverse est (y-) = A
-1
z =
1
2
1
21 11
0
n
n

(
(
(

I
I
1
2
| |
|
\ .
z
z
. Le jacobien est gal 1 et la
fonction de densit de z est
g(z
1
, , z
n
) =
( ) ( )
1 1 1
1/ 2
1/2
( ) A A
/2
' 1
(2 ) | |
n
e

t
z z E
E
=
| |
1
1/ 2
1/ 2
( ) '
/ 2
1
(2 ) | |
n
e

t
z' z
E
AA

Mais [AEA] =
11
22.1
0
0
(
(

et z[AEA]
-1
z =
11 22.1
' 1 ' 1
1 1 2 2

+ z z z z et |E| = |E
11
||E
22.1
|. Donc
g(z
1
, ; , ; z
n
) =
1/ 2 1/ 2
' 1 ' 1
1/ 2 1/ 2
2 22.1 2 1 11 1
/ 2
11 22.1
( ) ( )
1
(2 ) | | | |
n
e e


t
z z z z E E
E E

=
'
2
1
1/ 2
22.1 2
1/ 2
' 1
1 11 1
1/2
1
1/ 2
2
( )
/2 /2
( )
1 1
(2 ) | | (2 ) | |
n n
e e

22.1

11
E E

t t
z z z z
E E

La loi marginale de z
1
est
'
2
1
1/ 2
22.1 2
1/ 2
' 1
1 11 1
1/ 2
1 2
1/ 2 ( )
/ 2 / 2
( )
2
1 1
(2 ) | | (2 ) | |
n n
e e d

22.1

11
E E

t t
}
z z z z
z
E E

=
' 1
1 11 1
1/ 2
1
1/ 2
/ 2
( )
1
(2 ) | |
n
e

11
E
t
z z
E

'
2
1
1/ 2
22.1 2
1/ 2
2
( )
/ 2
2
1
(2 ) | |
n
e d

22.1
E
t
}
z z
z
E
.
Lintgrale est celle dune densit normale multidimensionnelle, et vaut donc 1. La loi
marginale de z
1
est donc
' 1
1 11 1
1/ 2
1
1/ 2
/ 2
( )
1
(2 ) | |
n
e

11
E
t
z z
E
. Cest la densit de y
1
-
1
, une normale
de moyenne 0 et de matrice de covariance E
11
. On trouve aisment que la densit de y
1
est une
normale de moyenne
1
et de matrice de covariance E
11
. On obtient immdiatement, en
divisant la densit conjointe par la marginale de z
1
, que la densit conditionnelle de z
2
tant
donn z
1
= y
1
-
1
est normale de matrice de covariance E
22.1
. Puisque
z
2
=
( )
1
2 2 21 11 1 1
( )

+ y y ,
2.4 MAT7381 Chapitre 2 Loi normale multidimensionnelle
28 novembre 2011 2.4 REG02NormaleH12
nous concluons que lesprance conditionnelle est
2
+ E
21
1
11

E (y
1
-
1
)

Fonctions linaires dun vecteur normal
Thorme 2.2.2. Soit y ~
n
( ; E) et A une matrice n n non singulire. Soit z = Ay. Alors
z ~
n
(A ; AEA).
Dmonstration. La transformation inverse est y = A
-1
z. Le jacobien de la transformation est A
-1
.
La fonction de densit de z est donc
-1 1 -1
1/ 2
1/ 2
( )( )' ( ) 1
/ 2
1
| |
(2 ) | |
n
e


t
A A
A
E
E
z z
=
1/ 2
-1 -1 1 -1 -1
1/ 2
/ 2
( )( )' ( )
(2 ) | |
1
n
e


t
A A A A A A
A
z z E
EA
=
( )
-1 1 -1
1 / 2
1/ 2
( )( ) ' ( )
/ 2
1
(2 ) | ' |
n
e


t
A A' A A
A
z z E
EA

=
( )
-1
1/ 2
1/2
( )( )' ' ( )
/2
1
(2 ) | ' |
n
e

t
A A A A
A
z z E
EA
, ce qui est la densit dune normale
n
(A
; AEA)
CorollaireSoit y ~
n
( ; E) et L une matrice n q de plein rang q . Soit z = Ly. Alors
z ~
q
(L ; LEL).
Dmonstration Soit M une matrice n(n-q) telle que A =
'
'
(
(

L
M
est non singulire. Alors Ay
~
n
(A ; AEA). Mais Ay =
'
'
(
(

L
M
y
y
=
(
(

z
w
, et AEA =
' '
' '
(
(

L L L M
M M M
E E
E E
. Le rsultat dcoule
du thorme 2.2.1.
Remarque. Si E est non singulire et L
nq
est de rang q, alors z a une distribution non-singulire.
I ndpendance de variables normales
La covariance entre deux variables alatoires indpendantes est nulle, mais deux variables dont la
covariance est nulle ne sont pas ncessairement indpendantes. Cependant, si X et Y suivent
conjointement une loi normale, alors l'implication inverse (covariance nulle indpendance) est
vraie. Voici l'nonc gnral.
Thorme 2.2.3 Soit y ~
n
( ; E) et supposons que y, et E sont partitionns :
y =
|
|
.
|

\
|
2
1
y
y
, =
|
|
.
|

\
|
2
1

E =
|
|
.
|

\
|
22 21
12 11
E E
E E
(1.2.1)
o y
1
et y
2
sont de dimensions n
1
et n
2
= n-n
1
, respectivement. Alors les vecteurs y
1
et y
2
sont
stochastiquement indpendants si et seulement si E
12
=

E
21
= 0.
Dmonstration On sait dj que la condition est ncessaire. Pour montrer quelle est suffisante il
suffit de constater que la loi conditionnelle de y
2
est normale de moyenne et de matrice de
covariances E(y
2
| y
1
) =
2
+ E
21
1
11

E (y
1
-
1
) =
2
et de variance Var(y
2
| y
1
) =
E
22
-
21 11
1
E
12
=
22
, donc indpendante de y
1
.


MAT7381 Chapitre 2 Loi normale multidimensionnelle 2.5
REG02NormaleH12 2.5 28 novembre 2011
Thorme 2.2.4 Deux fonctions linaires L
1
'y et L
2
'y d'un vecteur y ~
n
( ; E) sont
indpendantes si et seulement si L
1
'EL
2
= 0.
Dmonstration Soit L = (L
1
; L
2
) une matrice partitionne qp. Nous supposerons que L est
de rang plein. Selon le corollaire du thorme 1.2.2, le vecteur L'y ~ (L' ; L'EL). Mais
L'y =
|
|
.
|

\
|
y
y
'
'
2
L
L
1
, et E =
|
|
.
|

\
|
2
'
2 1
'
2
2
'
1 1
'
1
L L L L
L L L L
E E
E E
(2.2.2)
Le rsultat dcoule du thorme 1.2.3
Transformations orthogonales
Si les composantes y
1
, ... , y
n
d'un vecteur y = (y
1
, ... , y
n
)' sont indpendantes, les composantes z
1
, ... ,
z
m
du vecteur z = L'y, fonction linaire des y
i
, ne le sont gnralement plus. Quelles sont les
transformations linaires qui prservent l'indpendance ? Ce sont les transformations orthogonales.
Thorme 2.2.5 Soit y ~
n
( ; o
2
I
n
), P une matrice n m (m s n) dont les colonnes sont
orthonormales : P'P = I
m
. Soit z = P'y. Alors z ~
m
(P' ; o
2
I
m
).
Dmonstration Dcoule directement du thorme 2.1.3.
Quelles sont les transformations qui transforment des variables dpendantes en variables
indpendantes ? Considrons un vecteur y ~
n
( ; E). La matrice E, tant symtrique relle
peut tre diagonalise par une matrice orthogonale P : PEP = D (ou E = PDP') pour une certaine
matrice diagonale D dont les composantes de la diagonale sont toutes non nulles. D a donc une
racine carre D
1/2
. On a alors une transformation qui rduit le vecteur y en un vecteur z dont
les composante sont indpendantes et de variance 1.
Thorme 2.2.6 Si z = P'y, alors z ~
n
(P' ; D), et donc les composantes de z sont
indpendantes. Et si u = D
-
P'y, alors u ~
n
(D
-
P' ; I
n
).
Dmonstration Exercice.
Remarque La norme dun vecteur normal
Plusieurs dcisions en statistique sont bases sur limportance dun cart entre deux quantits, en
particulier lcart entre une observation y et sa moyenne . Lorsque ces variables sont scalaires,
lcart est naturellement dfini par le carr de la diffrence entre y et , (y-)
2
. Lorsquil sagit de
vecteurs alatoire, la distance entre y sa moyenne est le carr
2
y- de la norme y- du vecteur
y . Une norme ntant pas unique, il est ncessaire de sinterroger sur ce qui constitue un choix
raisonnable. Supposons pour commencer que les composantes du vecteur
1 1
2 2
p p
y
y
y
(
(
(
(


sont indpen-
dantes. La norme classique y- =
2
1
( )
p
i i i
y
=

nest gnralement pas satisfaisante car elle


accorde le mme poids chaque cart y
i
-
i
, ce qui nest presque jamais raisonnable. Supposons, par
exemple, que les
i
sont les moyennes de certaines mesures crniennes et les w
i
= y
i
-
i
sont les carts
entre les mesures dun individu et la moyenne
i
. Si
1
est la largeur moyenne des orbites des yeux (de
lordre de 2,4 cm, environ) et
2
est le diamtre frontal maximum (environ 12 cm), il est clair que les
2.6 MAT7381 Chapitre 2 Loi normale multidimensionnelle
28 novembre 2011 2.6 REG02NormaleH12
carts w
1
et w
2
, exprims en centimtres, ne sont pas comparables. Il convient de les exprimer en
nombre dcarts-types, cest--dire, de mesurer les carts par leur cote Z, z
i
=
i i
i
y
o
. La norme de
y- serait alors dfinie par y- =
2
1
p
i i
i
i
y
=
| |
|
o
\ .

. Le carr de la norme, en langage matriciel,


sexprime comme (y-)D
-1
(y-), o D =
2
1
2
2
2
0 0
0 0
0 0
p
( o
(
o
(
(
o
(

est la matrice de covariance de y.
Cette norme est satisfaisante lorsque les variables sont indpendantes, mais elle fait dfaut
lorsquelles ne le sont pas. Par exemple, supposons que z
1
=
2
2
(
(

et z
2
=
2
2
(
(

sont les cotes Z
correspondant la taille et le poids de deux individus. La somme des carrs est 8 dans les deux cas.
Ces deux individus sont-ils vraiment aussi loigns de la moyenne lun que lautre ? Pas vraiment : le
deuxime lest beaucoup plus, pour la raisons suivante : une taille suprieure la moyenne, devrait
normalement tre accompagne dun poids suprieur la moyenne. Cest ce qui fait que le premier
individu est plus normal, moins excentrique, contrairement au deuxime, qui est beaucoup moins
corpulent quil ne devrait ltre, compte tenu de sa taille.
La mesure (y-)D
-1
(y-) propose plus haut suggre que dans le cas dun vecteur de loi
p
( ; ), la
norme approprie est
1
( )' ( )

y y . Cette norme est telle que la fonction de densit


p
( ; )
est constante sur les ellipsodes (y-)
-1
(y-) = k, ce qui veut dire que deux vecteurs y
1
- et y
2
- sont
considrs comme de mme longueur si la densit aux points y
1
et y
2
est la mme. La mesure
(y-)
-1
(y-) est appele distance de Mahalanobis.
2.3 Loi khi-deux (centrale) (_
2
)
Dfinition La loi du _
2
est la distribution d'une somme de carrs de variables alatoires normales
centres rduites indpendantes. Soit z
1
, z
2
,..., z

des variables indpendantes et identiquement


distribues (i.d.d.) selon la loi (0 ; 1) et
X =
2 2
2
2
1
...
v
z z z + + + .
Alors X ~
2
v
_ , cest--dire, X est distribue selon la loi khi-deux avec v degrs de libert .
Fonction de densit La fonction de densit dune variable de loi _
v
2
est

2 / 1 2 /
2 /
2 ) 2 / (
1
x
e x
v
v
v I
, x > 0 (2.3.1)
Lorsque y ~ _
v
2
, on a E(y) = v et Var(y) = 2v.
Remarque La loi khi-deux est un cas particulier de la loi gamma dont la fonction de densit
est
2
1 /2
1
( )
x
x e
o
o
I o |
, x > 0. La loi khi-deux est donc une loi gamma de paramtres = /2 et = 2.
La proprit
2
1 /2
0
x
x e dx

o
}
= I()

qui en dcoule se rvle souvent utile pour viter de calculer des
intgrales.
Fonction gnratrice des moments La fonction gnratrice des moments d'une variable de loi
2
v
_ est
MAT7381 Chapitre 2 Loi normale multidimensionnelle 2.7
REG02NormaleH12 2.7 28 novembre 2011
M(t) = (1 - 2t)
-v/2
(t < 1/2). (2.3.2)
Dmonstration
M(t) = E(e
tX
) =
/ 2 / 2
/ 2
0
1
( / 2)2
tx x
e x e dx

v
v
I v
}
=
/ 2 1 (1/ 2)(1 2 )
/ 2
0
1
( / 2)2
t x
x e dx

v
v
I v
}
=
/ 2
/ 2
( / 2)[2/(1 2 )]
( / 2)2
t
v
v
I v
I v
= (1-2t)
-v/2
, le rsultat voulu.
Si y est un vecteur normal, il suffit que les covariances entre les composantes de y soient nulles pour
que celles-ci soient indpendantes. Nous avons donc,
Si y ~
n
(0 ; I
n
), alors y'y ~
2
n
_ (2.3.3)
Additivit et soustractivit de variables de loi khi-deux
Les thormes suivants caractrisent les situations o une somme de variables de loi _
2
est de loi _
2
.
Thorme 2.3.1 (Additivit)
Si X ~
2
r
_ , Y ~
2
s
_ et si X et Y sont indpendantes, alors Z = X + Y ~
2
s r+
_
.

Dmonstration. Si M
X
et M
Y
sont les fonctions gnratrices des moments (fgm) de X et de Y,
respectivement, alors la fgm M
Z
de Z est, grce l'indpendance,
M
Z
(t) = M
X
(t)M
Y
(t) = (1-2t)
-r/2
(1-2t)
-s/2
= (1-2t)
-(r+s)/2

ce qui est la fgm d'une loi
2
s r+
_
Thorme 2.3.2. (Soustractivit) Soit Z = X + Y o Z ~
2
n
_ , X ~
2
r
_ , n > r, et X, Y sont
indpendantes.
Alors Y~
2
r n
_ .
Dmonstration. Soit M
Z
(t), M
X
(t) et M
Y
(t) les fgm de Z, X et Y, respectivement. Puisque Z est une
somme de variables alatoires indpendantes, sa fgm est le produit des fgm de ses facteurs :
M
Z
(t) = M
X
(t)M
Y
(t). Puisque M
Z
(t) = (1-2t)
-n/2
, M
X
(t) = (1-2t)
-r/2
, nous avons M
Y
(t) =
(1-2t)
-(n-r)/2
ce qui est la fgm d'une
2
r n
_ .
Formes quadratiques gnrales (y'Ay)
Thorme 2.3.3 Soit y ~
n
(0 ; I
n
), A une matrice relle symtrique de rang r. Alors
(i) Si A
2
= A, alors yAy ~
2
r
_ o r = r(A) ;
(ii) Si yAy ~
2
s
_ , alors A
2
= A, s = r(A).
Dmonstration.
(i) Dmonstration de i) Supposons que A
2

= A. Alors il existe une matrice P
n r
telle que
P'P =I
r
et A = PP'. Alors y'Ay =y'PP'y = (P'y)(P'y)=z'z, o z = P'y ~
r
(0 ; I
r
).
Donc z'z suit une loi
2
r
_ .
2.8 MAT7381 Chapitre 2 Loi normale multidimensionnelle
28 novembre 2011 2.8 REG02NormaleH12
(ii) Dmonstration de ii) Supposons donc que y'Ay ~_
s
2
. Puisque A est relle et
symtrique, il existe une matrice n r P telle que A = PDP, o D est une matrice r r
diagonale dont les lments de la diagonale sont les valeurs propres
1
, ... ,
r
non nulles
de A et PP = I
r
.
Donc y'Ay =y'PDP'y = z'Dz = E
i
z
i
2
o z =P'y ~
r
(0 ; I
r
). Soit M(t) la fgm de y'Ay.
D'une part, puisque y'Ay ~
2
s
_ , on a
M(t) = (1-2t)
-s/2
.
D'autre part, y'Ay =E
i
z
i
2
o z
i
2

~
2
1
_ de fgm M
i
(t) = (1-2t)
-
et les z
i
2
sont
indpendantes. Puisque la fgm de
i
z
i
2
est M
i
(
i
t), on a
M(t) =
1
( )
r
i i
i
M t
=

[
=
[
=


r
i
i
t
1
2 / 1
) 2 1 (
Il suit
(1-2t)
-s/2
=
[
=


r
i
i
t
1
2 / 1
) 2 1 ( (1-2t)
s
=
[
=

r
i
i
t
1
) 2 1 (
do
i
= 1, i = 1, ... , r et r = s. Il suit D = I
r
, A = PP' et alors A
2

= PPPP = A.
2.4 Loi khi-deux non centrale
Si y ~
n
( ; I
n
), alors X = y'y suit une loi appele loi khi-deux n degrs de libert et paramtre de
non centralit = : X = y'y ~ ) (
2
_
n
. Lorsque le paramtre de non centralit est nul, la loi khi-
deux
2
(0)
n
_ est en fait une khi-deux centrale ordinaire.
Thorme 2.4.1
La fonction gnratrice des moments dune variable X =
1
n
i
i
X
=

=
2
1
n
i
i
y
=

, o les y
i
sont
indpendantes, y
i
~ (
i
; 1) est
M
n
(t) =
/(1 2 ) / 2
(1 2 )
t t n
e t


Dmonstration
Considrons dabord la fonction gnratrice des moments M
W
(t) dune variable W = y
2
, o y
~ ( ; 1) :
M
W
(t) = E(e
tW
) =
2 2
(1/ 2)( )
1
2
ty y
e e dy

t
}
=
2 2
(1/ 2)[(1 2 ) 2 ]
1
2
t y y
e dy

t
}

=
2 2
(1/ 2)[(1 2 ) 2 ] / 2
1
2
t y y
e dy

t
}

=
2 2 2 2 2
/ 2 /[2(1 2 )] (1/ 2)(1 2 )[ 2 /(1 2 ) /(1 2 ) ]
1
2
t t y y t t
e e dy

+ +

t
}
=
2 1 2
( / 2)[1 (1 2 ) ] (1/ 2)(1 2 )[ /(1 2 )]
1
2
t t y t
e e dy

t
}
=
1/ 2
2
/(1 2 )
(1 2 )
t t
t e

.
La fonction gnratrice des moments de X est donc
1
( )
i
n
X
i
M t
=
[
=
MAT7381 Chapitre 2 Loi normale multidimensionnelle 2.9
REG02NormaleH12 2.9 28 novembre 2011
2
/(1 2 ) 1/ 2
1
(1 2 )
i
n
t t
i
e t

=

[
=
2
1
/(1 2 )
/ 2
(1 2 )
n
i i
t t
n
t e
=


=
/(1 2 ) / 2
(1 2 )
t t n
e t

.
Thorme 2.4.2
La fonction de densit dune variable X de loi ) (
2
_
n
est donne par
f
n
(x) =
/ 2
2
0
( / 2)
( )
!
j
n j
j
e
f x
j

+
=


o f
n+2j
dsigne la fonction de densit dune variable de loi
2
2
(0)
n j +
_ .
Dmonstration
La fonction gnratrice des moments de X peut scrire comme
M
X
(t) =
/(1 2 ) / 2
(1 2 )
t t n
e t

=
( )
/ 2 ( / 2) /(1 2 ) / 2
(1 2 )
t n
e e t

=
/ 2 / 2
0
1 / 2
(1 2 )
! 1 2
j
n
j
e t
j t


=
(
| |
(
|

\ . (

=
/ 2
( / 2 )
0
( / 2)
(1 2 )
!
j
n j
j
e
t
j

+
=

. Or chaque terme de cette dernire somme est bien celle de


la fonction gnratrice des moments dune variable de densit f
n+2j
(x).
Remarque La densit dune loi khi-deux non-centrale est donc une srie de densits khi-deux centrales
dont les coefficients
/ 2
( / 2)
!
j
e
j


sont curieusement les valeurs de la fonction de probabilit dune
variable de loi de Poisson de paramtre /2 .
Formes quadratiques gnrales (y'Ay)
Thorme 2.4.3 Soit y ~
n
( ; I
n
), A une matrice relle symtrique de rang r. Alors
(i) Si A
2
= A, alors yAy ~
2
r
_ () o r = r(A) et = A ;
(ii) Si yAy ~
2
s
_ (), alors A
2
= A, s = r(A) et = A.
Dmonstration.
(i) Dmonstration de (i) Supposons que A
2

= A. Alors il existe une matrice P
n r
telle que
P'P =I
r
et A = PP'. Alors y'Ay =y'PP'y = (P'y)(P'y)=z'z, o z = P'y ~
r
(P ; I
r
).
Donc z'z suit une loi
2
r
_ () avec = (P)(P) = 'PP' = 'A.
(ii) Dmonstration de (ii) Omise
Remarque Certains auteurs dfinissent le paramtre de non centralit par = /2, ce qui simplifie
lgrement lexpression des fonctions de densit et gnratrice des moments.
2.5 Indpendance de formes quadratiques
Quand est-ce que deux formes quadratiques yAy et yBy de loi khi-deux sont indpendantes ? Il est
ncessaire de le savoir afin den dduire la distribution de leur somme ou de leur quotient. Le thor-
me suivant donne une rponse pour des variables de matrice de covariance I. Nous dmontrerons le
2.10 MAT7381 Chapitre 2 Loi normale multidimensionnelle
28 novembre 2011 2.10 REG02NormaleH12
cas gnral plus loin.
Thorme 2.5.1 Soit y ~
n
( ; I
n
), A et B deux matrices symtriques. Soit yAy et yBy deux
formes quadratiques de loi khi-deux (centrale ou non). Alors yAy et yBy sont
indpendantes si et seulement si AB = 0.
Dmonstration
i) Supposons que yAy et yBy sont des khi-deux indpendantes. Alors A et B sont
idempotentes et yAy + yBy =y(A+B)y est de loi khi-deux. Donc A+B est idempotente
: (A+B)
2
= A
2
+ B
2
+ AB + BA = A + B A + B + AB + BA = A + B AB + BA = 0
AB = -BA ABB = -BAB AB = -BAB, ce qui entrane que AB est symtrique.
Donc AB = (AB) = BA = BA. Alors AB + BA = 0 AB + AB= 0 AB = 0. Cest ce
quil fallait dmontrer.
ii) Supposons que AB = 0. Puisque yAy et yBy sont de loi khi-deux, A et B sont
idempotentes. Donc il existe des matrices P et Q telles que A = PP, B = QQ, et PP et
QQ sont des matrices identit. Si AB = 0, alors PPQQ = 0 PPPQQQ = 0
IPQI = 0 PQ = 0, ce qui permet de conclure que Py et Qy sont indpendantes. Pour
montrer que yAy et yBy le sont,il suffit de montrer que yAy est fonction de Py et que
yBy est fonction de Qy. On a
yAy = yPPy = (Py)(Py) ; et yBy = yQQy = (Qy)(Qy) est fonction de Qy, ce qui
conclut la dmonstration.
Nous allons maintenant gnraliser les deux thormes prcdents : nous considrerons le cas o la
matrice de covariance est une matrice dfinie positive quelconque E .
Thorme 2.5.2 Soit y ~
n
( ; E), A une matrice relle symtrique de rang r. Alors
i) Si AA = A, alors yAy ~
2
r
_ () o r = r(A) et = A ;
ii) Si yy ~
2
s
_ (), alors AEA = A, s = r(A) et = A.
Dmonstration Puisque est dfinie positive, il existe une matrice symtrique non singulire E
telle que = E
2
. Alors yAy = yE
-1
EAEE
-1
y = zEAEz, o z = E
-1
y ~ (E
-1
; I ). Nous
pouvons alors appliquer le thorme 3 la forme quadratique zEAEz. Dans la partie (i) du
thorme, la condition didempotence devient EAEEAE = EAE, ce qui, tant donn que E
est non singulire est quivalent AEEA = A, cest dire AEA = A. Si cette condition est
vrifie, alors daprs le thorme 3, zEAEz ~
2
n
_ () o r = r(EAE) = r(A) grce la non
singularit de E ; et = (E
-1
)EAE(E
-1
) = A.
Rciproquement, si zEAEz ~
2
s
_ (), alors, par le thorme 3, EAEEAE = EAE AEEA
= A (par la non singularit de E), ce qui est quivalent AEA = A ; s = r(EAE) = r(A) ; et
= (E
-1
)EAE(E
-1
) = A.
Et voici la gnralisation de la deuxime partie du thorme 2.5.1 concernant lindpendance de
formes quadratiques.
Thorme 2.5.3 Soit y ~
n
( ; E), A et B deux matrices symtriques. Soit yAy et yBy deux
formes quadratiques de loi khi-deux (centrale ou non). Alors yAy et yBy sont
indpendantes si et seulement si AEB = 0.
MAT7381 Chapitre 2 Loi normale multidimensionnelle 2.11
REG02NormaleH12 2.11 28 novembre 2011
Dmonstration Puisque E est dfinie positive, il existe une matrice symtrique non singulire E
telle que E = E
2
. Alors yAy = yE
-1
EAEE
-1
y = zEAEz, et yBy = yE
-1
EBEE
-1
y = zEBEz
o z = E
-1
y ~ (E
-1
; I). Daprs le thorme 3.3.1, zEAEz, et zEBEz sont indpendantes
si et seulement si EAEEBE =0. Mais tant donne la non singularit de E, ceci entrane que
AEEB =0, cest--dire, que AEB = 0.
Et voici un thorme gnral concernant la dcomposition dune forme quadratique en une somme de
formes quadratiques indpendantes. Le thorme est connu sous le nom de thorme de Cochran.
Thorme 2.5.4 Soit y ~
n
(0 ; I
n
). Soit A une matrice idempotente et symtrique de rang r, et
A = A
1
+ ... + A
k
, r(A
i
) = r
i
, Q = y'Ay, Q
i
= y'A
i
y , i = 1, ... , k. Alors les trois thormes
suivants sont quivalents :
i) r(A) =

=
k
i
i
r
1
) (A ; ii)
2
i
A = A
i
et A
i
A
j
= 0 ; iii) Les Q
i
sont indpendantes et Q
i
~
2
i
r
_ .
Dmonstration. Omise.

Si E n'est que semi dfinie positive et non dfinie positive, nous avons la gnralisation suivante :
Thorme 2.5.5. Soit y ~
n
(0 ; E) o E est semi dfinie positive. La forme quadratique y'Ay suit
une loi _
2

si et seulement si EAEAE = EAE, auquel cas, le nombre de degrs de libert est r =
tr(AE).
Esquisse de dmonstration. E peut scrire comme E = PDP =
'
1
1 2 '
2
0
[ | ]
0 0
( (
( (

D P
P P
P
=
'
1 1
PDP , o P
1

est nr, r = r(E). y'Ay = y'PPAPPy = zPAPz, z = Py =
'
1
(
(

y P
0
=
1
(
(

z
0
, o z
1
est de moyenne
nulle et de matrice de covariance D. Alors y'Ay =
' '
1 1 1 1
z z PAP est de loi
2
r
_ si et seulement si
' ' '
1 1 1 1 1 1
= PAPDPAP PAP
' '
1 1 1 1
= PAAP PAP
' ' ' '
1 1 1 1 1 1 1 1
= PDPAAPDP PDPAPDP EAEAE = EAE
Loi de Student (loi t)
Dfinition Soit X et Y deux variables indpendantes, Y ~ (0 ; 1) et X ~
2
( )
v
_ . Alors la variable
t =
v / X
Y

suit une loi appele loi de Student v degrs de libert et paramtre de non centralit , t ~
t
v
(). Lorsque = 0, la loi est dite centrale. On la dsignera par t
v
(0) ou plus simplement
par t
v

Loi de Fisher (loi)
Dfinition Soit X
1
~
2
1
v
_ et X
2
~
2
2
( )
v
_ , X
1
et X
2
indpendantes, alors la variable
F =
2 2
1 1
/
/
v
v
X
X

suit une loi appele loi de Fisher, ou loi , v
1
et v
2
degrs de libert et paramtre de non
centralit : F ~
1 2
;
( )
v v
. Lorsque = 0, la loi est dite centrale. On la dsignera par
1 2
;
(0)
v v

2.12 MAT7381 Chapitre 2 Loi normale multidimensionnelle
28 novembre 2011 2.12 REG02NormaleH12
ou plus simplement par
1 2
; v v

Remarques
1 Si F ~
1 2
;
(0) F
v v
, alors
2 1
;
1
~
F
v v
(0).
2 Si t ~ t

, alors t
2
~
1 ;
.
2.6 chantillons normaux multidimensionnels
Soit y
1
, y
2
, , y
n
n vecteurs alatoires indpendants chacun de loi
p
( ; E), o est un vecteur p1
et est une matrice dfinie positive pp. La densit conjointe de ces vecteurs est
f(y
1
; y
2
; ; y
n
; ; E) =
1
1 1/ 2 1/ 2
1 1
exp ( )' ( )
(2 ) | | 2
n
i i i

=


`
t
)
[

y y =
1
1 / 2 / 2
1 1
exp ( )' ( )
(2 ) | | 2
n
i n n i i

=


`
t
)

y y
Soit
1
1
n
i i
n
=
=

y y le vecteur moyenne des observations et
1
1
( )( )'
n
i i
i
n
=
=

S y y y y la matrice de
covariance chantillonnale. On peut rcrire la somme dans lexposant de la fonction de densit
comme
1
1
( )' ( )
n
i i
i

=

y y =
1
1
[( ) ( )]' [( ) ( )]
n
i i
i

=
+ +

y y y y y y
=
1
1
( )' ( )
n
i i
i

=

y y y y +
1
( )' ( ) n

y y +
1
1
2 ( )' ( )
n
i
i

=

y y y
=
1
1
( )' ( )
n
i i
i

=

y y y y +
1
( )' ( ) n

y y +
1
1
2( )' ( )
n
i
i

y y y
=
1
1
( )' ( )
n
i i
i

=

y y y y +
1
( )' ( ) n

y y =
1
1
( )' ( )
n
i i
i
tr

=

y y y y +
1
( )' ( ) n

y y
=
1
1
( )( )'
n
i i
i
tr

=

y y y y +
1
( )' ( ) n

y y =
1
1
( )( )'
n
i i
i
tr

=

y y y y +
1
( )' ( ) n

y y
=
1
ntr

S +
1
( )' ( ) n

y y
Ainsi donc, la fonction de vraisemblance peut scrire comme
L( ; E) =
1
1 / 2 / 2
1 1
exp ( )' ( )
(2 ) | | 2
n
i n n i i

=


`
t
)

y y
=
{ }
1 1
/ 2 / 2
1
exp
(2 ) 2
1
( ) ' ( )
2 | |
n n
n
n tr

t
S

y y .
Estimateurs des paramtres
Les valeurs de et qui maximisent la fonction de vraisemblance L( ; ) sont = y et E = S.
Pour montrer que y maximise L, il suffit de noter que, tant donn que
1
( )' ( ) n

y y > 0,
{ }
1
1
exp
1
2
( )' ( )
n
i

=

y y est infrieur ou gal 1 pour tout , et atteint son maximum de 0 =


y. Alors ( ; ) ( ; ) L L s y pour tout E, et il reste maximiser ceci par rapport .
Nous montrons maintenant que ( ; ) L S y > ( ; ) L y pour tous E dfinie positive. Ce qui est quivalent
montrer que ln ( ; ) L S y - ln ( ; ) L y > 0.
MAT7381 Chapitre 2 Loi normale multidimensionnelle 2.13
REG02NormaleH12 2.13 28 novembre 2011
ln ( ; ) L S y - ln ( ; ) L y =
1 1
ln | | ln | |
2 2 2 2
n n n n
tr tr

+ S S S+ S
=
1 1
ln | |
2 2 2
n n np
tr

+ S S
=
1 1
ln
2 2 2
n p
i i i i
n n np
= =
+
[
,
o les
i
sont les valeurs propres de
1
S.
Il faut donc montrer que
1 1
ln 0
2 2 2
n p
i i i i
n n np
= =
+ >
[

1
( ln )
p
i i i
p
=
>

.
Les
i
sont positifs car S est dfinie positive (avec probabilit 1) ; donc elle possde une racine
carrs
1/2
S et les valeurs propres de
1
S sont les mmes que celles de
1/2 1/2
1
S S , qui est dfinie
positive. Pour montrer que
1
( ln )
p
i i i
p
=
>

, il suffit de vrifier que


i
- ln
i
> 1, ce qui dcoule du
fait que la drive de
i
- ln
i
est ngative dans (0 ; 1) et positive droite de 1. Donc son minimum
est 1 au point
i
= 1, ce qui conclut la dmonstration.
Distribution des estimateurs
Il est assez facile de dmontrer que y~
p
( ; (1/n)E), utilisant les fait quune fonction linaire de
normales indpendantes est normale. La distribution de la matrice A =
1
( )( )'
n
i i i=

y y y y = nS exige
quelques dveloppements.
Quelques proprits des chantillons normaux multidimensionnels
- Soit y
1
, , y
n
n vecteurs alatoires indpendants, y
i
~
p
(
i
; E). Posons et Y = [y
1
| y
2
| | y
n
],
et M = [
1
|
2
| |
n
].
- Soit a = [a
1
; a
2 ;
; a
n
] un vecteur constant et =
1
n
i i i
a
=

y = Ya une combinaisons linaire


des vecteurs. Alors ~
p
(Ma ; aaE).
- Si a et b sont deux vecteurs fixes tels que ab = 0, aa = bb =1, alors Ya et Yb sont des
vecteurs normaux indpendants de matrice de covariance E . Plus gnralement, soit P est une
matrice nm, m s n telle que PP = I
m
. Alors les colonnes z
1
, , z
m
de la matrice YP sont
indpendants, de moyenne MP et de matrice de covariance E. Si
1
= =
n
= , M = e,
alors z
1
, , z
m
sont de moyenne 0 si les colonnes de P sont orthogonales e= [1 ; 1 ; ;1].
Loi de Wishart
Soit A =
1
m
i i=

'
i
zz , o les z
i
sont des vecteurs indpendants de loi
p
(0 ; E). Alors la statistique
A
p
(E ; m)
suit une loi appele loi de Wishart de dimension p, variance , et m degrs de libert. On crit alors
A ~
p
(E ; m).
Quelques proprits de la loi de Wishart
- Si A ~
p
(E ; m) et B est une matrice qp, alors BAB ~
q
(BB ; m)
2.14 MAT7381 Chapitre 2 Loi normale multidimensionnelle
28 novembre 2011 2.14 REG02NormaleH12
- Si A =
11 12
21 22
(
(

A A
A A
~
p
( ; m), o A est rr, alors A
11
~
r
(
11
; m)
- Si A ~
p
(E ; m), alors
-
A
-
~
p
(I
p
; m).
- Si A ~
p
(I ; m) et B est une matrice pq (q p) telle que BB = I
q
, alors BAB ~
q
(I
q
; m)
- Si A ~
p
(E ; m) et a est un vecteur fixe tel que aa > 0, alors aAa/aa ~
2
m
_ .
Cas particulier : a
ii
/o
ii
~
2
m
_ .
- Si A
1
et A
2
sont indpendantes, A
1
~
p
( ; m
1
) et A
2
~
p
( ; m
2
), alors A
1
+ A
2
~
p
(
; m
1
+ m
2
).
- Soit E =
11 12
21 22
(
(



une matrice de covariance (p+q)(p+q),
11
tant pp, et A =
11 12
21 22
(
(

A A
A A
~

p+q
(E ; m), partitionne de la mme faon. Alors A
11.2
= A
11
-
1
12 22 21

A A A ~
p
(A
11.2
; m-q) et
1
12 22 21

A A A ~
p
(E
11
; q) ; A
11.2
est indpendante de A
22
et de A
12
. Si
12
= 0, et
1
12 22 21

A A A , A
22
et
A
11.2
sont mutuellement indpendants. Notons que si
1
11 12
21 22

(
(

A A
A A
=
11 12
21 22
(
(

A A
A A
, alors A
11
=
1
11.2

A ,
do on tire que
11 1
( )

A ~
p
(A
11.2
; m-q).
- Soit y
1
, , y
n
n vecteurs alatoires indpendants, y
i
~
p
(
i
; ), Y = [y
1
| y
2
| | y
n
], et M =
[
1
|
2
| |
n
]. Si P est une matrice nm, m s n telle que PP = I
m
et MP = 0, alors YPPY
~
p
(E ; m). En particulier, si M = e et C = I
n
-ee/n, alors nS =
1
( )( )'
n
i i i =

y y y y = YCY
~
p
(E ; n-1).
- Soit y
1
, , y
n
n vecteurs alatoires indpendants, y
i
~
p
(
i
; ), Y = [y
1
| y
2
| | y
n
], et M =
[
1
|
2
| |
n
]. Si P est une matrice nm, m s n telle que PP = I
m
et MP = 0, alors
YPPY ~
p
(E ; m). En particulier, si M = e et C = I
n
ee/n, alors nS =
1
( )( )'
n
i i i =

y y y y = YCY ~
p
(E ; n-1).
La loi
2
de Hotelling
La loi
2
de Hotelling est une gnralisation de la loi de Student.
Dfinition de la loi Soit y ~
p
( ; ) et A~
p
( ; m), o y et A sont indpendantes. Alors la
statistique
m(y-)A
-1
(y-) ~
2
(p ; m)
suit une loi appele
2
de Hotelling de paramtres p et m (dimension p et m degrs de libert).
Relation avec la loi La loi de Hotelling est lie la loi par la relation
2
; 1
1
( ; )
p m p
m p
p m
mp
+
+
=
Application Une des applications principales de la loi de Hotelling est la suivante :
MAT7381 Chapitre 2 Loi normale multidimensionnelle 2.15
REG02NormaleH12 2.15 28 novembre 2011
Soit x et S la moyenne et la variance dun chantillon de taille n dune population
p
( ; ), alors
1
( 1)( )' ( ) n

y y S ~
2
(p ; n-1), ou encore,
1
( )' ( )
n p
p

y y S ~
p ;n-p
.
La distribution

A de Wilks
Dfinition Soit A ~
p
(I ; m) et B ~
p
(I ; n), m > p, A et B indpendantes. Alors la variable
A =
| |
| | +
A
A B
= |I+A
-1
B|
-1

suit une loi appele loi de Wilks de paramtres p, m, et n.
Quelques proprits de la loi de Wilks
- A =
1
n
i i
u
=
[
, o u
1
, , u
n
sont indpendantes, u
i
de loi bta de paramtres (m+i-p) et p/2.
- Les lois A(p ; m ; n) et A(n ; m+n-p ; p) sont les mmes
-
; 1
1 ( ; ;1)
~
( ; ;1) 1
p m p
p m p
p m m p
+
A
A +

-
;
1 (1; ; )
~
(1; ; )
n m
m n n
m n m
A
A

-
2 ;2( 1)
1 ( ; ; 2)
~
1
( ; ; 2)
p m p
p m p
m p
p m
+
A
+
A

-
2 ;2( 1)
1 (2; ; )
~
1
(2; ; )
n m
m n n
m
m n

A

A

- Lorsque m est grand, on a, approximativement, -{m-(p-n+1)}ln A(p ; m ; n)~
2
np
_ .
RSUM
1 Lesprance dune matrice ou dun vecteur alatoire Y est la matrice (le vecteur) des esprances de ses
composantes.
2 La matrice de covariance = E[(y-)(y-)] dun vecteur alatoire y de moyenne est une matrice carre
symtrique dont llment o
ij
est la covariance entre la i
e
et la j
e
composante de y. Les lments de la
diagonale de sont donc les variances des composantes de y. est ncessairement semi dfinie positive ;
elle est dfinie positive si et seulement si elle est non singulire. E est singulire sil existe une fonction
linaire ay de variance nulle.
3 Soit y un vecteur alatoire de moyenne et de matrice de covariance E, L et M des matrices constantes.
Alors E(L'y + a) = L' + a, Var(L'y + a) = L'L, et Cov(L'y, M'y) = L'M. Si y est normale, L'y + a est
normale.
4 Si A est une matrice relle symtrique, y un vecteur alatoire de moyenne et de matrice de covariance ,
alors E(y'Ay) = tr(A) + 'A
5 Soit y' = [y
1
' ; y
2
'] un vecteur alatoire normal partitionn de moyenne =
|
|
.
|

\
|
2
1

et de matrice de
2.16 MAT7381 Chapitre 2 Loi normale multidimensionnelle
28 novembre 2011 2.16 REG02NormaleH12
covariance E =
(

22 21
12 11
E E
E E
. Alors E(y
1
| y
2
) =
1
+
12
1
22

(y
2
-
2
), Var(y
1
| y
2
) =
11
-
12
1
22


21
.
y
1
et y
2
sont indpendants si et seulement si
12

=

21
= 0.
6 Soit u = D
-
P'y, o P est une matrice orthogonale et D une matrice diagonale telle que = PDP. Alors u
~
n
(D
-
P' ; I
n
).
7 On dsigne par
2
s
_ () la loi khi-deux non centrale s degrs de libert et paramtre de non centralit .
Soit y ~
n
( ; ), o est dfinie positive, A une matrice relle symtrique de rang r. Alors (i) si AA
= A, alors yAy ~
2
r
_ () o r = r(A) et = A ; (ii) si yAy ~
2
s
_ (), alors AA = A, s = r(A) et =
A. = 0 si et seulement si A = 0.
8 Soit y ~
n
( ; ), A et B deux matrices symtriques. Soit yAy et yBy deux formes quadratiques de loi
khi-deux (centrale ou non). Alors yAy et yBy sont indpendantes si et seulement si AB = 0.
9 Cas particulier : E = o
2
I
n
. Alors yy/o
2
=
2
1
2
n
i i
y
=
o

~
2
n
_ () o =
2
'
o

. yAy/o
2
~
2
r
_ () o r = r(A) et
= A/o
2
si et seulement si A est idempotente ; si A et B sont idempotentes, alors yAy et yBy sont
indpendantes si et seulement si AB = 0.
10 Un quotient T =
v / X
Y
suit une loi appele loi de Student v degrs de libert si X
1
et X
2
sont
indpendantes, X
1
~
2
1
v
_ et X
2
~
2
2
v
_ .
11 Le quotient =
2 2
1 1
/
/
v
v
X
X
suit une loi appele loi de Fisher, ou loi, v
1
et v
2
degrs de libert si X
1
et X
2

sont indpendantes, X
1
~
2
1
v
_ et X
2
~
2
2
v
_ .
12 Soit x
1
, , x
n
n vecteurs alatoires indpendants, x
i
~
p
(
i
; ), Y = [y
1
| y
2
| | y
n
], M =
[
1
|
2
| |
n
], P est une matrice nm, m s n telle que PP = I
m
. Alors les colonnes z
1
, , z
m
de la
matrice YP sont indpendantes, de moyenne MP et de matrice de covariance . Si
1
= =
n
= , M =
e, alors z
1
, , z
m
sont de moyenne 0 si les colonnes de P sont orthogonales e= [1 ; 1 ; ;1].
13 Soit A =
1
m
i i=

'
i
zz , o les z
i
sont des vecteurs indpendants de loi
p
(0 ; ). Alors la statistique A ~
p
(E
; m).
14 Si y
1
, , y
n
sont n vecteurs alatoires indpendants, y
i
~
p
( ; ), et
1
1
( )( )'
n
i i
i
n
=
=

S y y y y . Alors
nS ~
p
(E ; n-1), et S est indpendante de
1
1
n
i i
n
=
=

y y .
15 Soit y ~
p
( ; ) et A~
p
( ; m), o y et A sont indpendantes. Alors m(y-)A
-1
(y-) ~
2
(p ; m).
16
2
; 1
1
( ; )
p m p
m p
p m
mp
+
+
= .
17 Soit y et S la moyenne et la variance dun chantillon de taille n dune population
p
( ; ), alors
1
( 1)( )' ( ) n

y y S ~
2
(p ; n-1), ou encore,
1
( )' ( )
n p
p

y y S ~
p
;
n-p
.