Vous êtes sur la page 1sur 118

POLYCOPI DE COURS DE STATISTIQUE ET CONOMTRIE

MODLE LINAIRE

M. B ONNEU , E. L ECONTE

Universit des Sciences Sociales


Place Anatole France
31042 Toulouse

Table des matires


Introduction
1

Outils algbriques et probabilistes


1.1 Elments dalgbre linaire . . . . . . . . . . . . . . . .
1.1.1 Matrices . . . . . . . . . . . . . . . . . . . . . .
1.1.2 Espaces euclidiens . . . . . . . . . . . . . . . .
1.1.3 Drivation matricielle . . . . . . . . . . . . . .
1.2 Vecteurs alatoires . . . . . . . . . . . . . . . . . . . .
1.2.1 Rappels sur les variables alatoires relles (v.a.r.)
1.2.2 Vecteur alatoire . . . . . . . . . . . . . . . . .
1.2.3 Changement de variable . . . . . . . . . . . . .
1.3 Loi normale dans IR n (Gaussienne) . . . . . . . . . . .
1.3.1 Diverses caractrisations . . . . . . . . . . . . .
1.3.2 Non corrlation et indpendance . . . . . . . . .
1.3.3 Lois de distribution des formes quadratiques . .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

11
11
11
16
20
20
20
23
26
28
28
29
31

Modle linaire
2.1 Formulation du modle linaire . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Ecriture matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.2 Hypothses du modle linaire . . . . . . . . . . . . . . . . . . . . . .
2.2 Estimateur des moindres carrs ordinaires (MCO) . . . . . . . . . . . . . . . .
2.2.1 Dfinition de lestimateur MCO du paramtre . . . . . . . . . . . . .
2.2.2 Proprits de lestimateur MCO . . . . . . . . . . . . . . . . . . . .
2.2.3 Estimation de la variance rsiduelle 2 . . . . . . . . . . . . . . . . . .
2.3 Interprtation gomtrique . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Reprsentation des individus . . . . . . . . . . . . . . . . . . . . . . .
2.3.2 Espace des variables . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.3 Coefficient de corrlation multiple (empirique) ou coefficient de dtermination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.4 Interprtation et critique de lutilisation de R2 . . . . . . . . . . . . . .

35
35
36
36
37
37
39
39
41
41
41

Induction statistique dans le modle linaire


3.1 Modle linaire gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

47
47

43
43

TABLE DES MATIRES

3.2

3.3

3.1.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.2 Estimateur maximum de vraisemblance EM V ou M LE
3.1.3 Loi de probabilit des estimateurs . . . . . . . . . . . .
3.1.4 Estimation par intervalle de confiance (IC) . . . . . . .
3.1.5 Prvision pour une valeur future x0 = (x10 , . . . , xp0 )0 . . .
Tests dhypothses . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1 Estimation sous contrainte linaire . . . . . . . . . . . .
3.2.2 Test de student de signification dun coefficient j . . .
3.2.3 Test de Fisher de signification de plusieurs coefficients .
3.2.4 Test de Fisher dune hypothse linaire gnrale . . . .
Critiques du modle linaire gaussien . . . . . . . . . . . . . .
3.3.1 Test de linarit . . . . . . . . . . . . . . . . . . . . . .
3.3.2 Analyse des rsidus . . . . . . . . . . . . . . . . . . . .
3.3.3 Dtection de valeurs aberrantes ou influentes . . . . . .
3.3.4 Slection des variables exognes . . . . . . . . . . . . .

Modles linaires gaussiens particuliers


4.1 Analyse de variance un facteur . . . . . . . . . . . .
4.1.1 Exemple . . . . . . . . . . . . . . . . . . . .
4.1.2 Approche intuitive de lanalyse de variance . .
4.1.3 Estimation des paramtres . . . . . . . . . . .
4.1.4 Test dhypothses . . . . . . . . . . . . . . . .
4.2 Analyse de variance deux facteurs . . . . . . . . . .
4.2.1 Exemple . . . . . . . . . . . . . . . . . . . .
4.2.2 Modlisation statistique et estimation . . . . .
4.2.3 Tests dhypothses . . . . . . . . . . . . . . .
4.2.4 Interprtation de linteraction de deux facteurs
4.3 Analyse de covariance . . . . . . . . . . . . . . . . .
4.3.1 Modlisation avec interaction . . . . . . . . .
4.3.2 Tests dhypothses . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

47
48
48
51
54
54
54
55
56
57
58
58
60
64
65

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

71
72
72
73
75
77
78
78
79
80
83
87
87
90

Gnralisation du modle linaire gaussien


5.1 Moindres carrs gnraliss . . . . . . . . . . . . . . . . . . .
5.1.1 Estimateur des moindres carrs gnraliss . . . . . .
5.1.2 Estimateur des moindres carrs pondrs . . . . . . .
5.1.3 Autocorrlation des rsidus . . . . . . . . . . . . . . .
5.2 Rgression stochastique . . . . . . . . . . . . . . . . . . . . .
5.2.1 Modles linaires conditionnels . . . . . . . . . . . .
5.2.2 Approximation dune v.a. y par un vecteur alatoire x .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

91
92
92
95
96
98
99
99

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

Bibliographie

105

Tables statistiques

107

Introduction
En conomtrie, quand on est en prsence de plusieurs variables, le but nest pas uniquement
de les tudier en tant que variables alatoires, mais essentiellement de modliser leurs relations.
Cadre de ce cours : MODELES EXPLICATIFS
Expliquer une variable endogne y quantitative par p variables exognes, dites explicatives.
Les donnes se prsentent sous la forme du tableau suivant :
x1

u.s. 1
..
.

y
endogne
y1
..
.

x11
..
.

xp1
..
.

u.s. i
..
.

yi
..
.

x1i
..
.

xpi
..
.

u.s. n

yn

x1n

xpn

Variables

xp

u.s. : unit statistique reprsentant un individu dune population ou le temps.


x1 , . . . , xp : variables quantitatives ou qualitatives exognes.
y : variable quantitative endogne.
Exemple 1.
On considre 101 succursales dune entreprise. Lobjectif est dexpliquer le chiffre daffaire
de chaque succursale au moyen de variables telles que : marge commerciale, charge salariale,
nombre de vendeurs,. . .Les donnes sont stockes dans un fichier informatique sous la forme
suivante :
5

INTRODUCTION
Chiffre daffaire

Marge Commerciale

Charges locatives

Charge salariale

CA HT

CA TTC

Marge

% CA HT

Taille

Loyer

% CA HT

Nbre Vendeurs

CA / vendeur

Agen
Amboise

1181201
700201

1441081
954241

592101
355901

50.127
50.828

112201
58501

9.498
8.354

2501
1501

472.29
466.49

Perpignan

1079101

1318501

505201

46.816

10.001
10001
...
...
95301

129401

11.991

2701

399.519

Exemple 2.
On se propose dtudier la relation, quon suppose linaire si elle existe, entre le prix et
les variables suivantes : cylindre, puissance, longueur, largeur, poids et vitesse de 18 voitures
figurant dans le tableau :

OBS
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18

x2

x3

x4

x5

x6

x7

x8

NOM

CYL

PUIS

LON

LAR

POIDS

VITESSE

FINITION

PRIX

ALFASUD-TI-1350
AUDI-100-L
SIMCA-1307-GLS
CITROEN-CG-CLUB
FIAT-132-1600GLS
LANCIA-BETA-1300
PEUGEOT-504
RENAULT-16-TL
RENAULT-30-TS
TOYOTA-COROLLA
ALFETTA-1.66
PRINCESS-1800-HL
DATSUN-200L
TAUNUS-2000-GL
RANCHO
MAZDA-9295
OPEL-REKORD-L
LADA-1300

1350
1588
1294
1222
1585
1297
1796
1565
2664
1166
1570
1798
1998
1993
1442
1769
1979
1294

79
85
68
59
98
82
79
55
128
55
109
82
115
98
80
83
100
68

393
468
424
412
439
429
449
424
452
399
428
445
469
438
431
440
459
404

161
177
168
161
164
169
169
163
173
157
162
172
169
170
166
165
173
161

870
1110
1050
930
1105
1080
1160
1010
1320
815
1060
1160
1370
1080
1129
1095
1120
955

165
160
152
151
165
160
154
140
180
140
175
158
160
167
144
165
173
140

B
TB
M
M
B
TB
B
B
TB
M
TB
B
TB
B
TB
M
B
M

30570
39990
29600
28250
34900
35480
32300
32000
47700
26540
42395
33990
43980
35010
39450
27900
32700
22100

yi = 1 + 2 x2i + + 8 x8i + ei
Exemple 3.
Modle conomique du comportement de production des entreprises :
p
Y
Q = (xj )j

(1)

j=2

(Fonction de Cobb-Douglas)
var y expliquer : Q quantit de production

INTRODUCTION
var x2 , . . . , xp explicatives :
K : Capital,
L : Travail,
E : Energie,
M : Matires premires,
T : Progrs techniques.

(1) scrit :

log Q = 1 +

p
X

j log xj (en posant log = 1 )

j=2

log Q =

ou encore

p
X

j log xj , avec log x1 = 1

j=1

Etude statistique de ce modle


1. Soit partir de donnes statistiques observes pour une entreprise au cours du temps t :
log Qt =

p
X

j log xjt + et

(t = 1, n) , o n est le nombre dunit de temps,

j=1

avec des hypothses sur les v.a. et , qui diffrent selon les 2 cas suivants :
Cas 1. les variables xjt ne contiennent pas de valeurs passes de Qt : modle explicatif statique.
Cas 2. sinon, modle explicatif dynamique et dans ce cas les rsidus et sont des v.a. corrles.
2. Soit partir dun panel de n entreprises dans une priode donne :
log Qi =

p
X

j log xji + ei

j=1

Objectif : Estimer les paramtres :


log Q
lasticit.
j =
log xj
P
r = j rendement.

(i = 1, . . . , n) o n est le nombre dentreprises.

INTRODUCTION

Exemple 4.
En Macroconomie, modle dynamique explicatif :
Rt
= 1

taux
dintrt
long terme

+ 2

Mt + 3
It
+ 4
Ut
+ et

masse
taux
taux
montaire
dinflation
de chmage

Les rsidus et sont des v.a. qui seront supposes :


E(et ) = 0

centres

V (et ) = t2

htroscdastiques

E(et et1 ) 6= 0 auto-corrles

INTRODUCTION

OBJECTIF DU COURS

A partir de n observations de (y, x), y IR et x IR p , on cherche expliquer la variable y


par une combinaison linaire des variables x1 , . . . , xp , composantes de x.
Ce problme sera abord diffremment selon les cas :
La variable x est non alatoire.
La variable (x, y) est alatoire
On considre la loi de (y, x).
On considre la loi conditionnelle de y sachant x = x0 .
Les variables x1 , . . . , xp sont quantitatives ou qualitatives.
Les donnes sont des sries temporelles ou des donnes de panel.

10

INTRODUCTION

Chapitre 1
Outils algbriques et probabilistes pour le
modle linaire
1.1

Elments dalgbre linaire

Ce chapitre se propose de rassembler des notations et rappels dalgbre linaire ainsi que
quelques complments mathmatiques du niveau du premier cycle des Universits.
Dans tout ce qui suit, E et F sont deux espaces vectoriels rels munis respectivement des
bases canoniques E = {ej ; j = 1, . . . , p} et F = {fi ; i = 1, . . . , n}. On note indiffremment
un vecteur de E ou de F , un endomorphisme de E, une application linaire de E dans F et
leurs reprsentations matricielles dans ces bases.

1.1.1 Matrices
Notations
La matrice dordre (n p) associe une application linaire de E dans F est dcrite par
un tableau :

a11 aj1 ap1

.
.. ... ...

j
p
1
A=
ai ai ai
..
.
.
. .. ..
a1n ajn apn
11

12

CHAPITRE 1. OUTILS ALGBRIQUES ET PROBABILISTES

On note par la suite :


aji = [A]ji le terme gnral de la matrice ou aij ,
ai = [a1i , . . . , api ]0 un vecteur ligne mis en colonne, o 0 dsigne le symbole transpos.
aj = [aj1 , . . . , ajn ]0 un vecteur colonne.
Types de matrices
Une matrice est dite :
carre si n = p,


0 si i 6= j
,
1 si i = j
diagonale si aji = 0 lorsque i 6= j,
symtrique si aji = aij ,
triangulaire suprieure (infrieure) si
identit (Ip ) si

aji

ij

aji = 0 lorsque i > j (i < j),


vecteur ligne (colonne) si n = 1 (p = 1),
unit dordre p : 1Ip = [1, . . . , 1]0 ,
scalaire si n = 1 et p = 1.

Oprations sur les matrices


Somme
[A + B]ji = aji + bji pour A et B de mme ordre (n p).
Multiplication par un scalaire
[A]ji = aji pour IR.
Transposition
[A0 ]ji = aij , A0 est dordre (p n).
(A0 )0 = A ; (A + B)0 = A0 + B 0 ; (AB)0 = B 0 A0 .
Produit scalaire lmentaire
n
X
0
ab=
ai bi o a et b sont des vecteurs colonnes (n 1).
i=1

Produit
[AB]ji = a0i bj avec A(np) , B(pq) .

13

1.1. ELMENTS DALGBRE LINAIRE


Proprits des matrices carres

La trace et le dterminant sont des notions intrinsques qui ne dpendent pas des bases de
reprsentation choisies mais uniquement de lapplication linaire sous-jacente.
Trace
Par dfinition, si A est une matrice (p p) :
trA =

p
X

aii

i=1

et il est facile de montrer que


, o IR
trA,
trA + trB,
tr(BA),
p
p
X
X
0
0
tr(CC ) = tr(C C) =
(cji )2 .

tr
tr(A)
tr(A + B)
tr(AB)

=
=
=
=

i=1 j=1

Dterminant
On note | A | (ou detA) le dterminant de la matrice carre A. Il vrifie :
|A| =

p
Y

aii si A est triangulaire ou diagonale,

i=1

| A | = p | A | .
Inverse
Linverse de A, lorsquelle existe, est la matrice unique note A1 telle que
AA1 = A1 A = Ip ;
elle existe si et seulement si | A |6= 0.
Quelques proprits :
(A1 )0 = (A0 )1 ,
(AB)1 = B 1 A1 ,
1
| A1 | =

|A|

14

CHAPITRE 1. OUTILS ALGBRIQUES ET PROBABILISTES

Dfinitions
Une matrice carre A est dite :
symtrique si A0 = A,
singulire si | A |= 0,
rgulire si | A |6= 0,
idempotente si AA = A,
orthogonale si AA0 = A0 A = I(A0 = A1 ).
Exercice :

1 2
1
1
4 2
Soit A = 2
6
1 2
1

Montrer que A est idempotente.


Est-elle rgulire ?
Est-elle orthogonale ?

Proprits des formes quadratiques et matrices dfinies positives


Dfinitions
Soit A une matrice (n n). La forme quadratique associe A est lapplication de IR n dans
IR qui tout vecteur x associe x0 Ax.
Si x0 Ax > 0 pour tout x 6= 0, on dit que la forme quadratique est dfinie positive et A est
dite matrice dfinie positive.
Si x0 Ax 0 pour tout x, on dit que la forme et la matrice sont semi-dfinies positives.
Lorsque les ingalits sont dans lautre sens, on parle de formes quadratiques et de matrices
dfinies ngatives et semi-dfinies ngatives. Si une forme quadratique est positive pour certains
vecteurs x, et ngative pour dautres, la forme et la matrice sont dites indfinies.
Il est important de disposer de critres permettant de reconnatre les matrices dfinies positives.
1. Pour quune matrice relle et symtrique A soit dfinie positive, il faut et il suffit que
toutes ses valeurs propres soient positives.
2. Pour quune matrice symtrique A soit dfinie positive, il faut et il suffit que les dterminants de chacune de ses sous-matrices principales soient positifs.

15

1.1. ELMENTS DALGBRE LINAIRE


3. Si A est symtrique et dfinie positive, il existe une matrice non singulire P telle que
A = PP0

4. Si A, de format n n, est dfinie positive, et si P de format n m, est de rang m, alors


P 0 AP est dfinie positive.
1. Si A est de format n m avec m < n et de rang m, alors A0 A est dfinie positive et AA0
est semi-dfinie positive.
6. Si A et B sont des matrices dfinies positives et si A B est aussi dfinie positive alors
B 1 A1 est aussi dfinie positive.

Proprits des vecteurs propres et des valeurs propres des matrices relles symtriques
Dans les problmes statistiques nous sommes gnralement confronts des matrices relles
symtriques. Les proprits numres ci-dessous qui sont prcdes par un astrisque ne sont
valables que pour les matrices relles symtriques ; celles sans astrisque sont valables pour
toutes les matrices relles.
1.
2.
3.

Les valeurs propres sont relles.

Les vecteurs propres associs des valeurs propres diffrentes sont orthogonaux.

Si une valeur propre est de multiplicit algbrique k (cest--dire, si elle est une racine
dordre k), il y a k vecteurs propres orthogonaux qui lui sont associs.
4. La matrice symtrique A dordre n possde n valeurs propres 1 , 2 , . . . , n , pas forcment diffrentes. Les proprits 2 et 3 montrent quil existe un ensemble de n vecteurs
propres orthogonaux x1 , x2 , . . . , xn , tels que
x0i xj = 0
5.

i 6= j; i, j = 1, 2, . . . , n

La matrice orthogonale des vecteurs propres permet de diagonaliser A, cest dire


X 0 AX = = diag{1 , 2 , . . . , n }.

6. La somme des valeurs propres est gale la somme des lments diagonaux (la trace) de
A.
7. Le produit des valeurs propres dune matrice A est gale son dterminant.
8. Le rang de A est gal au nombre de ses valeurs propres non nulles.
9. Les valeurs propres de A2 sont les carrs des valeurs propres de A et ces deux matrices
ont les mmes vecteurs propres.
10. Les valeurs propres de A1 sont les inverses des valeurs propres de A, mais ces deux
matrices ont les mmes vecteurs propres. Soit :
Ax = x
11. Les valeurs propres dune matrice idempotente ne peuvent tre gales qu 0 ou 1.
12. Le rang dune matrice idempotente est gal sa trace.

16

CHAPITRE 1. OUTILS ALGBRIQUES ET PROBABILISTES

1.1.2 Espaces euclidiens


E est un espace vectoriel rel de dimension p isomorphe IR p .

Sous-espaces
Un sous-ensemble Eq de E est un sous-espace vectoriel (s.e.v.) de E sil est non vide et
stable :
x, y Eq , IR, (x + y) Eq .
Le q-uple {x1 , . . . , xq } de E constitue un systme linairement indpendant si et seulement si :
q
X
i xi = 0 1 = = q = 0.
i=1

Un sytme linairement indpendant Eq = {e1 , . . . , eq } qui engendre un s.e.v. Eq =


vect{e1 , . . . , eq } en constitue une base et dim(Eq ) = card(Eq ) = q.
Rang dune matrice Anp
Image et noyau
Im(A)

vect {a1 , . . . , ap } est le s.e.v. de F image de A,

Ker(A) =

{x; Ax = 0} est le s.e.v. de E noyau de A,

dim(Im(A)) + dim(Ker(A)).

Rang
rang(A)
0

dim(Im(A)),

rang(A)

min(n, p),

rang(A)

rang(A0 ),

rang(A + B)

rang(A) + rang(B),

rang(AB)

min(rang(A), rang(B)),

rang(BAC)

rang(A) si B et C sont rgulires,

rang(A)

rang(AA0 ) = rang(A0 A).

Enfin, si B(p q) est de rang q (q < p) et A carre (p p) de rang p alors, la matrice B 0 AB


est de rang q.

1.1. ELMENTS DALGBRE LINAIRE

17

Mtrique euclidienne
Soit M une matrice carre (p p), symtrique, dfinie-positive ; M dfinit sur lespace E :
un produit scalaire : hx, yiM = x0 M y,
1/2
une norme : k x kM = hx, xiM ,
une distance : dM (x, y) =k x y kM ,
hx, yiM
des angles : cos M (x, y) =
,
k x kM k y kM
La matrice M tant donne, on dit que :
une matrice A est M -symtrique si A0 M = M A,
deux vecteurs x et y sont M -orthogonaux si hx, yiM = 0,
un vecteur x est M -norm si k x kM = 1,
une base Eq = {e1 , . . . , eq } est M -orthonorme si
(i, j), hei , ej iM = ij .
Remarque : Si M est la matrice Identit (M = Ip ), cest le cas usuel relatif la base canonique
de IR p .

Projection
Dfinitions quivalentes
Soit W un sous-espace de E et B = {b1 , . . . , bq } une base de W : P (p p) est une
matrice de projection M -orthogonale sur W si et seulement si :
y E, P y W et hP y, y P yiM = 0.
Toute matrice idempotente (P 2 = P ) et M -symtrique (P 0 M = M P ) est une matrice de
projection M -orthogonale.
Proprits dune matrice P de projection
Les valeurs propres de P sont 0 ou 1
u W P u = u, = 1 de multiplicit dim(W ),
v W LP v = 0, = 0 de multiplicit dim(W ), o W est le sous-espace orthogonal
W (W
W = E).
trP = dim(W ) (= rang(P )),
P = B(B 0 M B)1 B 0 M o B = [b1 , . . . , bq ],

18

CHAPITRE 1. OUTILS ALGBRIQUES ET PROBABILISTES


dans le cas particulier o les bj sont M -orthonorms :
0

P = BB M =

q
X

bj bj M,

j=1

dans le cas particulier o q = 1 alors :


bb0
1
P = 0
M=
bb0 M.
b Mb
k b kM
Si P1 , . . . , Pq sont des matrices de projection M -orthogonales alors la somme P1 + +
Pq est une matrice de projection M -orthogonale si et seulement si : Pk Pj = kj Pj .
La matrice I P est la matrice de projection M -orthogonale sur W .

19

1.1. ELMENTS DALGBRE LINAIRE


Exemple :
X = [x1 . . . xp ] matrice (n p) des p variables explicatives du modle linaire :
yi =

p
X

j xji + ei (i = 1, . . . , n).

j=1

W = vect{x1 , . . . , xp }.

6


W
y 






y Py W






Py W
W

P = X(X 0 M X)1 X 0 M est une matrice de projection M -othogonale sur W .


o W est lespace engendr par les vecteurs colonnes de la matrice X car
0 =< P y, y P y >M = (P y)0 M (y P y)
P y W car P y = X ( vecteur de composantes j )
On peut aussi vrifier que : P 2 = P et P 0 M = M P .

20

CHAPITRE 1. OUTILS ALGBRIQUES ET PROBABILISTES

1.1.3 Drivation matricielle


Dfinition
Soit f une application de IR k dans IR, on dfinit le vecteur colonne (k 1) des k drives
partielles de f (u) par rapport chaque composante ui :

f (u)
u1

f (u)
.

..
=

f (u)
uk

Proprits
(i) Cas des formes linaires : Si f (u) = a0 u o a est un vecteur (k 1) :
a0 u
u0 a
=a=
u
u
(ii) Cas des formes quadratiques : Si f (u) = u0 Au ou A est une matrice carre dordre k,
alors :
u0 Au
= (A + A0 )u.
u
u0 Au
= 2Au.
De plus, si A est symtrique :
u

1.2 Vecteurs alatoires


1.2.1

Rappels sur les variables alatoires relles (v.a.r.)

(cf. tableau de lois, thormes sur les combinaisons linaires indpendantes de v.a.r. et sur
les changements de variables donnant les lois usuelles dchantillonnage : F, T, 2 ).

21

1.2. VECTEURS ALATOIRES

Formulaire de probabilits
Lois de probabilit usuelles

Lois discrtes

Dnomination
X

Loi de probabilit

Moyenne
E(X)

Variance
V (X)

Loi binomiale B(n, p)


n entier positif ; 0 < p < 1

k pk (1 p)nk
P [X = k] = Cn
k = 0, 1, 2, . . . , n

np

np(1 p)

Loi multinomiale n; p1 , . . . , pk ,

P [X1 = n1 et X2 = n2 et Xk = nk ]
E(Xi ) = npi

var (Xi ) = npi (1 pi )


cov (Xi , Xj ) = npi pj
pour i 6= j

P [X = k] = e k!
k entier positif ou nul

n1
P [X = k] = Cn+k1
pn (1 p)k
k entier positif ou nul

n(1 p)
p

n(1 p)
p2

n entier positif ;
p1 + p2 + + pk = 1

n!
nk
2
pn1 pn
2 pk
n1 !n2 ! nk ! 1
P
ni entier positif ; ki=1 ni = n.

Loi de Poisson de
paramtre ( > 0)

Loi binomiale ngative de


paramtres n et p
n entier positif - 0 < p < 1
(n = 1 loi gomtrique)

22

CHAPITRE 1. OUTILS ALGBRIQUES ET PROBABILISTES

Lois continues
Dnomination
X

Loi de probabilit

Loi uniforme sur [a, b]

f (x) =

Loi normale N (, 2 )
f (x) =
positif

Loi Gamma G(a,p)

f (x) =

a et p strictement positifs

q>0

de libert, entier positif


ou encore G

1
,
2 2

1
e 2



Loi de Student (ou T )


degrs de libert,
entier strictement positif

Loi de Fisher (ou F) de


paramtres 1 et 2
entiers strictement positifs

Loi de Cauchy

ap p1 ax
x
e
si x > 0
(p)

0 si x 0
R
o (p) = 0+ xp1 ex dx

x 1
e 2 x2

 

22
f (x) =
2

(b a)2
12

p
a

p
a2

p
p+q

pq
(p + q)2 (p + q + 1)

si x > 0

si x 0


 +1
2 2
1 + x

f (x) =
B 12 , 2

1/2 2/2
1
2
x 1/2 1

2
B( 1 , 2 )( x + ) 1 +
2
1
2
2
2
f (x) =

pour x > 0

0 pour x 0
f (x) =

Loi de Laplace
f (x) =
de paramtre > 0

a+b
2

2

f (x) =

Loi de 2 degrs

Variance
V (X)

1
xp1 (1 x)q1
B(p, q)
si 0 < x < 1

0 sinon
R 1 p1
o B(p, q) = 0 x
(1 x)q1 dx

Loi Beta B(p, q)


p>0

1
pour a x b
ba

Moyenne
E(X)

1
(1 + x2 )


1
1
exp

x 

0 pour 2
non dfinie

pour 2
2

pour = 1
2
pour 2 3
2 2
non dfinie
pour 2 < 3

222 (1 + 2 2)
1 (2 2)2 (2 4)
si 2 5

non dfinie

non dfinie

2
2

23

1.2. VECTEURS ALATOIRES

1.2.2 Vecteur alatoire


Dfinition : Un vecteur alatoire X est une application dun espace probabilis (, A, P ) dans
un espace vectoriel rel IR p , telle que chaque composante Xi est v.a.r.
On identifie X au p-uple de v.a. form par ses composantes sur la base canonique de IR p .

X1

X = ... o Xi v.a.r.
(1 i p)
Xp
Loi de probabilit dun vecteur alatoire X
Elle est dfinie par la fonction de rpartition F application de IR p dans IR :
!
Y
F (x1 , . . . , xp ) = P X
] , xi ]
1ip

= P (X1 x1 , . . . , Xp xp )
Remarque : La loi de probabilit sera dfinie de faon quivalente par :
pF
si la drive partielle existe dans le
Soit la densit de X : f (x1 , . . . , xp ) =
x1 . . . xp
cas de v.a. continues.
Soit P (X1 = x1 , . . . , Xp = xp ) dans le cas de v.a. discrtes.
Application : Montrer que f (x1 , x2 ) =
alatoire X de IR 2 .

1
2 x1 x2

si 0 < x2 < x1 < 1 est une densit dun vecteur

Esprance dun vecteur alatoire X de IR p

E(X1 )

..
E(X) =

.
E(Xp )
Remarque : RQuand
on ne dispose que de la loi de X, on peut calculer E(Xi ) par la formule :
R
E(Xi ) =
x f (x , . . . , xp )dx1 dxp , dans le cas
IR p i " 1
# continu
Z Z
Y
R
ou bien E(Xi ) = IR xi
f (x1 , . . . , xp )
dxj dxi
IR p1

j6=i

{z
densit marginale de Xi

24

CHAPITRE 1. OUTILS ALGBRIQUES ET PROBABILISTES

Application : dans lexemple prcdent, calculer E(X1 ) et E(X2 ).


E(Xi ) =

x1

ou bien E(Xi ) =

xi P [X1 = x1 , . . . , Xp = xp ], dans le cas discret

xp

xi

xi

XX
j6=i

P (X1 = x1 , . . . , Xp = xp )

xj

{z
}
|
Probabilit marginale P (Xi =xi )
Proprit :
Soit X un vecteur alatoire de IR p et A une matrice non alatoire (m p). On a alors
E(AX) = AE(X).

Matrice de variance (covariance) de X, v.a. de IR p


P
Dfinition : Cest la matrice carre dordre p, note X ou V (X) ou var(X), de terme gnral :
cov (Xi , Xj )

V (X1 )
cov (X1 , X2 ) cov (X1 , Xp )
..

..
Cest--dire V (X) = cov (X2 , X1 )
V (X2 )

.
.
..
..

cov (Xp , X1 )

V (Xp )
cf. exemple prcdent : dterminer la matrice V (X)
1. V (X) = E [(X E(X)) (X E(X))0 ] = E(XX 0 ) E(X)[E(X)]0
(p n)
(n p)
2. V (X) est symtrique (en exercice)
3. V (X) est dfinie positive (en exercice)
P
4. Rciproquement
si est une matrice carre dordre p symtrique et dfinie positive, alors
P
est la matrice de variance dun vecteur alatoire de IR p .
A V (X) A0
(m p)(p p)(p m)
mensions respectives (m p) et (p n).

5. var (AX + B) =

A et B matrices non alatoires, de di-

25

1.2. VECTEURS ALATOIRES


Dfinition :
La matrice de corrlation linaire de X est la matrice de terme gnral :
cov (Xi , Xj )

var (Xi ) var (Xj )

Matrice de variance covariance empirique


Soit n observations du vecteur X, dfinissant la matrice des donnes A de dimension (n
p) :
x11 xp1
..
..
.
.

A = x1i xpi
.
..
..
.
1
xn xpn

On note xj la moyenne empirique : xj =

1X j
x , pour j = 1 p.
n i=1 i

On note x le vecteur colonne (p 1) de composante xj .


n

1X j
(x xj )2 et cov(xj , xk ) la covariance
On note varx , la variance empirique : varx =
n i=1 i
empirique :
n
1X j
j
k
cov (x , x ) =
(xi xj )(xki xk )
n i=1
j

La matrice de variance covariance empirique est la matrice de terme gnral cov (xj , xk ), dont
lexpression matricielle est :
1 0
A A x x0 .
n

Matrice de corrlation empirique


La matrice de corrlation empirique est la matrice de terme gnral
cov (xj , xk )

.
var xj var xk

26

CHAPITRE 1. OUTILS ALGBRIQUES ET PROBABILISTES


Exemple (cf. donnes de lexemple 2 page 6) :
CYL
CYL
1.00000
PUIS
0.79663
LON
0.70146
LAR
0.62976
POIDS
0.78895
VITESSE 0.66493
PRIX
0.63858

1.2.3

PUIS
0.79663
1.00000
0.64136
0.52083
0.76529
0.84438
0.79870

LON
0.70146
0.64136
1.00000
0.84927
0.86809
0.47593
0.64376

LAR
0.62976
0.52083
0.84927
1.00000
0.71687
0.47295
0.54665

POIDS VITESSE PRIX


0.78895 0.66493 0.63858
0.76529 0.84438 0.79870
0.86809 0.47593 0.64376
0.71687 0.47295 0.54665
1.00000 0.47760 0.75329
0.47760 1.00000 0.58176
0.75329 0.58176 1.00000

Changement de variable

1 (x)
x1

Soit la transformation : IR p IR p qui x = ... associe y = (x) = ... .


p (x)
xp

1
On suppose
1 queles applications i sont biunivoques cest--dire i existe et
1 (y)

..
1
(y) =
.
.
1
p (y)

Proprit de changement de variable


Soit Y = (X). La densit g de Y sexprime alors, en fonction de la densit f de X par :
g(y1 , . . . , yp ) = f [1 (y1 , . . . , yp )] | det J |1 ,
o det J, appel Jacobien de la transformation,
mires :

y1

x1
.
det J = ..
y1

x
p

est le dterminant des drives partielles pre


yp

x1
..
. o yi = i (x)

yp
xp

Exercice
Soit X = (X1 , X2 ) un couple de deux v.a. indpendantes et de mme loi exponentielle de
paramtre 1.

27

1.2. VECTEURS ALATOIRES





X1 + X2
?
Quelle est la densit de Y = (X) =
X2
En dduire que la loi de X1 + X2 est Gamma(1,2).

Combinaisons linaires de variables alatoires usuelles


Hypothses

Loi de probabilit

Xi binomiale : B(ni , p)
(Xi ) indpendantes ; Y =

k
X
i=1

Xi

Xi de Poisson : P(i )
(Xi ) indpendantes ; Y =

k
X
i=1

Xi normale : N (i , i2 )
(Xi ) indpendantes ; Y =

n
X
i=1

Xi

ai Xi

(Xi ) indpendantes ; Y =

n
X
i=1

Cas particulier :

Xi

Y binomiale B

ni , p

i=1

Y loi de Poisson P

k
X

i=1

Y normale N

k
X

ai i ,

i=1

Cas particulier : i = et i =

n
1X
=
X=
Xi

n i=1
Xi loi gamma : G(a, pi )

k
X

Xi loi de i dd` =

n
X
i=1



2
X normale N , n

Y loi gamma G a,

n
X
i=1

Y loi de

n
X
i=1

i dd`

pi

a2i i2

28

CHAPITRE 1. OUTILS ALGBRIQUES ET PROBABILISTES


Changements de variables alatoires usuels

Hypothses


Xi normales centres rduites N (0, 1)
et indpendantes

Loi de probabilit

X normale N (0, 1)

Y loi de 2 n dd`
=

X et Y indpendantes

X1 loi de 2 n1 dd`

2
X2 loi de n2 dd`
=

X1 et X2 indpendantes
T loi de Student dd` =

1.3
1.3.1

n
X

Xi2 loi de 2 n dd`

i=1

X
q loi de Student n dd`
Y
n

X1
n1
loi de Fisher Snedecor
X2
n1 et n2 dd`
n2
T 2 loi de Fisher 1 = 1 et 2 =

Loi normale dans IR n (Gaussienne)


Diverses caractrisations

Dfinition 1 : Un vecteur alatoire X suit une loi gaussienne dans IR n , si



a1
.. 0
a = . , a X est une v.a. gaussienne relle.
an
Remarque : X gaussien dans IR n = Xi v.a.r. gaussienne i = 1 n.
Exemple : Si X v.a. gaussien dans IR n , A matrice (m n) et B un vecteur de IR n (A et B
non alatoire), alors y = AX + B est un vecteur gaussien de IR n .

1.3. LOI NORMALE DANS IR N (GAUSSIENNE)

29

Notation :
X Nn (, )
E(X) = et V (X) =
Dfinition 2. X Nn (, ) o est une matrice carre symtrique et de rang n si la densit
de X scrit :


1
n/2
1/2
2
fX (x1 , . . . , xn ) = (2)
(det )
exp k x k1
2

x1
..
o x = .
xn

Applications :
1.
2.

Expliciter fX (x1 , x2 ) dans le cas n = 2


Ecrire fX (x1 , . . . , xn ) si les n v.a. Xi sont indpendantes.

Proprit : Dfinition 1 dfinition 2.


() difficile (utilise les fonctions caractristiques)
() on utilise un thorme dalgbre.
symtrique, dfinie positive, inversible matrice A dordre n, symtrique, inversible telle
que
= AA0 = A2 1 = (A1 )2
On considre alors X = Ay + , ce qui est quivalent y = A1 (X )
Il suffit de vrifier que les composantes yi sont N (0, 1) et indpendantes ce qui impliquera
que a0 X = a0 (Ay + ) est gaussien pour tout a, car a0 Ay est gaussien comme combinaison
linaire de v.a. indpendantes gaussiennes.

1.3.2

Non corrlation et indpendance

Thorme 1. Si X N2 (, ), alors cov (X1 , X2 ) = 0 X1 et X2 indpendants.


Dmonstration
()
()

toujours vrai dans le cas de lois quelconques.


cov (X1 , X2 ) = 0 = diag (12 , 22 ).

30

CHAPITRE 1. OUTILS ALGBRIQUES ET PROBABILISTES


La densit scrit :
1
1
f (x1 , x2 ) =
exp
21 2
2

(

x 1 1
1

fX (x1 , x2 )
=
densit conjointe

cest--dire

2

x 2 2
2

2 )

fX1 (x1 ) fX2 (x2 )


produit des densits marginales

X1 et X2 indpendantes



U
Thorme 2. Soit Z =
Nu+w (, ) o U v.a. de IR u et W v.a. de IR w .
W
La loi de U sachant W = w est une loi gaussienne.

Nu E(U ) + cov (U, W )(V (W ))1 (W E(W )),
avec

= V (U ) cov (U, W )(V (W ))1 cov (W, U )

Dmonstration (en exercice pour u = 1 et w = 1)


Consquence du thorme 2

cov (U, W ) = 0

U et W indpendants

Thorme 3. Si U1 et U2 sont 2 sous-vecteurs dun v.a. gaussien U , alors :


U1 et U2 indpendants cov (U1 , U2 ) = 0
Dmonstration
Soient U1 v.a. de IR n1 et U2 v.a. de IR n2 , avec n1 + n2 = n


1 0
()
cov (U1 , U2 ) = 0 V (U ) =
=
0 2
o 1 = V (U1 ) et 2 = V (U2 )

()

()

[V (U )]

1
0
1
0 1
2

= 1



fU (u) = (2)n/2 (det V (U ))1/2 exp 12 (u E(U ))0 (V (U ))1 (u E(U ))
= fU1 (u1 ) fU2 (u2 )

() Immdiat daprs la dfinition de la covariance.

1.3. LOI NORMALE DANS IR N (GAUSSIENNE)

31

1.3.3 Lois de distribution des formes quadratiques


Thorme 1. Thorme de COCHRAN
Soit X Nn (, )
Soit A et B 2 matrices carres symtriques et idempotentes (non alatoires), dordre n.
Soit a un vecteur non alatoire de IR n .
Soit les formes quadratiques Q1 = X 0 AX et Q2 = X 0 BX
Alors :
(i) AB = 0 Q1 et Q2 indpendantes.
(ii) Aa = 0 Q1 et a0 X indpendantes.
Dmonstration


AX
(i) Soit U =
, cest un vecteur gaussien de dimension (2n 1).
BX
cov (AX, BX) = AV (X)B 0 = AB
AB = 0 cov (AX, BX) = 0 AX et BX sont des vecteurs indpendants daprs
thorme 2 du paragraphe prcdent.
Q1 = X 0 AX = X 0 AAX car A idempotente
Q1 = (AX)0 AX
De mme Q2 = (BX)0 BX
Q1 et Q2 sont indpendantes car elles sont fonctions respectivement de AX et BX, qui sont
des variables indpendantes.


AX
(ii) mme dmonstration, si on considre U =
,
a0 X
Thorme 2. Soit X Nn (, )
Alors
(i) k X k21 suit une loi de chi-deux de paramtre n (note 2 (n)).
(ii) Pour
toute matrice A dordre n, symtrique, idempotente, de rang r (r n) :
= In
Si
, alors X 0 AX 2 (r)
=0
Dmonstration :
(i) On utilise le thorme dalgbre sur la dcomposition dune matrice symtrique, dfinie
positive et inversible pour .

32

CHAPITRE 1. OUTILS ALGBRIQUES ET PROBABILISTES


= A A o A inversible, symtrique. On note 1/2 = A1

1 = 1/2 1/2
On pose y = 1/2 (X )
y Nn (0, In )
En effet

E(y) = 1/2 (E(X) ) = 0


V (y) = 1/2 V (X)1/2 = In .

Les v.a.r. y1 , . . . , yn (composants de y) sont indpendantes et de loi N (0, 1).

n
X

yi2 est une v.a.r. qui suit une loi de 2 (n), daprs la dfinition dune loi de chi-deux.

i=1

(ii) La diagonalisation de A donne :



P matrice des vecteurs propres orthogonale


0
A = P LP
o
1 , . . . , n )
L = diag(
0

= P AP matrice des valeurs propres
Soit une valeur propre de A et u le vecteur propre associ : Au = u
Or A idempotente 2 u = u

( 1)u = 0
= 1 ou = 0
Or rang A = r il a r valeurs propres non nulles, donc gales 1.

Soit y = P 0 X,

L=

1
...

0
1
0

..

.
0

1.3. LOI NORMALE DANS IR N (GAUSSIENNE)


on a

33

E(y) = 0

V (y) = P V (X)P 0 = In

car

V (X) = In et P P 0 = In .

Donc y Nn (0, In ).
X 0 AX = X 0 P LP 0 X = (P 0 X)0 L(P 0 X) =

r
X

yir 2(r)

i=1

Car cest la somme des carrs de r v.a.r. N (0, 1) indpendantes.


Application :

Xi N (, 2 )

n
1 X
2
(Xi X)2 2(n1)

i=1
Xi indpendants

34

CHAPITRE 1. OUTILS ALGBRIQUES ET PROBABILISTES

Chapitre 2
Modle linaire
Cadre gnral quand les variables exognes sont non alatoires.
Autre terminologie :
RLM (plusieurs v. exognes quantitatives) : Rgression Linaire Multiple
RLS

(une seule v. exogne quantitative) : Rgression Linaire Simple

2.1

Formulation du modle linaire

Donnes : Pour i = 1, . . . , n

yi
x1 , . . . , xp
|{z}
| i {z }i
endogne(quantitative) exognes

n>p

Modle linaire :
(1)

yi = 1 x1i + + p xpi +

i
|{z}
rsidu, bruit,. . .
(terme derreur)

(i = 1, . . . , n)

Remarques :
On notera y indiffremment la variable alatoire y ou la valeur observe y.
La relation (1) est stochastique :
yi observation dune v.a. yi
i valeur non observable dune v.a. i
35

36

CHAPITRE 2. MODLE LINAIRE


On admet que x1i = 1 pour tout i = 1, n si on considre un terme constant dans (1).
Les coefficients de rgression j (j = 1, p) sont les p paramtres inconnus, estimer.
La relation (1) quivaut considrer que la variable y peut tre approxime par une fonction affine des p variables x1 , . . . , xp ( une erreur prs).

2.1.1 Ecriture matricielle

y
=
X

(n 1)
(n p)
(p 1)
(n 1)

(2)

2.1.2 Hypothses du modle linaire


Le modle linaire relatif aux donnes ( y , X ) est dfini par les 3 hypothses :
(n1) (np)

H1

H2

y = X + (relation (2) de linarit)


X est non alatoire
matrice X

x1i = 1 pour tout i = 1, n

rg(X) = p
H3
Sur les rsidus.
est un vecteur alatoire de IR n tel que :
E() = 0

(centr)

V () = 2 In

o > 0

(nn)

Remarques
Hypothse H2 :
rg(X) = p Les p vecteurs colonnes x1 , . . . , xp sont linairement indpendants.
Donc n p.
Hypothse H3 :
E() = 0 et V () = 2 In .

2.2. ESTIMATEUR DES MOINDRES CARRS ORDINAIRES (MCO)

37

Les rsidus 1 , . . . , n sont des v.a.r :


- centres E(i ) = 0
- de mme variance V (i ) = 2
(HOMOSCEDASTICIT)

- non corrles E(ei ej ) = 0 si i 6= j


Paramtres estimer :

= ... et 2
(p 1)
p

2.2

Estimateur des moindres carrs ordinaires (MCO)

OLSE : Ordinary Least Square Estimator

2.2.1

Dfinition de lestimateur MCO du paramtre

Notation
SS() =k k2In = 0 =

n
X

2i

i=1

La somme des carrs des rsidus SS() scrit encore :


SS() =k y X k2In =

n
X

"

yi

i=1

p
X

xi j

#2

j=1

Dfinition : Lestimateur M CO du paramtre est le vecteur alatoire de IR p qui minimise la


somme des carrs des carts SS().
Cest--dire :
M CO = arg min k y X k2In
IR p

Thorme 1 : Sous les hypothses H1 et H2 , lestimateur MCO, not ou M CO , est :


= (X 0 X)1 X 0 y

38

CHAPITRE 2. MODLE LINAIRE

Dmonstration : La fonction minimiser SS() scrit :


SS() = y 0 y 2 0 X 0 y + 0 X 0 X
Le vecteur qui minimise SS() est solution de :

SS()
= 0 2X 0 y + 2X 0 X = 0
(1)

(p 1)

u0 a

u = a

Justification (cf. Chapitre 1) :
u0 Au

= 2Au si A symtrique

u
Or rg(X) = p X 0 X inversible car de rang p.

Donc (1) X 0 X = X 0 y = (X 0 X)1 X 0 y


2 SS()
= 2X 0 X matrice dfinie positive (cf. exercice 1 TD 1)
()()0
est un minimum unique.
CQFD
Autre dmonstration : SS() peut se dcomposer (cf. exercice 2 TD 4).
SS() = y 0 y y 0 X(X 0 X)1 X 0 y + [ (XX 0 )1 X 0 y]0 (X 0 X)[ (X 0 X)1 X 0 y]
|
{z
} |
{z
}
ne dpend pas de
de la forme u0 (X 0 X)u qui sannule
ssi u = 0(carX 0 X dfinie positive)

Donc le minimum de SS() est atteint pour u = 0 = (X 0 X)1 X 0 y.


Notation : On appelle somme des carrs rsiduelle (ou Residual Sum Squares) le minimum de
la fonction SS() qui est not SCE ou RSS.
= k y X k2
RSS = SS()
In
= y 0 y y 0 X(X 0 X)1 X 0 y

2.2. ESTIMATEUR DES MOINDRES CARRS ORDINAIRES (MCO)

39

2.2.2 Proprits de lestimateur MCO


Thorme 2. Lestimateur = (X 0 X)1 X 0 y est un estimateur sans biais de , de variance
= 2 (X 0 X)1 .
V ()
Dmonstration : ...
Remarque : La proprit doptimalit pour un estimateur sans biais est davoir une variance
minimum. Cette proprit est nonce pour dans le thorme suivant.
Thorme 3. (de Gauss Markov). Lestimateur est meilleur que tout estimateur linaire et
V ()
matrice semi-dfinie positive).
sans biais de (cest--dire V ()
Dmonstration : Soit un estimateur linaire et sans biais de
=
il existe A telle que = Ay et E()
(pn)

Montrons :
V ()]u
0
u IR p , u0 [V ()
V ()]
u
u0 [V ()
= u0 [A V (y) A0 2 (X 0 X)1 ] u
| {z }
2 In




car

= 2 u0 A[In X(X 0 X)1 X 0 ]A0 u

= u0 AE(y) = u0 AX
E(u0 )
(u0 AX u0 ) = 0 u0 AX = u0

= u0 E()
= u0
E(u0 )

Or M = In X(X 0 X)1 X 0 est une matrice symtrique et idempotente (cf. exercice 2 TD


1).
Donc :

2 u0 AM A0 u = 2 k A0 u k2M

= 2 (M A0 u)0 M A0 u = 2 k M A0 u k2In 0
V ()
est une matrice semi-dfinie positive. Donc a une variance minimum dans
Donc V ()
la classe des estimateurs linaires et sans biais de .

2.2.3

Estimation de la variance rsiduelle 2

Thorme : La statistique
2 =

k y X k2In
est un estimateur sans biais de 2 .
np

40

CHAPITRE 2. MODLE LINAIRE

Dmonstration :
E(
2) =

1
E(k y X k2In )
np

1
E(y 0 M y) o M = In X(X 0 X)1 X 0
np

1
1
E[tr(M yy 0 )] =
tr (M E(yy 0 ))
np
np


var y = E[(y X)(y X)0 ] = E(yy 0 ) X 0 X 0

(nn)
(nn)

Or

Var y = 2 I
n
E(yy 0 ) = 2 In + X 0 X 0
tr (M E(yy 0 )) = tr( 2 M ) + tr(M X 0 X 0 ) car M X = [In X(X 0 X)1 X 0 ]X = 0
| {z }
=0

E(
2) =
Or trM

1
2 trM
np

= tr(In X(X 0 X)1 X 0 )


= trIn tr(X(X 0 X)1 X 0 )
= n tr(X 0 X(X 0 X)1 ) = n p
|
{z
}
Ip

E(
2 ) = 2 . Donc
2 est un estimateur sans biais de 2 .
Remarque :
2 =

p
n
X
X
k y X k2In
RSS
=
=
2i o i = yi yi = yi
xji j .
np
np
i=1
j=1

i est le rsidu estim et yi est la valeur ajuste par le modle de rgression.

Estimateur de V ()
k y X k2
d
V ()
=
2 (X 0 X)1 =
(X 0 X)1
np
En particulier :
Lcart-type estim de lestimateur j de chaque coefficient de rgression j est :

41

2.3. INTERPRTATION GOMTRIQUE


p

j =
2 [(X 0 X)1 ]jj qui est appel erreur standard de j , not e.s. (j ).
Le terme [(X 0 X)1 ]ij reprsente le terme gnral de la matrice (X 0 X)1 .

2.3
2.3.1

Interprtation gomtrique
Reprsentation des individus

Chaque individu i (i = 1, . . . , n) est considr dans lespace IR p par ses p coordonnes :


(yi , x2i , . . . , xpi ) IR p

(on ne considre pas x1i = 1)

Lensemble des n points de IR p est appel nuage de points dans IR p .


Reprsentation graphique possible si p = 2 (RLS).
Elle permet :
de visualiser le type de liaison entre y et x2
dapprcier les distances entre individus
Si p > 3, reprsentation graphique difficile utiliser biplot de y en fonction de xj .

2.3.2

Espace des variables


j
y1
x1
..
..
j
Les vecteurs y = . et x = . pour j = 1, . . . , p sont des vecteurs dun espace
yn
xjn
vectoriel E IR n .
Notation : Soit =vect{x1 , . . . , xp } lespace engendr par les vecteurs x1 , . . . , xp .
Proprit 1 : La matrice P = X(X 0 X)1 X 0 est un oprateur de projection In -orthogonal sur
.
Dmonstration : (cf. exercice 2 TD 1).
Remarques :
a. Lestimateur MCO = (X 0 X)1 X 0 y correspond la projection de y sur :
y = P y = X(X 0 X)1 X 0 y = X =

p
X
j=1

j xj

42

CHAPITRE 2. MODLE LINAIRE

Les coefficients j estims sont les coefficients de la combinaison linaire des vecteurs
xj (j = 1, . . . , p).
n
n
X
X
yi =
yi (Dmonstration exercice 2 TD 4)
b.
i=1

i=1

Proprit 2 : Le vecteur colonne unit de IR n tant not 1In = x1 , la projection de y sur la


droite des constantes (sous-espace engendr par x1 ) est y1In .
1In (1In0 1In )1 1In0 y = y1In

cest--dire
Graphique :





 1

Droite des constantes

cos2 =

k y y1In k
k y y1In k2

y y1In

6



y y


 -

y y1In

Proprit : Analyse de la variance de la rgression.


k y y1In k2 =k y X k2 + k X y1In k2
cest--dire

n
X

(yi y) =

|i=1 {z
}
TSS totale

n
X

(yi yi ) +

|i=1 {z
}
RSS rsiduelle

n
X

(
yi y)2

|i=1 {z
}
variation
explique par
la rgression
des p var. xj

43

2.3. INTERPRTATION GOMTRIQUE


Dmonstration : (en exercice 2 TD 4)

2.3.3 Coefficient de corrlation multiple (empirique) ou coefficient de dtermination


Dfinition : Cest le nombre dfini par R2 = cos2 ,

R2 =

n
X

k y y1In k2
= i=1
n
2
X
k y y1In k

(
yi y)2
(yi y)2

i=1

Interprtation : Cest le rapport de la variation explique par la rgression, sur la variation


totale.
Si R2 = 1 = 0 y y = X.
Si R2 ' 0 ' 90 rsidus trs levs modle de rgression linaire
inadapt.
Remarque : Si p = 2, le coefficient R2 nest autre que le carr du coefficient de corrlation
linaire empirique de Pearson (cf. exercice 1 TD 4).

2.3.4

Interprtation et critique de lutilisation de R2

a) Exemple 1 : Pour p = 2, cinq ensembles de donnes (n = 16) ont la mme valeur R2 =


0.617. Et pourtant le modle linaire nest pas toujours satisfaisant (voir figure page 44).
Conclusion : Le critre R2 dajustement un modle linaire est insuffisant.
b) Exemple 2 : Rf. : S APORTA G. (1990), Probabilits, analyse des donnes et statistique,
Editions Technip.
A. Tableau danalyse de variance de la rgression

Rgression
Rsiduelle
Totale

d.d.l.
6
11
17

Somme de carrs Carr moyen


F
520591932,37
86765322,06 4,4691
213563857,91
19414896,17
734155790,28

Sig F
0 ,0156

44

30
25

25

30

CHAPITRE 2. MODLE LINAIRE

10

15
10

10

15

20

25

10

15

20

25

30

30

25
20

15

10

15

20

25

10

0
0

20

15

20

10

15

20

25

10

15

20

25

30

15

10

20

25

10

20

30

F IG . 2.1 Graphique de 5 ensembles de donnes conduisant au mme R2 = 0.617. Rf. :


T OMASSONE R., L ESQUOY E., M ILLIER C. (1983), La rgression : nouveaux regards sur
une ancienne mthode statistique, Masson.

45

2.3. INTERPRTATION GOMTRIQUE


R2 = 0,7091

R2 ajust = 0,5504

= 4406,23.

B. Estimation des paramtres


Variable
Constante
Cylindre
Largeur
Longueur
Poids
Puissance
Vitesse

Coefficient
Ecartestim
type
-8239,362677 42718,42313
-3,505182
5,550595
208,693773
412,047884
-15,037660
129,747488
12,574678
24,622191
282,168803
174,882966
-111,113551
222,256575

T si H0 :
coeff. = 0
-0,193
-0,631
0,506
-0,116
0,511
1,613
-0,500

C. Etude des rsidus estims

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18

ALFASUD-TI-1350
AUDI-100-L
SIMCA-1307-GLS
CITROEN-CG-CLUB
FIAT-132-1600GLS
LANCIA-BETA-1300
PEUGEOT-504
RENAULT-16-TL
RENAULT-30-TS
TOYOTA-COROLLA
ALFETTA-1,66
PRINCESS-1800-HL
DATSUN-200L
TAUNUS-2000-GL
RANCHO
MAZDA-9295
OPEL-REKORD-L
LADA-1300

Prix
30570
39990
29600
28250
34900
35480
32300
32000
47700
26540
42395
33990
43980
35010
39450
27900
32700
22100

Prix estim
29616,1
36259,7
31411,1
26445,8
37043,0
34972,8
33749,1
26580,0
44445,6
24650,2
38270,5
34830,4
44872,4
36343,5
35638,1
32233,4
37103,5
30389,8

Sig T
0,8506
0,5406
0,6225
0,9098
0,6197
0,1349
0,6270

46

CHAPITRE 2. MODLE LINAIRE


D. Calcul du R2 pour diffrents modles
k
1
2
3
4
5
6

Modle
Puis.
Puis., Poids
Cyl., Puis., Poids
Cyl., Puis., Larg., Poids
Cyl., Puis., Larg., Poids, Vitesse
Complet

R2
0,638
0,686
0,699
0,702
0,709
0,709

4076,0
3916,4
3974,4
4103,7
4221,2
4406,2

c) Autres critres : (que lon justifiera dans les chapitres suivants.)


(n 1)R2 (p 1)
coefficient de corrlation multiple (empirique) ajust.
np
R2
np
k y y1In k2 /(p 1)
F =

=
.
1 R2 p 1
k y y k2 /(n p)
Statistique de Fisher (cf. Chapitre 3), cest la statistique du test dgalit zro des (p1)
coefficients 2 = 3 = = p = 0
2
Raj
=

k y y k2
estimateur sans biais de la variance rsiduelle 2 et qui sexprime en
np
2
fonction de Raj
:


2 =

2 = (1 Raj
)

k y y1In k2
n1

(cf. exercice 2 TD 4).

Chapitre 3
Induction statistique dans le modle
linaire
Si on ajoute aux hypothses du modle linaire une hypothse de normalit des rsidus, il est
possible de raliser des tests et des estimations par intervalle de confiance.

3.1

Modle linaire gaussien

3.1.1 Dfinition
H1 ) y = X +

(cf. Chapitre 2)

H2 ) X matrice non alatoire de rang p (avec x1i = 1)


H30 ) Nn (0, 2 In )
Remarque : Lhypothse H30 contient les hypothses H3 du modle linaire :

E() = 0

V (i ) = 2 homoscdasticit

cov (i , j ) = 0 pour i 6= j

Lhypothse H30 les v.a.r. 1 , . . . n sont i.i.d. de loi N (0, 2 )


Autre formulation :
H1 et H30 y Nn (X, 2 In )
47

48

CHAPITRE 3. INDUCTION STATISTIQUE DANS LE MODLE LINAIRE

structure statistique paramtrique :


n
o
n
2
p
+
IR , BIRn , Nn (X, In ), (, ) IR IR
|{z}
|{z} |
{z
}
univers tribu
probabilit
indice par (, 2 )

3.1.2

Estimateur maximum de vraisemblance EM V ou M LE

Proprit : Lestimateur M V du paramtre est gal lestimateur M CO :


M V = (X 0 X)1 X 0 y.
Dmonstration : ...
Notation : Dans tout le chapitre dsigne M CO = M V .
Remarques :
1. Lestimateur M V du paramtre 2 est

k y X k2

Dmonstration : (en exercice)


Cest un estimateur asymttiquement sans biais et convergent en probabilit.
k y X k2
estimateur sans biais (cf. Chapitre 2).

2 =
np
2. Les estimateurs et
2 sont des estimateurs efficaces.
Dmonstration : (en exercice)

3.1.3

Loi de probabilit des estimateurs

Proprit 1 : Lestimateur = (X 0 X)1 X 0 y est un vecteur alatoire gaussien de IR p


Np (, 2 (X 0 X)1 )
Dmonstration : (cf. Chapitre 1, III), Combinaison linaire de v.a. indpendantes gaussiennes.
k y X k2
Proprit 2 : La v.a.r.
suit une loi de chi-deux (n p) d.d.`.
2
cest--dire :
(n p)
2
2(np)
2

49

3.1. MODLE LINAIRE GAUSSIEN


Dmonstration :
k y X k2 = (y X)0 M (y X)
o

M = In X(X 0 X)1 X 0

k y X k2 = 0 M car = M

(rang M = n p)

Daprs le thorme de COCHRAN (chapitre 1)

Donc

1
Nn (0, In )

M matrice symtrique idempotente de rang n p

1 0
M 2(np)
2

1
k y X k2 2(np)
2

Remarques :
On retrouve
2

E(
)=E

en effet

k y X k2
np

E(
2) = 2
E(Z) = si Z 2()

On calcule V (
2) =

2
np

E
|


1
2
k
k y X
2
{z
}

2 2
np

En effet V (Z) = 2 si Z 2()


!
2
k2

k
y

V (
2) = V

np
2
!
4
k y X k2
V
=
(n p)2
2
4
=
2(n p)
(n p)2
2 4
=

np

np

50

CHAPITRE 3. INDUCTION STATISTIQUE DANS LE MODLE LINAIRE

Proprit 3 :
Les v.a. et
2 sont indpendantes.
Dmonstration : On considre les vecteurs gaussiens
y X = M y = M

de IR n

(X 0 X)1 X 0

de IR p

et
Ils sont centrs car E() = 0.
Calcul de la matrice de covariance de ces 2 vecteurs (de dimension n p.)
(X 0 X)1 X 0 )
cov (y X ,
= cov (M , (X 0 X)1 X 0 )
= E[M ((X 0 X)1 X 0 )0 ] 0
= E[M 0 X(X 0 X)1 ]
= M E(0 )X(X 0 X)1 = M 2 Id X(X 0 X)1
= 2 M X(X 0 X)1 = 0 car M X = 0

Donc cov (u, w) = 0

u et w indpendants (cf. chapitre 1)

u et w vecteurs gaussiens
y X

et

(X 0 X)1 X 0 indpendants

y X

et

indpendants

k y X k2

et

indpendants

et

indpendants

Proprit 4 :
Pour j = 1, . . . , p, la v.a.r
Tj =

j j
suit une loi de Student de paramtre n p

jj

51

3.1. MODLE LINAIRE GAUSSIEN


o jj jme lment diagonal de (X 0 X)1

Remarque :
jj = e.s.(j ) =
j
Proprit 5 :

1
Soit L une matrice q p de rang q (q < p). La v.a.r. 2 [L( )]0 [L(X 0 X)1 L0 ]1

[L( )] suit une loi de chi-deux de paramtre q ( ).


(q)

Dmonstration :
rang (L) = q rang[L(X 0 X)1 L0 ] = q (cf. chapitre 1).
L est un vecteur alatoire gaussien de IR q
= L Var L
0 = 2 L(X 0 X)1 L0 qui est inversible car dfinie positive de rang q.
Var (L)
L Nn (L, 2 L(X 0 X)1 L0 )
[L L]0

1
[L(X 0 X)1 L0 ]1
2

[L L] 2(q)

daprs le thorme de COCHRAN (chapitre 1).

3.1.4

Estimation par intervalle de confiance (IC)

Proprit 1 : Un IC au coefficient de scurit = 1, dun coefficient j (pour j = 1, . . . , p)


est :

[j tnp; 2
jj , j + tnp; 2
jj ]
o

jme lment diagonal de (X 0 X)1

jj
tnp ;

valeur dune v.a. de Student de paramtre n p qui est dpasse

avec une probabilit


2

Dmonstration : dcoule de la proprit 4 du paragraphe prcdent et de la proprit (chapitre

1) de changement de variable : rapport dun v.a. normale et de la


dune v.a. de 2 .

52

CHAPITRE 3. INDUCTION STATISTIQUE DANS LE MODLE LINAIRE

Proprit 2 : Rgion de confiance (R.C) pour q paramtres j (q p). Une R.C au coefficient
de scurit = 1 , de q coefficients j1 , . . . , jq est :

Jq, (Lq ) =

[Lq ( )]0 [Lq (X 0 X)1 L0q ]1 [Lq ( )]


q
Lq IR /
Fq;np;
q
2

est la matrice (q p) telle que les lments : (Lq )iji = 1 et les


autres sont gaux zro.

o Lq

Fq;np;

est la valeur dune v.a. de Fisher (q; n p) qui est dpasse avec
un probabilit .

Dmonstration : rsulte de la proprit 5 du paragraphe prcdent et de la proprit de changement de variable (chapitre 1)

Application sur lexemple 2 du chapitre 2.


Au coefficient de scurit = 95%, construire :
1. I.C. de 2 (coefficient de la v.a.r. cylindre).
2. R.C. de 2 , 3 (coefficients des v.a.r. cylindre et puissance).
1. I.C. de 2
n = 18 p = 7.

jj
, 2 + tnp; 2
jj
2 tnp; 2
|{z}

| {z }
}
3.505 t | {z=2.201

11;2.5%

erreur standard
5.55
f(t)

2.5%

2.201

2.5%

+2.201

53

3.1. MODLE LINAIRE GAUSSIEN


I.C. de 2 au coefficient de scurit 95% :
[15.7 ,

+8.7]

Remarque : 0 [15.7 , +8.7]


La valeur 0 est une valeur possible du paramtre j .
2. R.C. de 2 et 3



2 2
0 1 0
0

L2 =
L2 (2 ) =
0 0 1 0 0
3 3




1
2 2

F2;11;5%
J2; (2 , 3 ) = (2 , 3 )/ 2 (2 2 3 3 )
2

3 3


22 23
0
1 0
est linverse de L2 (X X) L2 =
avec (ij ) = (X 0 X)1 .
32 33



2 = 3.5 3 = 282.17
2 22 = 5.552

F2;11;5% = 3.98

2 33 = 174.882

2 23 =
2 32 = 42.1



J2; (2 , 3 ) = (2 , 3 )/(3.5+2 )2 1 +(3 282.17)2 2 +3 (3.52 )(282.173 ) 4
o 1 , 2 , 3 , 4 sont dtermins par le calcul.
3

282.17

2
0
3.5

Ellipsode de confiance

54

CHAPITRE 3. INDUCTION STATISTIQUE DANS LE MODLE LINAIRE

3.1.5 Prvision pour une valeur future x0 = (x10 , . . . , xp0 )0


La valeur prdite (ou ajuste) est :

x10

o x0 = ...
xp0

y0 = x00

Lintervalle de prvision de y0 = x00 + e0 est alors (au coefficient de scurit = 1 ) :

[x00 tnp; 2
0 ; x00 + tnp; 2
0 ]
o 0 = 1 + x00 (X 0 X)1 x0 qui se dduit de la variance de y0 :
+ var e0
var (y0 ) = var (x00 )
0 + 2
= x00 var x
= 2 x00 (X 0 X)1 x0 + 2 = 2 0

3.2 Tests dhypothses


3.2.1

Estimation sous contrainte linaire

On souhaite estimer le paramtre sous contrainte linaire.


Exemples :
Ecriture matricielle
1 = 0 (1 0 0) = 0

(1)

(2)

(3)


1 0 0
0

0
1 = 2 = 3 = 0 0 1 0 =
0 0 1
0 0
0
1 + 2 = 6
22 3 = 9

1 1 0
0 2 1

Contrainte linaire :
R = r

6
9

55

3.2. TESTS DHYPOTHSES


o

R est une matrice q p de rang q


r est un vecteur q 1
R et r sont connus

Cette criture matricielle signifie que lon impose un ensemble de q contraintes linaires sur les
coefficients j .
Proprit : Si la matrice R(q p) est de rang q, lE.M.C.O. contraint par R = r, que lon
notera c , est gal :

c = + (X 0 X)1 R0 [R(X 0 X)1 R0 ]1 (r R)


o

= (X 0 X)1 X 0 y est lE.M.C.O. (non contraint)

Dmonstration : (en exercice)


ide : on minimisera k y X k2 20 (R r)
o est un vecteur de q multiplicateurs de Lagrange.

3.2.2

Test de student de signification dun coefficient j

On souhaite tester :
H0 : j = 0 contre H1 : j 6= 0
qui est un test bilatral de signification de j . Dans ce cas la contrainte R = r peut scrire
pour R = (0 0 0 |{z}
1 0 0) et r = 0.
jme

Rgle de dcision, au niveau :




j
on rejette H0 si t =
> tnp; 2

j
Dmonstration : dcoule des proprits du paragraphe 1.
Remarque : On pourra construire un test unilatral ( titre dexercice) pour lhypothse alternative H1 : j > 0.

56

CHAPITRE 3. INDUCTION STATISTIQUE DANS LE MODLE LINAIRE

3.2.3 Test de Fisher de signification de plusieurs coefficients


Soit q coefficients j1 , . . . , jq
On souhaite tester :

(q p).

H0 : j1 = j2 = = jq = 0 contre H1 : j {j1 , . . . , jq } tel que j 6= 0


Lhypothse H0 scrit matriciellement R = r,

0 1
0 0
0 0
0
1
0

o R = ..
.
(qp)
0 1
0

et

0

r = ...
(q1)
0

Remarque : Si H0 est vraie, alors R = 0 et donc R doit tre proche de 0.


Donc la premire ide intuitive du test de H0 cest de rejeter H0 si la norme de R est trop
grande. On rappelle :
R Nq (

)
R
,
2 R(X 0 X)1 R0
|{z}
{z
}
|
R = 0
inversible
si H0 vraie (df. positive de rang q)

Rgle de dcision, au niveau .


on rejette H0 si Fq =

0 [R(X 0 X)1 R0 ]1 R
[R]
>
q
2

F
| q;np;
{z }
F de Fisher,
dpass avec une
probabilit .

Remarques :
1. Ce rsultat se dduit de la proprit 5 paragraphe 1 et de la proprit du rapport de 2 lois
de chi-deux.
2. On retrouve le cas particulier pour 1 coefficient : H0 : j = 0.
En effet :
R = j ,
q=1
0
1 0 1
[R(X X) R ] = (jj )1 o jj = ((X 0 X)1 )jj
j2
j2
F1 = 2
=

jj
e.s.(j )

57

3.2. TESTS DHYPOTHSES


F1;np; = t2np; (cf. proprit chapitre 1 : T Student T 2 Fisher).

Ce test peut tre justifi par une deuxime ide intuitive. On doit rejeter H0 si lcart entre
la RSSc dans le modle contraint et la RSS dans le modle non contraint, est trop grand
(ce qui revient lcart entre X c et X trop grand).
Dans le modle contraint (si H0 est vraie) : R = r = 0.
RSSc =k y X c k2In o c = (X 0 X)1 R0 [R(X 0 X)1 R0 ]1 R
Dans le modle sans contrainte
RSS =k y X k2In =
2 (n p)
Proprit : (dmonstration en exercice).
0 [R(X 0 X)1 R0 ]1 R
RSSc RSS =k X X c k2 = (R)
Formulation du test de Fisher quivalente :
on rejetteH0 si Fq =

(RSSc RSS)/q
> Fq;np;
RSS/(n p)

Remarque : Dans le cas q = p1 et {j1 , . . . , jq } = {2, . . . , p} la statistique de Fisher scrit :


P
R2
np
(
yi yi )2 /(p 1)
P
Fp1 =

=
1 R2 p 1
(
yi yi )2 /(n p)
o R2 est le coefficient de corrlation multiple empirique (cf. Chapitre 2).

3.2.4

Test de Fisher dune hypothse linaire gnrale

Le raisonnement est le mme que dans le paragraphe prcdent mais pour lhypothse :
H0 : R = r
contre

R matrice (q p) de rang q

H1 : R 6= r

La rgle de dcision de rejet de H0 au niveau est :


On rejette H0 si Fq =

(R r)0 [R(X 0 X)1 R0 ]1 (R r)/q


> Fq;np,
k y X k2 /(n p)

58

CHAPITRE 3. INDUCTION STATISTIQUE DANS LE MODLE LINAIRE

Remarque : Fq peut encore scrire :


Fq =

(RSSc RSS)/q
(k y X c k2 k y X k2 )/q
=

2
k y X k2 /(n p)

o c est lestimateur M CO contraint par H0 : R = r

cest--dire c = + (X 0 X)1 R0 [R(X 0 X)1 R0 ]1 (r R)

3.3 Critiques du modle linaire gaussien


Hypothse de linarit ?
Hypothse sur les rsidus :
Normalit ?
Mme variance ?
Non corrlation ?
Quel sous-ensemble de variables exognes faut-il retenir ?

3.3.1

Test de linarit

On peut tester lhypothse de linarit, dans le cas o on dispose de mesures rptes de la


variable expliquer :
pour chaque
x` = (x1` , . . . , xp` )
` = 1, L

y`1 , . . . , y`n`
{z
}
|
n` mesures
L
X
rptes (n =
n` )
`=1

(n > L > p)
Modle linaire gaussien :
y`r = (1 x1` + + p xp` ) + e`r
|{z}
i.i.d
pour ` = 1, L et r = 1, n`

59

3.3. CRITIQUES DU MODLE LINAIRE GAUSSIEN


Ecriture matricielle :
y = X + e

y11
..
.

y1n1

y21
.
.
.
y=

y2n2
.
..

L1
..
.
yLnL

X(np)

x11
..
.
1
x1
1
x2
.
.
.
= 1
x2
.
..

x1
L
..
.
x1L

xp1

x21
x21
x22

xp1
xp2

x22

xp2

x2L xpL
x2L xpL

n1 fois

n2 fois

..
.


nL fois

On veut prouver les 2 hypothses :


H0 : y = X + e (la liaison entre y et x est
 linaire), 
` = 1, L
contre H1 : y`r = m(x1` , . . . , xp` ) + e`r
(la liaison entre y` et x` est traduite
r = 1, n`
laide dune fonction m quelconque de IR p dans IR qui nest pas une application linaire).
Remarque : On estime les paramtres par :
sous H0 : estimateur M CO : = (X 0 X)1 X 0 y
n`
1 X
sous H1 : m(x
`) = y` =
y`
n` r=1 r
Rgle de dcision, au niveau
L
X

On rejette H0 si

n` (
y` y ` )2 /(L p)

`=1
n`
L
XX

> FLp;nL;
2

(y`j y ` ) /(n L)

`=1 j=1

o y` = 1 x1` + + p xp`
Remarque :
n`
L X
X

(y`j y` ) =

{z

`=1 j=1

n`
L X
X
`=1 j=1

2
kyX k

( dmontrer en exercice).

(y`j y ` ) +

L
X
`=1

n` (
y` y ` )2

60

CHAPITRE 3. INDUCTION STATISTIQUE DANS LE MODLE LINAIRE

3.3.2 Analyse des rsidus


Les rsidus thoriques ei sont estims par ei = yi yi qui ne sont pas de variance constante
et qui sont corrls.
E(
ei ) = 0

cov (
ei , ej ) = 2 pij

var (
e) = 2 (In X(X 0 X)1 X 0 )
|
{z
}
var ei = 2 (1 pii )
P

si i 6= j

avec P = (Pij ).
Dfinitions :

1. On appelle rsidus standardiss :


ri =

yi yi

i = 1, . . . , n.

2. On appelle rsidus studentiss :


yi yi
Ti =

1 pii
o
2 =

i = 1, . . . , n

k y X k2
et pii lment diagonal de P = X(X 0 X)1 X 0
np

3. On appelle rsidus studentiss par validation croise


Ti =

yi yi

(i) 1 pii

i = 1, . . . , n

o
(i) est lestimation de dans le modle linaire gaussien obtenu en supprimant lobservation i. Ce modle est not ( y(i) , X(i) , 2 In1 )
(n1)1

Remarque : y(i) est la ime composante de


0
0
y(i)
X(i) (X(i)
X(i) )1 X(i)

cf. exercice

Proprit : Sous lhypothse y Nn (X, 2 In ) les v.a. Ti (rsidus par validation croise)
sont identiquement distribues de loi de student n p 1 d.d.`.
Dmonstration : cf Rgression non linaire et applications, Antoniadis et al.

61

3.3. CRITIQUES DU MODLE LINAIRE GAUSSIEN

Dans la pratique, on utilisera les rsidus studentiss Ti de la mme faon que les rsidus Ti
par validation croise, pour contrler les hypothses faites dans le modle gaussien (les v.a. Ti
sont considres comme des v.a. de Student quand n est grand)
Lanalyse des rsidus consiste alors raliser des graphiques sur les rsidus Ti ou Ti , pour
vrifier lhypothse
y N (X, 2 In )

Densit dune loi de Student (np1)

Min

Q
1

Me Q3

t*
i

Max

Graphique 1
Histogramme (liss) et bote moustaches
de la srie empirique des rsidus ti

62

CHAPITRE 3. INDUCTION STATISTIQUE DANS LE MODLE LINAIRE


t*
i
2
1
0
i
1
2

Graphique 2
Trac chronologique des ti
(uniquement si lordre est connu, cas des sries temporelles)
Dans lexemple, amas de rsidus positifs, puis ngatifs hypothse de non corrlation des
rsidus incorrecte.

63

3.3. CRITIQUES DU MODLE LINAIRE GAUSSIEN


Graphique 3
Bi-plot des rsidus ti en fonction de yi
t*
i
2
1
0

^y

1
2

Ajustement satisfaisant

t*
i

t*
i

^y

0
i

Hypothse de linarit
ou de non corrlation incorrecte

^y

Hypothse dhomognit
des variances des rsidus incorrecte

64

CHAPITRE 3. INDUCTION STATISTIQUE DANS LE MODLE LINAIRE

3.3.3 Dtection de valeurs aberrantes ou influentes


Un exemple de valeur aberrante et de valeur influente a t prsent dans le chapitre 2 (cf.
exemple 1). La dfinition de valeur aberrante varie dun auteur lautre ; dans le cadre de ce
cours, nous choisirons la dfinition suivante :
Dfinition : Etant donn un niveau , une donne aberrante est un point (yi , xi ) pour lequel la
valeur du rsidu rduit ti nappartient pas lintervalle suivant :
[tnp1; 2 , +tnp1; 2 ]
Remarque : Un graphique bi-plot des rsidus ti (ou ti ) en fonction de yi (ou de yi ) permet de
dtecter les donnes aberrantes.
Donne influente : Une donne sera dite influente si le terme pii est grand.

x1i
n

X
Exercice : Montrer que pii = x0i (X 0 X)1 xi o xi = ... et
pii = p.
p
i=1
xi
Une donne influente intervient fortement dans les rsultats de lajustement car :
yi yi
y = P y ; var i = 2 (1 pii ) ; Ti =

1 pii
Il existe plusieurs rgles pour reprer si une donne (yi , xi ) est influente et pour prciser pii
grand. A titre dexemple, on donne la distance de COOK trs utilise dans la pratique :
Ci =

1
pii

T2
p 1 pii i

Une donne (yi , xi ) sera influente si Ci > s o s est un seuil, au choix du statisticien.
Ci
s

^y

3.3. CRITIQUES DU MODLE LINAIRE GAUSSIEN

65

Exemple : s = Fp;np; (v.a.r. de Fisher p et n p d.d.`. qui est dpasse avec une probabilit
)
Remarques :
1 k y y(i) k2
1. Ci =
p

2
2. Dans les logiciels, des rgles quivalentes celles de COOK sont utilises avec des seuils
s qui sont fonction du caractre trs influent ou anormalement influent.

3.3.4

Slection des variables exognes

Pour avoir un modle plus stable et ayant un bon pouvoir prdictif, lobjectif est dliminer
les variables redondantes.
a)

Recherche exhaustive :
2p 1 modles linaires possibles

Si on envisage tous les sous-ensembles de k variables exognes parmi les p rgresseurs :


Critres de choix de modle
1. Test dun modle M0 contre un modle M1 (avec M0 M1 )
2. Si lobjectif est de minimiser lerreur de prvision (moyenne quadratique) pour une ob 2 ]. On utilise le
servation future y0 = x00 + e0 dfinie par : M SEP (y0 ) = E[(y0 x00 )
n
1X
critre PRESS qui est un estimateur sans biais de M SEP (y) =
E[(yi yi )2 ], qui
n i=1
scrit :
n
1 X (yi yi )2
P RESS =
n i=1 (1 pii )2
o

pii = x0i (XX)1 xi et y = X = X(X 0 X)1 X 0 y

Remarques :
La v.a. PRESS est un estimateur sans biais de M SEP (y).
Parmi tous les modles linaires correspondant aux sous-ensembles de k variables exognes (k p), on choisira le modle correspondant la valeur PRESS minimum.

2 X 2
P RESS =
T
n i=1 i
o

yi yi
Ti =

1 pii

rsidu studentis

66

CHAPITRE 3. INDUCTION STATISTIQUE DANS LE MODLE LINAIRE


3. Autres critres de choix de modles linaires
Le coefficient R2 de dtermination uniquement si les modles linaires ont le mme
nombre k de paramtres non lis
R2 =

(
yi y)2
(yi y)2

R2 ajust maximum ou
2 minimum (cf. Chapitre 2).
Cp Mallows minimum
(yi yi )2
Cp =
+ 2p

2
o
2 est un estimateur de 2 .
Critre AIC (dAkaike) minimum.
2
AIC(Mk ) = log
M
+ 2k
k
|{z} n

Estimation de la variance
rsiduelle dans le modle Mk
contenant k coefficients de rgression.
b)

Recherche par mthode pas pas : (step technique)

Mthode ascendante : On introduit la variable explicative la plus corrle (linairement) avec y.


On ajoute ensuite la variable qui fait progresser le plus le coefficient R2 .
A chaque tape on teste (test de Student) la signification de chaque coefficient de rgression.
Mthode descendante : Dans le modle linaire contenant les p variables explicatives,
on limine la variable correspondant au t de Student le moins significatif.
On recalcule les estimations des coefficients dans le modle linaire ayant p 1 variables.
On recommence jusqu ce que tous les coefficients soient significatifs.

67

3.3. CRITIQUES DU MODLE LINAIRE GAUSSIEN


Application : Exemple 2, analyse des rsultats obtenus par le logiciel SAS.
A. Ajustement du modle complet

Variable

Coefficient
Ecartestim
type
Constante -8239,362677 42718,42313
Cylindre
-3,505182
5,550595
Largeur
208,693773
412,047884
Longueur
-15,037660
129,747488
Poids
12,574678
24,622191
Puissance
282,168803
174,882966
Vitesse
-111,113551
222,256575

T si H0 :
coeff. = 0
-0,193
-0,631
0,506
-0,116
0,511
1,613
-0,500

Sig T
0,8506
0,5406
0,6225
0,9098
0,6197
0,1349
0,6270

Facteur
dinflation*
0
3,77201352
11,11881980
7,20419514
4,19760475
9,95728271
6,37511213

2
Rj carr du coefficient de corrlation multiple
1

* facteur dinflation :
1 Rj2 de la variable xj et des (p 2) autres.
Mais : le test de H0 : 2 = 3 = = 7 = 0 est significatif 5 % (P (F > 4.489) = 0.016).
Rsidus

ALFASUD-TI-1350
AUDI-100-L
SIMCA-1307-GLS
CITROEN-CG-CLUB
FIAT-132-1600GLS
LANCIA-BETA-1300
PEUGEOT-504
RENAULT-16-TL
RENAULT-30-TS
TOYOTA-COROLLA
ALFETTA-1.66
PRINCESS-1800-HL
DATSUN-200L
TAUNUS-2000-GL
RANCHO
MAZDA-9295
OPEL-REKORD-L
LADA-1300

PRIX

PRIX
ESTIME

E-TYPE
PREDICT

LIMITE
INF 95%

LIMITE
SUP 95%

RESIDU

RESIDU
STUDENT.

30570
39990
29600
28250
34900
35480
32300
32000
47700
26540
42395
33990
43980
35010
39450
27900
32700
22100

29616,1
36259,7
31411,1
26445,8
37043,0
34972,8
33749,1
26580,0
44445,6
24650,2
38270,5
34830,4
44872,4
36343,5
35638,1
32233,4
37103,5
30389,8

2914,0
3572,5
2486,0
2259,2
2160,8
2707,1
1945,4
2760,8
3683,5
3039,9
3006,8
2018,2
3343,6
2320,9
2453,2
2726,5
2535,7
2755,1

17989,1
23774,5
20276,0
15547,2
26241,5
23590,7
23147,9
15135,5
31805,2
12868,1
26529,5
24163,5
32698,3
25382,4
24538,2
20828,9
25914,2
18952,0

41243,1
48744,8
42546,3
37344,3
47844,5
46355,0
44350,3
38024,5
57086,0
36432,4
50011,4
45497,4
57046,6
47304,6
46737,9
43638,0
48292,8
41827,6

953,891
3730,345
-1811,149
1804,249
-2142,997
507,166
-1449,145
5420,043
3254,423
1889,759
4124,538
-840,418
-892,423
-1333,489
3811,935
-4333,420
-4403,495
-8289,814

0,2886
1,4463
-0,4978
0,4769
-0,5581
0,1459
-0,3665
1,5783
1,3459
0,5925
1,2806
-0,2146
-0,3110
-0,3560
1,0415
-1,2519
-1,2220
-2,4108

DISTANCE
DE COOK
0,009
0,573
0,017
0,012
0,014
0,002
0,005
0,230
0,600
0,046
0,204
0,002
0,019
0,007
0,070
0,139
0,106
0,533

68

CHAPITRE 3. INDUCTION STATISTIQUE DANS LE MODLE LINAIRE


B. Recherche exhaustive
k
1
2
3
4
5
6

R2
0,638
0,686
0,699
0,702
0,709
0,709

Modle
Puis.
Puis., Poids
Cyl., Puis., Poids
Cyl., Puis., Larg., Poids
Cyl., Puis., Larg., Poids, Vitesse
Complet

4076,0
3916,4
3974,4
4103,7
4221,2
4406,2

C. Modle le meilleur (pour le critre


ou P RESS) :
Prixi = 1 + 2 Puisi + 3 Poidsi + ei

i = 1, . . . , 18.

Rsidus

ALFASUD-TI-1350
AUDI-100-L
SIMCA-1307-GLS
CITROEN-CG-CLUB
FIAT-132-1600GLS
LANCIA-BETA-1300
PEUGEOT-504
RENAULT-16-TL
RENAULT-30-TS
TOYOTA-COROLLA
ALFETTA-1.66
PRINCESS-1800-HL
DATSUN-200L
TAUNUS-2000-GL
RANCHO
MAZDA-9295
OPEL-REKORD-L
LADA-1300

PRIX

PRIX
ESTIME

LIMITE
INF 95%

LIMITE
SUP 95%

RESIDU

30570
39990
29600
28250
34900
35480
32300
32000
47700
26540
42395
33990
43980
35010
39450
27900
32700
22100

29752,5
34738,6
30811,1
27280,2
36904,9
33726,2
34523,4
27904,5
45630,9
24696,5
38067,3
35042,3
44204,9
36493,6
34186,3
34145,9
37497,6
29248,2

20216,0
26136,2
21981,3
18325,9
28170,9
25139,5
25565,3
18637,2
36023,3
15274,9
28559,2
26191,4
34599,8
27676,7
25431,9
25549,8
28742,6
20470,3

39289,0
43341,0
39640,9
36234,6
45638,9
42312,8
43481,4
37171,8
55238,6
34118,1
47575,3
43893,1
53810,1
45310,6
42940,8
42742,0
46252,6
38026,2

817,5
5251,4
-1211,1
969,8
-2004,9
1753,8
-2223,4
4095,5
2069,1
1843,5
4327,7
-1052,3
-224,9
-1483,6
5263,7
-6245,9
-4797,6
-7148,2

RESIDU
STUDENT.
0,2504
1,3845
-0,3294
0,2687
-0,5381
0,4614
-0,6164
1,1937
0,6429
0,5524
1,3183
-0,2871
-0,0699
-0,4028
1,4166
-1,6453
-1,2913
-1,9302

DISTANCE
DE COOK
0,009
0,042
0,005
0,004
0,010
0,004
0,023
0,144
0,066
0,038
0,245
0,004
0,001
0,007
0,074
0,058
0,062
0,147

Paramtres estims
Variable
POIDS
PUIS
(Constant)

paramtre
16,451161
172,967225
1775,601201

cart-type
10,774488
72,419998
8030,952416

T
1,527
2,388
0,221

Sig T
0,1476
0,0305
0,8280

69

3.3. CRITIQUES DU MODLE LINAIRE GAUSSIEN


D. Rgression pas pas ascendante
Les analyses ont t ralises avec le logiciel SPSS.

* * * *

M U L T I P L E

Equation Number 1
Block Number 1.
CYL
LAR

R E G R E S S I O N

Dependent Variable..
Method:
LON

Stepwise
POIDS

* * * *

PRIX

Criteria
PIN 0,1500
PUIS
VITESSE

POUT 0,2000

Variable(s) Entered on Step Number


1..
PUIS
Multiple R
0,79870
R Square
0,63792
Adjusted R Square
0,61529
Standard Error
4076,00771
Analysis of Variance
DF
Regression
1
Residual
16
F =

Sum of Squares
468334369,05604
265821421,22173

28,18941

Mean Square
468334369,05604
16613838,82636

Signif F = 0,0001

------------------ Variables in the Equation -----------------Variable


PUIS
(Constant)

SE B

Beta

257,589788
12363,652921

48,516071
4215,922818

0,798700

Sig T

5,309 0,0001
2,933 0,0098

------------- Variables not in the Equation ------------Variable


CYL
LAR
LON
POIDS

Beta In

Partial

Min Toler

Sig T

0,006334
0,179298
0,223392
0,342858

0,006363
0,254366
0,284837
0,366762

0,365384
0,728734
0,588654
0,414327

0,025
1,019
1,151
1,527

0,9807
0,3245
0,2678
0,1476

70

CHAPITRE 3. INDUCTION STATISTIQUE DANS LE MODLE LINAIRE

VITESSE

-0,322784

-0,287389

0,287023

-1,162

0,2634

Variable(s) Entered on Step Number


2..
POIDS
Multiple R
0,82863
R Square
0,68663
Adjusted R Square
0,64484
Standard Error
3916,33023
Analysis of Variance
DF
Regression
2
Residual
15
F =

Sum of Squares
504091153,79101
230064636,48677

16,43314

Mean Square
252045576,89550
15337642,43245

Signif F = 0,0002

------------------ Variables in the Equation -----------------Variable

SE B

Beta

16,451161
172,967225
1775,601201

10,774488
72,419998
8030,952416

0,342858
0,536314

POIDS
PUIS
(Constant)

Sig T

1,527
2,388
0,221

0,1476
0,0305
0,8280

------------- Variables not in the Equation ------------Variable


CYL
LAR
LON
VITESSE

Beta In

Partial

Min Toler

Sig T

-0,205562
0,044471
0,008787
-0,159514

-0,196994
0,055281
0,007772
-0,133170

0,287794
0,275311
0,172546
0,117236

-0,752
0,207
0,029
-0,503

0,4646
0,8389
0,9772
0,6230

End Block Number

PIN =

0,150 Limits reached.

Remarque : Au niveau 15 %, on rejette lhypothse H0 : le modle M1 est bon pour considrer que le modle M2 est meilleur que le modle M1 .
Test de Fisher de H0 : 2 = 0 contre 2 6= 0
F =

(RSS1 RSS2 )/1


= 2.33 > F1;15;0.15
RSS2 /15

Chapitre 4
Modles linaires gaussiens particuliers
On considre le cas o les variables exognes peuvent tre des variables qualitatives, cest-dire des variables indicatrices dites auxiliaires.
Exemple : Considrons le modle linaire simple relatif une srie chronologique comportant une tendance linaire et une composante saisonnire trimestrielle (par exemple le volume
dimportations ou le nombre de chmeurs ou le prix des biens alimentaires,. . .) :
t = 1, . . . , n
s = 1, . . . , 4

yts = a + bt + s + ets

indice du mois
indice du trimestre

o les paramtres s reprsentant leffet de la saison s vrifient la contrainte

4
X

s = 0.

s=1

Ecriture matricielle : Expliciter X dans le modle linaire suivant :


y = X + e

y =

(n1)

y11
y21
y31
y41
y52
..
.
yn4

(51)

Remarque : Si on nimpose pas la contrainte

4
X

a
b
1
2
3

e=

e11
e21
e31
e41
e52
..
.
en4

s = 0, pour que la matrice X soit de rang

s=1

5, il faut contraindre par exemple le terme constant : a = 0.


71

72

CHAPITRE 4. MODLES LINAIRES GAUSSIENS PARTICULIERS


Dans ce cas le modle scrit :
y = X + e

o X =

1
2
3
4
5
6
..
.
..
.

1
1
1
1
0
0
..
.
..
.

0
0
0
0
1
1
..
.
..
.

0
0
0
0
0
0
..
.
..
.

0
0
0
0
0
0
..
.
..
.

1
2 3 4 5
] et =
= [x
2
|x x {zx x}

variables indicatrices

de la saison trimestre

4.1 Analyse de variance un facteur


La variable endogne est explique par une variable qualitative ayant I modalits, appele
facteur explicatif ou cause contrle ou variable indicatrice auxiliaire.

4.1.1

Exemple

On considre une tude sur les salaires de responsables de ventes auprs de 6 entreprises.
On a obtenu le tableau des salaires annuels bruts en centaine de FF :
Entreprise i

1602
1615
1624
1631

1472
1477
1485
1493
1496
1504
1510

1548
1555
1559
1563
1575

1435
1438
1448
1449
1454
1458
1467
1475

1493
1498
1509
1516
1521
1523

1585
1592
1598
1604
1609
1612

Question : Peut-on considrer que les salaires moyens dun responsable de ventes diffrent suivant
le type dentreprise ?

73

4.1. ANALYSE DE VARIANCE UN FACTEUR

On souhaite donc tudier linfluence du type dentreprise sur la variable salaire. Le type
dentreprise est un facteur ayant 6 niveaux.

4.1.2 Approche intuitive de lanalyse de variance


Notations : n : nombre total dindividus.
yij : observation de la variable alatoire correspondant au salaire du jme individu dans le
niveau i (i = 1, . . . , I; j = 1, . . . , ni ).
ni : nombre dindividus du niveau i (n =

I
X

ni ).

i=1

yi =

1
ni

ni
X

yij ; y =

j=1

1
n

ni
I X
X

yij =

i=1 j=1

1
n

I
X

y i ni .

i=1

Equation danalyse de variance


(E)

ni
I X
X

(yij y)2 =

ni
I X
X

(yij y i )2 +

{z

{z

i=1 j=1

i=1 j=1

VARIATION TOTALE

I
X

|i=1

ni (y i y)2
{z

VARIATION INTRA

VARIATION INTER

(effet du hasard)

(effet du facteur x)

Si le facteur x a un effet sur la variable exogne y, la variation


rapport la variation INTRA.

INTER

sera importante par

Modlisation statistique
(1)

yij = i + eij

(i = 1, . . . , I; j = 1, . . . , ni )

Le paramtre i reprsente leffet du niveau i du facteur x. Le terme eij est la ralisation


dune variable alatoire N (0, 2 ) et les n v.a.r. eij sont indpendantes.
Ecriture matricielle du modle linaire gaussien (1)

y
(n1)

X
(nI)(I1)

+ e
(n1)

74

CHAPITRE 4. MODLES LINAIRES GAUSSIENS PARTICULIERS

avec

1
2
..
.
I

y11
..
.

y1n1
.

y=
..
y
I1
.
..
yInI

0 0
..
.
. ..

.
0 ..
.
1 ..

..
..
. .

..
1 .

0 0

..
. 1

..
..
. .
0 0 1

1
..
.

.
..
X=
..
.
.
..

.
..

..
.

n1 lignes

n2 lignes

..
.

nI lignes

La matrice X a pour ligne i : (x1i , . . . , xIi ). Les vecteurs colonnes de X correspondant


x = (x1 , . . . , xI ) ne sont autres que les variables indicatrices des I niveaux du facteur x.
Comme dans les hypothses du modle linaire gaussien, on suppose de plus :
e Nn (0, 2 In ) et on vrifie dautre part : X matrice non alatoire de rang I.
Autre paramtrisation
1
Si lon dcompose leffet i du niveau i en un effet moyen gnral = n

I
X

ni i et un

i=1

effet diffrentiel i = + i , on peut reparamtriser le modle (1) de faon quivalente pour


obtenir la modlisation (2) :
yij = + i + eij avec la contrainte :

I
X
i=1

ni i = 0

(i = 1, . . . , I

j = 1, . . . , ni )

75

4.1. ANALYSE DE VARIANCE UN FACTEUR


Ecriture matricielle du modle linaire gaussien (2)

avec

(I1)

1
2
..
.
I1

et X =

(nI)

1
..
.

0
..
.

1
..
.
1
0
..
.
0
1
..
..
..
.
.
.
..
..
.
.
1
..
..
.
.
0
..
..
..
.
.
.
..
..
..
.
.
.
..
..
..
.
.
.
..
.
0
0
n2
n1
..

.
nI
nI
..
..
1
.
.
n1
n2
1

nI
nI

y = X + e

0
..
.
..
.
..
.
..
.
..
.
..
.

1
..
.

1
nI1

nI
..
.
nI1

nI

.
..

n1 lignes

n2 lignes

nI1 lignes

nI lignes

et e Nn (0, 2 In )

4.1.3

Estimation des paramtres

On peut considrer les rsultats obtenus dans le chapitre 3 pour le modle linaire gaussien, que lon applique par exemple au modle (1) correspondant la matrice X des variables
indicatrices des I niveaux du facteur x.

1
y1

Proprit : lEMCO (ou MV) de = ... est = ... le vecteur des I moyennes des
I
yI
valeurs de yij pour chaque niveau i.
Dmonstration :
Il suffit de calculer = (X 0 X)1 X 0 y en remarquant que X 0 y a pour ime composante
ni
X
j=1

yij et que X 0 X = diag (n1 , n2 , . . . , nI ).

76

CHAPITRE 4. MODLES LINAIRES GAUSSIENS PARTICULIERS


2

Une deuxime dmonstration possible est de minimiser k y X k =

ni
i X
X

(yij i )2 ,

i=1 j=1

expression obtenue galement en crivant la vraisemblance de y.


Remarque : On vrifiera que
= y et
i = y i y, estimations des paramtres du modle (2).
Estimation de la variance rsiduelle 2 :

2 =

k y X k2
=
nI

ni
I X
X

(yij y i )2

i=1 j=1

nI

daprs les proprits dmontres dans le chapitre 3 :


2 estimateur sans biais et Var (
2) =
2 4
.
nI
On retrouve au numrateur de
2 la variation
hasard.

INTRA

qui est la variation rsiduelle due au

Intervalle de confiance, au coefficient de confiance = 1


a) dun paramtre i :

[y i tnI; 2 ; y i + tnI; 2 ]
ni
ni
b) de q paramtres i1 , . . . , iq (q I) :
h
p
p i
ij y ij bij , y ij + bij
o

pour j = 1 q.

q
bij = ni
2 Fq;nI;
j

c) des diffrences i i0 :
On ordonne suivant les valeurs croissantes les estimations y i des paramtres i . On obtient
alors
i1
i2
iI .
On considre alors les (I 1) diffrences i i0 pour deux indices i et i0 successifs.
Lintervalle de confiance des (I 1) diffrences est alors :


h
p
p i
1
1
y i y i0 bii0 , y i y i0 + bii0 avec bii0 = (I 1)
+

2 fI1;nI; .
ni ni0
Dans la pratique, on regarde si 0 appartient lintervalle en commenant par i1 i2 et on
regroupe les 2 niveaux i1 et i2 si cest le cas. On continue alors avec i2 i3 , . . . .

77

4.1. ANALYSE DE VARIANCE UN FACTEUR

4.1.4 Test dhypothses


(On applique la thorie des tests vue au chapitre 3).
On souhaite tester lhypothse H0 : 1 = = I = , cest--dire la variable auxiliaire x
na pas deffet sur la variable expliquer y.
Modle quand H0 est vraie
yij = + eij avec eij v.a. i.i.d. de loi N (0, 02 )
Les paramtres et

02

sont estims par :


= y et

1
= n
1

02

ni
I X
X

(yij y)2 .

i=1 j=1

Tableau danalyse de variance


Source de
variation

INTER

Somme des carrs


RSS (SCR)

I
X

ni (y i y)2

Degr de
libert
d.f. (d.d.`)

I
X

I 1

Statistique F
de Fisher

Somme des carrs


moyens

i=1

I 1

i=1

I
X

ni (y i y)2
F0 =

(due au facteur x)

INTRA

ni
I X
X

ni
I X
X

(yij y i )2

nI

2 =

i=1 j=1

(yij y i )2

i=1 j=1

nI

(due au hasard)

TOTALE

ni
I X
X

ni
I X
X

(yij y)2

n1

02 =

i=1 j=1

(yij y)2

i=1 j=1

n1

La statistique de Fisher, compte tenu de lquation (E) scrit aussi :


" I n
#
ni
I X
i
XX
X
(yij y)2
(yij y i )2 /(I 1)
F0 =

i=1 j=1

i=1 j=1

ni
I X
X
i=1 j=1

(yij y i )2 /(n I)

ni (y i y)2

i=1

(I 1)
2

78

CHAPITRE 4. MODLES LINAIRES GAUSSIENS PARTICULIERS

Rgle de dcision : au niveau de lhypothse H0 contre H1 : non H0


On rejette H0 si F0 > FI1;nI; o fI1;nI; est dtermine daprs la v.a. FI1;nI de
Fisher par :
P [FI1;nI > FI1;nI; ] = .
Remarque : Dans les sorties de logiciel on dispose de la tail probability :
P (FI1;nI > F0 ), et on rejette alors H0 si P (FI1;nI > F0 ) .

4.2

Analyse de variance deux facteurs

La variable endogne est explique par 2 variables qualitatives ayant respectivement I et J


modalits ou niveaux.

4.2.1 Exemple
Le tableau ci-dessous donne les rendements laitiers de 40 vaches pour des modes dalimentation diffrents. On se propose dtudier linfluence des 2 variables Dose et Produit de base sur
le rendement laitier.

Produit
de base Paille Foin

Herbe

Aliments
ensils

Dose

Dose faible

8
11
11
10
7

12
13
14
11
10

10
12
12
13
14

17
13
17
14
13

Dose forte

8
9
8
10
9

10
7
10
12
11

11
9
11
11
12

17
19
17
16
21

79

4.2. ANALYSE DE VARIANCE DEUX FACTEURS


Notation :
n : Nombre total dobservations.

nij : Nombre dobservations relatives au niveau i du facteur F1 et au niveau j du facteur F2


(i = 1, . . . , I et j = 1, . . . , J)
yijk : Observation de la variable y pour le kime individu dans la cellule (i, j) I J.
X : Matrice (n IJ) dont les vecteurs colonnes sont les indicatrices xij de la cellule (i, j)
{1, . . . , I} {1, . . . , J}
nij
I
J nij
1 XXX
1 X
y=
yij ; y ij =
yij
n i=1 j=1 k=1 k
nij k=1 k

pour (i, j) tel que nij 1.

Dfinition : Le plan dexprience est complet si nij 1 pour tout couple (i, j).
n
Le plan est dit quilibr si nij = IJ
pour tout couple (i, j).

4.2.2

Modlisation statistique et estimation

(On considre un plan complet).


Lobservation yijk se dcompose additivement en un effet fixe ij des niveaux i et j des
facteurs F1 et F2 respectivement, et en un effet alatoire eijk :
yijk = ij + eijk

eijk i.i.d. N (0, 2 )

Cest donc un modle linaire gaussien qui scrit matriciellement :


(3)

1 0
.. ..
. .

11
1 0

..
.

0 1
1J

.. ..
21
. .
.
.
y = X + e
.

(n1)
..
. 1
avec =
X = .
2J (nIJ) .. 0
(IJ1)
.

o e Nn (0, 2 In )
..
.. ..

. .


I1
.. ..
..
. .
. .
.
.. ..

IJ
. .
.. ..
0 0

0
..
.
..
.
..
.
..
.
..
.
..
.
..
.
0
1
..
.
1

n11 lignes



n12 lignes

..
.


nIJ lignes

80

CHAPITRE 4. MODLES LINAIRES GAUSSIENS PARTICULIERS


La variable x est la variable indicatrice des IJ niveaux des 2 facteurs F1 et F2 .

Autre paramtrisation : (Voir section 4.2.4, pour la signification des interactions ij12 ).
yijk = + i1 + j2 + ij12 + eijk

(4)

avec les contraintes :

I
X

i1 =

i=1

J
X
j=1

j2 =

I
X
i=1

o eijk i.i.d. N (0, 2 )

ij12 =

J
X

ij12 = 0.

j=1

Exercice : Dans le cas o I = 2, J = 3 et nij = 2, crire matriciellement le modle danalyse


de variance selon les paramtrisations (3) et (4). Combien de paramtres non lis doit-on estimer
dans la modlisation (4) ?
Estimation des paramtres, pour la modlisation (3)

ij = y ij pour tout couple (i, j) {1, . . . , I} {1, . . . , J}


(composante de = (X 0 X)1 X 0 y)
nij
I X
J X
X
(yijk y ij )2
2

k y X k
i=1 j=1 k=1

2 =
=
n IJ
n IJ
Dmonstration : Soit en calculant (cf Chapitre 2), soit en maximisant la vraisemblance.
Estimation par intervalle de confiance, de q paramtres ij conjointement au coefficient de
confiance = 1 :
h
p
p i
q
y ij bij ; y ij + bij
avec bij =

2 fq,nIJ;
nij

4.2.3

Tests dhypothses

On peut sintresser aux 3 hypothses nulles suivantes :


H01 : i1 = 0 pour tout i = 1, . . . , I le facteur F1 na pas deffet moyen sur y.
H02 : j2 = 0 pour tout j = 1, . . . , J le facteur F2 na pas deffet moyen sur y 00 .
H02 : ij12 = 0 pour tout (i, j) {1, . . . , I} {1, . . . , J} les facteurs F1 et F2 nont pas
deffet dinteraction sur y.

81

4.2. ANALYSE DE VARIANCE DEUX FACTEURS


1. Cas gnral dun plan complet dsquilibr (cest--dire nij diffrents).

Pour chacune des hypothses H01 , H02 ou H03 , on considre les matrices correspondant aux
contraintes linaires : R1 , R2 ou R3 .
On utilise alors le test de Fisher dune hypothse linaire (cf. II.4 Chapitre 3).
La statistique du test de Fisher ne sexplicite pas simplement dans le cas dun plan complet
dsquilibr.
2. Cas dun plan complet quilibr (cest--dire nij =

n
IJ

que lon notera K.)

On peut tablir dans ce cas lquation danalyse de variance qui donne la dcomposition de
la variation totale de faon orthogonale :
(E)

I X
J X
K
X
i=1 j=1 k=1

X
(yijk y ij )2 + JK
(y i y)2
i X
j
k
XX i
2
+ IK
(y j y) + K
(y ij y i y j + y)2

(yijk y)2 =

XXX
j

I
J
K
J
I
1 XXX
1X
1X
avec y =
yij ; y i =
y ; y j =
y
n i=1 j=1 k=1 k
J j=1 ij
I i=1 ij

82

CHAPITRE 4. MODLES LINAIRES GAUSSIENS PARTICULIERS


On en dduit, dans le cas dun plan complet quilibr, le tableau danalyse de variance :
Source de
variation

Somme des carrs

Due au facteur F1

JK

d.d.`.

Statistique du
test de Fisher

JK

I
X

(y i y)2

I 1

J
X

(y j y)2

J 1

Hyp.
nulle

FI1;nIJ;

H01

FJ1;nIJ;

H02

F(I1)(J1);nIJ;

H03

Fn1;nIJ;

H04

I
X
(y i y)2
i=1

2 (I 1)

i=1

Valeur
thorique

RSS23 RSS

Due au facteur F2

IK

IK

j=1

j (y j

2 (J

y)2
1)

RSS13 RSS

Due linteraction
F1 F2 des 2 facteurs

(y ij y i y j + y)2

XX
(y ij y i y j + y)2

(I 1)

(J 1)

I X
J
X
j

(I 1)(J 1)
2

RSS12 RSS

Rsiduelle RSS

I X
J X
K
X

(yijk y ij )2

n IJ

i=1 j=1 k=1

Totale TSS

I X
J X
K
X

(yijk y)2

R2
n IJ

1 R2
IJ 1

n1

i=1 j=1 k=1

o
=

P P P
i

k (yijk

y ij )2

n IJ

Lhypothse nulle H04 correspond la nullit des IJ 1 paramtres i1 , j1 , i1 ce qui revient


encore tester tous les paramtres ij gaux .
La statistique du test de lhypothse H04 sexplicite alors en fonction du coefficient de dtermination : (cf Chapitre 2)
XXX
(y ij y)2
k y y1In k2
i
j
k
R2 = X X X
=
k y y1In k2
(yij y)2
k

Notation : RSS23 (resp. RSS13 et RSS12 ) dsigne la somme des carrs des rsidus estims
sous lhypothse H2 H3 (resp. H1 H3 et H1 H2 )
Application : Pour lexemple II.1, construire le tableau danalyse de variance.
Au niveau 5%, peut-on conclure sil y a un effet moyen de la dose sur le rendement laitier ? sil

83

4.2. ANALYSE DE VARIANCE DEUX FACTEURS

y a un effet moyen du produit de base ? sil y a une interaction des facteurs dose et produit ?
Expliquer la signification de leffet de linteraction, en prcisant quel est leffet de la dose sur
le rendement laitier.

4.2.4 Interprtation de linteraction de deux facteurs


On considre le modle linaire gaussien (3) :
yijk = ij + eijk

i = 1, . . . , I
j = 1, . . . , J
k = 1, . . . , nij

Le paramtre ij peut se dcomposer :


ij = + (i ) + (j ) + (ij i j + )

avec

I
J
1 XX
=
ij
IJ i=1 j=1

reprsentant leffet moyen gnral commun tous


les traitements.

J
1X
i =
ij
J j=1

reprsentant leffet principal du niveau i du facteur


F1 .

j =

1X
ij
I j=1

reprsentant leffet principal du niveau j du facteur F2 .

Dfinitions :
i1 = i est leffet diffrentiel du niveau i du facteur F1 (i = 1, . . . , I).
j2 = j est leffet diffrentiel du niveau j du facteur F2 (j = 1, . . . , J).
ij12 = ij i j + est linteraction entre le niveau i du facteur F1 et le niveau j
du facteur F2 .
Remarque : On vrifie que
I
X
i=1

i1

J
X
j=1

j2

I
X
i=1

ij12

J
X
j=1

ij12 = 0

84

CHAPITRE 4. MODLES LINAIRES GAUSSIENS PARTICULIERS


On dduit de ces dfinitions une reparamtrisation quivalente du modle (3) :
yijk = + i1 + j2 + ij12 + eijk
I
X

avec

(4)

i1

i=1

J
X

j2

j=1

I
X

ij12

J
X

i=1

ij12

j=1

i = 1, . . . , I
j = 1, . . . , J

=0
k = 1, . . . , nij

eijk ralisation dune v.a. Eijk N (0, 2 ) et les v.a. Eijk indpendantes.
Lcriture matricielle est dans ce cas :
y=

+e

(nIJ)(IJ1)

o est le vecteur des IJ paramtres inconus :


1
2
12
12
, 12 , . . . , J1
, 11
, . . . , (I1)(J1)
)
0 = ( , 11 , . . . , I1

et X est une matrice dont les lments sont 0,1 ou +1, qui scrit dans lexemple : I = 2, J =
3 et nij = K = 2 :
y

y111
y112
y121
y122
y131
y132
y211
y212
y221
y222
y231
y232

1
1
1
1
1
1
1
1
1
1
1
1

1
1
1
1
1
1
1
1
1
1
1
1

1
1
0
0
1
1
1
1
0
0
1
1

0
0
1
1
1
1
0
0
1
1
1
1

1
1
0
0
1
1
1
1
0
0
1
1

0
0
1
1
1
1
0
0
1
1
1
1

11
12
22
12
11
12
12

e
e111
..
.
..
.
..
.
..
.
..
.
..
.
..
.
..
.
..
.
e232

85

4.2. ANALYSE DE VARIANCE DEUX FACTEURS


Interprtation et signification des interactions

Pour expliquer la signification des interactions, nous allons considrer deux exemples fictifs
donnant le tableau des valeurs des paramtres ij .
1er exemple : Facteur F1 2 niveaux et F2 3 niveaux.

F2
j=1

j=2

j=3

F1

i=1

11 = 20 12 = 10 13 = 30

i=2

21 = 20 22 = 10 23 = 30

On calcule :
1 = 2 = = 20
1 = 20; 2 = 10; 3 = 30
Ce qui entraine :
11 = 21 = 0
le facteur F1 na pas deffet diffrentiel.
12
ij = 0 (i, j)
les facteurs F1 et F2 sont sans interaction.
Si on reprsente dans un repre, les points de coordonnes (i, ij ), on obtient :
ij

30

20

10

i
i=1

? j ligne polygonale des points (i, ij ).


? ligne polygonale des points (i, i ).

i=2

86

CHAPITRE 4. MODLES LINAIRES GAUSSIENS PARTICULIERS

Remarque :
Le paralllisme entre et laxe des abscisses des niveaux du facteur F1 , caractrise labsence deffet moyen du facteur F2 .
Le paralllisme des lignes polygonales entre elles caractrise labsence dinteraction
entre les facteurs F1 et F2 .
2me exemple : Facteur F1 3 niveaux et F2 4 niveaux.

F1
j=1 j=2 j=3 j=4
F2

i=1

16

11

i=2

10

17

i=3

14

14

Tableau des paramtres ij


On calcule :
1 = 2 = 3 = = 10
1 = 2 = 3 = 4 = = 10
Ce qui entraine :
i1 = 0 i = 1, 2, 3
Pas deffet moyen de F1 .
2
j = 0 j = 1, 2, 3, 4
Pas deffet moyen de F2 .
De plus les paramtres ij tant diffrents, on a obligatoirement existence dinteraction entre
F1 et F2 .
12
12
12
12
12
On calcule 11
= 6, 12
= 4; 13
= 3; 14
= +1; 21
= 2; . . . .

87

4.3. ANALYSE DE COVARIANCE


ij

15

10

i
i=1

i=2

i=3

? Paralllisme entre et laxe des abscisses pas deffet moyen de F1 .


? Les lignes polygonales i ne sont pas paralllles et recoupent souvent les interactions
sont fortes.

4.3 Analyse de covariance


La variable endogne est explique par une variable quantitative z et par les I indicatrices
correspondant une variable qualitative F ayant I modalits ou niveaux.

4.3.1

Modlisation avec interaction

yij = i + ai zij + eij


pour

i = 1, . . . , I

et

eij i.i.d. N (0, 2 )

j = 1, . . . , ni et n =

I
X
i=1

Le coefficient i reprsente leffet du niveau i du facteur F .

ni tel que n > ni > 1

88

CHAPITRE 4. MODLES LINAIRES GAUSSIENS PARTICULIERS

Le coefficient ai est le coefficient de rgression de z correspondant aux observations du niveau


i du facteur F . Il reprsente linteraction entre la variable quantitative z et le facteur F .
Exemple : I = 2, n1 = 13, n2 = 17.

y = + a z
2j
2
2 2j

+a1z
1j = 1
1j

observations du niveau 1
observations du niveau 2

89

4.3. ANALYSE DE COVARIANCE


Le modle linaire scrit matriciellement :
y

(n1)

1 z11
..
..
.
.

1 z
1n1

0 0
1

a1
..
..
.

.
2
.
..

.
.
a2
.
o =
, X = .
..
..
..
.
.

..

..
.
I
.

.
..

aI
..
.
.
..
..
.

.
.
..
..
0 0

(n2I)(2I1)

0
..
.

0
..
.

1
..
.

z21
..
.

0
..
.
..
.
..
.
..
.

1 z2n2

0
..
.
..
.
..
.
..
.
0

0
..
.
..
.
..
.
..
.
0

0
..
.
..
.
..
.
..
.
..
.
..
.
..
.

0
..
.

1
..
.

0
..
.
0

0
..
.
..
.
..
.
..
.

..
.

zI1

..
.

zInI
0
..
.
..
.
..
.
..
.
..
.
..
.
..
.

n1 lignes

n2 lignes

nI lignes

Les (2i 1)me et (2i)me vecteurs colonnes de X tant orthogonaux tous les autres
vecteurs colonnes, on peut dterminer les estimateurs de i et ai pour tout i = 1, . . . , I, en
considrant I modles linaires successifs :

1 zi1
yi1


..

i
..

. zi2
yi = Xi
+ ei
avec
y(i) = .

X = . .
ai
.. ..

(ni 2)
(ni 1)
yini
1 zini
Estimateurs (cf. RLS). Pour tout i = 1, . . . , I :



i z i
i = y i a




ni

X

(yij y i )(zij z i )


j=1
a
ni
i =
X

(zij z i )2


j=1

yi =

1
ni

ni
X

yij

ni
X

zij

j=1

zi =

1
ni

j=1

90

CHAPITRE 4. MODLES LINAIRES GAUSSIENS PARTICULIERS


La variance des rsidus est alors estime par :

2 =

4.3.2

ni
I X
X

k y X k2
=
n 2I

[yij y i a
i (zij z i )]2

i=1 j=1

si n > 2I

n 2I

Tests dhypothses

On peut sintresser aux hypothses suivantes :


H01 : ai = a pour tout i = 1, I.
H02 : ai = 0 pour tout i = 1, I.
H03 : i = pour tout i = 1, I.
Test de lhypothse H01 , relatif au parallllisme des droites de rgression.
1
La rgle de dcision, de H01 : ai = a pour tout i = 1, I contre H 0 : i 6= j, ai 6= aj , est au
niveau :
ni
I X
X
(
a2i a
2 ) (zij z i )2
on rejette H01 si

i=1 j=1

2 (I 1)

> fI1;n2I;

On montrera, titre dexercice, ce rsultat (cf. test de Fisher Chapitre 3) en prcisant lestimateur a
qui est lestimateur de a sous lhypothse H01 .
Test de lhypothse H02 contre lhypothse H01 , pour i quelconque.
La rgle de dcision, au niveau est :
"
#
XX
XX
2
2
(yij y i )
(yij y i a
(zij zi ))
on rejette H02 si

XX
i

(yij y i a
(zij z i ))2 /(n I 1)

> f1;nI1;

A titre dexercice, on montreraX


queX
la statistique de ce test scrit de faon quivalente en
2
remplaant le numrateur par : a

(zij z i )2 .
i

Exercice : Montrer que lestimation de a est diffrente dans les 2 modles suivants :
1)

yij = azij + i + eij

2)

yij = azij + eij

Chapitre 5
Gnralisation du modle linaire gaussien
Le modle linaire gaussien, sil nest pas adapt au problme considr, peut tre tendu
dans les cas des diffrentes hypothses :
Hypothse de linarit
y = X + e

y = f (x, ) + e.
MODLE DE RGRESSION
NON LINAIRE

Hypothse sur le vecteur x des variables exognes.


X de rang p
X de rang infrieur p
( MULTICOLINARIT )
MODLE CONTRAINT : R = 0
x vecteur non alatoire

x vecteur alatoire de IR p
Loi du p + 1-uple (y, x).
Loi de y sachant x.
MODLE CONDITIONNEL

Variable x, corrle avec les rsidus.


MODLES ERREUR sur les variables
exognes (variables instrumentales).

91

92

CHAPITRE 5. GNRALISATION DU MODLE LINAIRE GAUSSIEN


Hypothse sur les rsidus
Var (ei ) = 2
(Rsidus homognes)

var(ei ) = i2
(Rsidus htrognes)
MOINDRES CARRS PONDRS

E(ei ej ) = 0 si i 6= j
(Rsidus non corrls)

E(ei ej ) 6= 0 si i 6= j
(Rsidus autocorrls)
MOINDRES CARRS GNRALISS

ei v.a. gaussienne
(Normalit des rsidus)

Loi de probabilit de yi paramtrique :


Binomiale
Poisson
Gamma
..
.
VRAISEMBLANCE L(y1 , . . . , yn ; ),
(Si x alatoire, vraisemblance conditionnelle).
Loi de probabilit de (y, x)
sans spcification de lois particulires paramtriques.
(STATISTIQUE NON PARAMTRIQUE).

5.1

Moindres carrs gnraliss

5.1.1 Estimateur des moindres carrs gnraliss


On le note MCG ou GLS (Generalized Least Squares).
On se place dans le cas o lhypothse H3 des perturbations sphriques : E(ee0 ) = 2 In du
modle linaire, nest plus vraie.
Dfinition du modle linaire (Lorsque les perturbations ne sont pas sphriques).
H1

y
(n1)

X
(np)(p1)

+ e
(n1)

H2

X matrice non alatoire de rang p et la premire colonne de X est 1In .

H300

E(e) = 0 et E(ee0 ) = 2
rang n.

o matrice dordre n, symtrique dfinie positive, de

93

5.1. MOINDRES CARRS GNRALISS


Dfinition
Lestimateur M CG (ou estimateur dAitken) est :
M CG = (X 0 1 X)1 X 0 1 y

Proprit de Gauss-Markov : Sous les hypothses H1 , H2 et H300 , lestimateur M CG est sans


biais, de variance : 2 (X 0 1 X)1 et meilleur que tout estimateur linaire et sans biais.
Dmonstration : On vrifie :
E(M CG ) = et Var (M CG ) = 2 (X 0 1 X)1
On se ramne au cas du thorme de Gauss-Markov nonc pour le modle linaire classique.
On utilise la proprit (cf. Chapitre I) :
matrice symtrique dfinie positive (dordre n).
Il existe une matrice P dordre n, inversible telle que :
= P P0
On pose :
z = P 1 y
Lhypothse H1 : y = X + e scrit :
P 1 y = P 1 X + P 1 e
avec A = P 1 X .
u = P 1 e
Lhypothse H300 sur les rsidus e, scrit pour les rsidus u :
Cest--dire

z = A + u

?
?

E(u) = 0
E(uu0 ) = 2 In

Dans le modle linaire : z = A + u, lestimateur des moindres carrs scrit :


0 1
1
1 0 0 1 1

(A0 A)1 A0 z = (X 0 P
| {zP } X) X P
| {zP } y = M CG

Thorme de Gauss-Markov (Chapitre 2).

94

CHAPITRE 5. GNRALISATION DU MODLE LINAIRE GAUSSIEN

Proprits :
1. Sous lhypothse H300 , lestimateur M CO M CO = (X 0 X)1 X 0 y, qui est linaire et toujours sans biais, nest plus de variance minimale.
Exercice : Calculer Var (M CO ).
2. Lestimateur M CG M CG = (X 0 0 X)1 X 0 1 y est lestimateur qui :
MINIMISE k y X k21
MAXIMISE LA VRAISEMBLANCE DU MODLE LINAIRE G AUSSIEN (y, X, 2 )
dfini par H1 , H2 , H300 et lhypothse de normalit des rsidus e.
1
L(y, ) = n (2)n/2 (det )1/2 exp{ 2 k y X k21 }
2
Exercice : Montrer que M CG = arg min k y X k2 1 = M V

Remarques :
1. Si la matrice est connue :
M CG = (X 0 1 X)1 X 0 1 y est un estimateur sans biais de .
k y X M CG k21

2 =
est un estimateur sans biais de 2 . ( montrer titre dexernp
cice).
2. Si la matrice est inconnue :
n(n 1)
paramtres ij de la matrice estimer ainsi que n paramtres ii .
Il y a
2
Problme insoluble dans le cas gnral.
Estimation de possible dans des cas simples particuliers :
* diagonale
* a une expression particulire, par exemple :

1
2 n1

1
Processus autorgressif
1
.

.
.
1
du premier ordre :
=

1 2 .
et = et1 + ut
..

1
n1
1
Test dans le modle (y, X, 2 , ) gaussien o connue : Test de Fisher. (cf. Chapitre 3.)
Hypothse nulle :
H0 : R = r
contre

R 6= r

avec R(q p) de rang q et r(q 1)

95

5.1. MOINDRES CARRS GNRALISS

Rgle de dcision au niveau .


On rejette H0 si F > Fq,np, o la statistique de Fisher scrit de faon analogue au chapitre
3.

1
k r RM CG k2[R(X 0 1 X)1 R0 ]1
q
F =
1
k y X M CG k21
np

Exercice : Par analogie aux rsultats du chapitre 3, crire :


Lexpression de lestimateur contraint par R = r.
Le test de student de signification dun coefficient j .
Le test de Fisher de signification de q coefficients.
1
Le numrateur de F sous la forme (RSSC RSS).
q

5.1.2

Estimateur des moindres carrs pondrs

On le note MCP ou WLS (Weighted Least Squares).


Htroscdasticit et non corrlation des rsidus
Exemple 1 : Cas de donnes groupes.

i = 1, . . . , I; j = 1, . . . , ni

1
eij indpendantes
yij = 1 + 2 xij + eij avec

E(eij ) = 0 Var (eij ) = 2

y i = 1 + 2 x1i + ui avec

Var u = 2 = 2

1
n1

0
..
.

= arg min

1
nI
I
X
i=1

u indpendants

E(ui ) = 0 Var (ui ) =


ni

ni (y i 1 2 x1i )2

96

CHAPITRE 5. GNRALISATION DU MODLE LINAIRE GAUSSIEN

Exemple 2 : Htroscdasticit due une (ou plusieurs) variable exogne xj .

y = X + e avec

E(e) = 0

Var (e) = 2

= arg min

n
X

(yi

i=1

= diag ((xj1 )2 , . . . , (xjn )2 )

p
X

xji j )2 wi

j=1

o la pondration wi =

1
,
(xji )2

Estimateur M CP
Cest lestimateur M CG dans le modle particulier (y, X, 2 ) o est une matrice
diagonale : = diag ( w11 , . . . , w1n ) dfinie par :
M CP = arg min

n
X
i=1

wi (yi

p
X

xji j )2

j=1

= arg min k y X k21


et gal :
M CP = (X 0 1 X)1 X 0 1 y

5.1.3

Autocorrlation des rsidus

On considre le modle linaire dans le cas de rsidus corrls, cest--dire : y = X + e


avec E(e) = 0 et E(ee0 ) = o est une matrice symtrique, dfinie positive, non diagonale,
inversible.
On traitera le cas de corrlation temporelle, trs classique dans les sries chronologiques :

97

5.1. MOINDRES CARRS GNRALISS


Autocorrlation du 1er ordre dans les processus autorgressifs :
Dfinition :
Les rsidus et suivent un processus autorgressif dordre 1 (AR(1)) si :

ut indpendant de et1



E(ut ) = 0

et = et1 + ut
(pour t = 2, . . . , n) avec
Var (ut ) = 2



E(ut u0 ) = 0 si t 6= t0
t

cest--dire le rsidu et dpend du rsidu et1 :

E(et /et1 ) = et1


Le paramtre est tel que : | |< 1.
Proprits : Si les rsidus et du modle linaire (y, X, ) suivent un processus AR(1), alors :
1. La matrice scrit :

(nn)

2
=
1 2

2
..
.

..
.

..
.

n1
n2
n3
..
.

n1 n2 n3 1

1 + 2
0
..
.
..
.
0

1
..
.

..
.
..
.

1 + 2
..
.

1 + 2

0
..
.
..
.

= 2

et det =
1 2
0

2. Les paramtres et sont estims :


Soit par une mthode en 2 tapes :
Etape 1 : ? Calcul de M CO = (X 0 X)1 X 0 y.
? Calcul de e = y X M CO .
? Calcul de M CO dans le modle linaire :
et =
et1 + ut

t = 2, . . . , n

98

CHAPITRE 5. GNRALISATION DU MODLE LINAIRE GAUSSIEN


n
X

M CO =

t=2
n
X

et et1
(
e2t1 )

t=2

Etape 2 :

estimation de obtenue en remplaant par M CO


? Calcul de ,
? Calcul de lestimateur M CG :
1 X)1 X 0
1 y
M CG = (X 0

Soit par M V (difficile)


3. Un test de lautocorrlation pour lhypothse nulle H0 : = 0 (cest--dire 2 = 2 In )
contre 6= 0 (ou > 0), peut tre ralis partir de la statistique de DURBIN-WATSON :
n
X

DW =

(
et et1 )2

t=2

n
X

o e = y X(X 0 X)1 X 0 y
(
e2t )

t=1

Des tables de Durbin-Watson permettent de dterminer la procdure du test suivant.


Si DW < dinf , on rejette H0 .
Si DW > dsup , on ne rejette pas H0 .
Si dinf < DW < dsup , on ne peut pas conclure.
Conditions dutilisation du test :
x1i = 1
X non alatoire
les variables exognes ne contiennent pas la variable endogne retarde.

5.2 Rgression stochastique


On a suppos jusqu prsent que les variables exognes xi = (x1i , . . . , xpi ) taient dterministes et que les erreurs ei taient alatoires (ce qui entrane que la variable endogne yi est
alatoire).
En fait, dans beaucoup dexemples considrs, les variables exognes sont alatoires.
On suppose donc que xi = (x1i , . . . , xpi ) est un vecteur alatoire de IR p , et donc X est une
matrice alatoire.

99

5.2. RGRESSION STOCHASTIQUE

Remarque : Dans ce cas on ne considre plus lhypothse x1i = 1, et si le modle comprend


un terme constant (o des variables exognes dterministes) il conviendra de le faire intervenir
additionnellement X.
On se bornera donner quelques ides gnrales suivant les 2 cas :
On considre la loi conditionnelle de yi sachant xi .
On considre la loi du couple (yi , xi ), dans le cas yi IR et xi IR p .

5.2.1 Modles linaires conditionnels


(X matrice (n p) alatoire) est dfini
Dfinitions : Un modle linaire conditionnel X = X
par les hypothses :
A1 y = X + e.
est de rang p (la loi de probabilit de x ne
A2 La matrice X est alatoire et sa ralisation X
dpend pas de .)
= 0; Var (e/X = X)
= 2 .
A3 E(e/X = X)
( matrice de rang n, symtrique et dfinie positive, connue).
Remarques :
1. Lhypothse A3 est quivalente
= X;
Var (y/X = X)
= 2
E(y/X = X)
2. Si, de plus, on suppose la normalit pour la loi conditionnelle de y sachant X (cas du
modle linaire gaussien conditionnel), on a :
est Nn (X;
2 )
la loi de y sachant X = X
3. Si le modle contient un terme constant, on crira :
y = 0 + X + e
avec les mmes hypothses A2 et A3 .
4. Tous les calculs et proprits dmontrs dans les chapitres prcdents sont valables, pour
des raisonnements videmment conditionnellement X.

5.2.2 Approximation dune v.a. y par un vecteur alatoire x


Dans cette section, on considre le vecteur alatoire de IR p+1 :
z = (y, x) o y v.a.r. et x = (x1 , . . . , xp ) IR p

100

CHAPITRE 5. GNRALISATION DU MODLE LINAIRE GAUSSIEN

Rgression de y en x
Problme : Peut-on trouver une fonction f de IR p dans IR telle que :
y=

f (x)
+
e
|{z}
|{z}
reste
explique
indpendant
par x
de x

en considrant comme critre minimiser lerreur moyenne quadratique :


E[(y f (x))2 ]
o lesprance E est relative la loi de z = (y, x)
Proprit 1 : E(y) est le nombre le plus proche de y en moyenne quadratique, cest--dire :
E(y) = arg min E[(y k)2 ]
k

Dmonstration : On dcompose :
E[(y k)2 ] = V (y) + (E(y) k)2
Car

E[(y E(y))(E(y) k)] = 0

Proprit 2 : La fonction f qui minimise E[(y f (x))2 ] est celle qui x associe lesprance
conditionnelle de y sachant x = x, note E(y/x = x) ou R(
x) et appele rgression de y en x.
Dmonstration : On rappelle :
E(U ) = E[E(U/x = x)] si U est une fonction de x et de y.
On dcompose :


E[(y f (x))2 ] = E [y E(y/x = x)]2 + E [E(y/x = x) f (
x)]2
car le double produit est nul.
La fonction f qui minimise E[(y f (x))2 ] est donc
f (
x) = E(y/x = x) pour toute valeur x de la variable alatoire x.
Remarque : R(
x) sexplicite :

101

5.2. RGRESSION STOCHASTIQUE


Dans le cas o (y, x) a une densit g.
Z
g(y, x1 , . . . , xp )
R
R(
x) = y
dy
g(y, x1 , . . . , xp )dy
Dans le cas o (y, x) est un vecteur alatoire discret :
R(
x) =

P (y = y, x = x)
P (x = x)

Remarque : Si y et x indpendants, alors


R(
x) = E(y) pour tout x
Exemples : Sachant que x = x, que prvoir pour y ?
(1)

1
(y, x) de densit g(y, x) = si 0 < y < x < 1
2 xy
y

(2)

25/174
120/174

4/174
25/174

(y, x) discrte de loi :

0
1

Proprit 3 : Analyse de variance :


V (y) = V (y R(x)) + V (R(x))

Rgression linaire de y en x.

Problme : Peut-on trouver une fonction affine f de IR dans IR (cest--dire f (x) =

p
X

aj x j +

j=1
2

a0 ) telle que : y = f (x) + e en considrant comme critre le minimum de E[(y f (x)) ] ?


#
"
p
X
cest--dire E (y
aj xj a0 )2 minimum
j=1

Cest la mthode des moindres carrs probabiliste.

102

CHAPITRE 5. GNRALISATION DU MODLE LINAIRE GAUSSIEN

Proprit 4 : La fonction affine f (x) =

p
X

aj xj + a0 qui minimise E[(y f (x))2 ] est la

j=1

fonction note EL(y/x) (appele Rgression linaire de y par x) :


EL(y/x = x) = E(y) + cov (y, x)[V (x)]1 (
x E(x))
(1p)

Dmonstration : On pose

ax

(1p)(p1)

p
X

(pp)

(p1)

aj xj =< a, x >.

j=1

On dcompose :
E[(y a0 x a0 )2 ] = E[(y a0 x )2 ] + (E(y) a0 E(x) a0 )2
car le double produit est nul
avec y = y E(y) et x = x E(x)
On dcompose :
E[(y a0 x )2 ] = V (y) cov (y, x)(V (x))1 cov (x, y)
+ (a (V (x))1 cov (x, y))0 V (x)(a (V (x))1 cov (x, y))
E[(y a0 x a0 )2 ] minimum si :

a = (V (x))1 cov (x, y)



a0 = E(Y ) a0 E(x)
f (x) = a0 x + a0 qui minimise E[(y a0 x a0 )2 ] est :

EL(y | x) = (cov (x, y))0 (V (x))1 (x E(x)) + E(y)


CQFD

103

5.2. RGRESSION STOCHASTIQUE


Aspect statistique

Quand on ne connait pas la loi de (y, x) mais quand on dispose dun chantillon (yi , xi )i=1,n
de taille n, on peut estimer EL(y/x).
Proprit : Soit (y, x) centre (E(y) = 0 et E(x) = 0)

x11 xp1
y1

Soit y = ... et X = ... . . . ... les observations de (y, x)


(np)
yn
x1n xpn
Alors la rgrssion linaire de y par x, EL(y/x) est estime laide des moments empiriques,
par :

x1i
.
0
1 0
0
d
EL(y
i /xi ) = xi (X X) X y o xi = ..
xpi
Remarque : On retrouve les formules du modle linaire (Chapitre 2).
Dmonstration : On a vu que a = (V (x))1 cov (x, y) comme y et x sont centres :
1

a = (E(xx0 ))

E(xy)

E(xx0 ) est estime par la matrice de variance covariance empirique


(pp)

1
gnral : n

n
X

1 0
X X de terme
n

xjt xjt .

t=1

1 X j j0
0
xt xt ) = E(xj xj ) terme gnral de E(xx0 ).
En effet, E(
n t=1
n

X
1
E(xy) est estime par le vecteur de covariance empirique X 0 y, de composantes : n1
yt xit .
n
(p1)
t=1
En effet, E

1
n

n
X

yt xjt

= E(yt xjt ) = E(yxj )

t=1

jme composante de E(xy)


Donc a
= (X 0 X)1 X 0 y et yi = x0i a
.

(j = 1, . . . , p)

104

CHAPITRE 5. GNRALISATION DU MODLE LINAIRE GAUSSIEN

Application : Au concours de tir larc de la fort de Brocliande, les archers visent une cible
triangulaire. Merlin lEnchanteur, en avance sur son temps, a repr les points de cette cible
dans un systme daxes orthonorms, selon le schma :
y

A(2.2)

2
1
0
1
1

B(2.1)

La cible a atteindre est OAB et le rsultat dun tir est un couple (x, y) reprsentant les
coordonnes du point atteint. On suppose que (x, y) suit une loi uniforme sur le triangle OAB,
nulle en dehors.
- Calculer la rgression de y par x.
- Calculer la rgression linaire de y par x.

Bibliographie
A NTONIADIS A., B ERRUYER J., C ARMONA R. (1992), Rgression non linaire et applications, Economica.
B OURBONNAIS R. (1998), Economtrie : manuel et exercices corrigs, Dunod.
M ADDALA G.S. (1977), Econometrics, International Student Edition.
F OURGEAUD C., L ENCLUD B. (1978), Economtrie, PUF.
G REENE W. H. (1993), Econometric Analysis, Prentice Hall.
G IRAUD R., C HAIX N. (1989), Economtrie, PUF.
M ONFORT A. (1982), Cours de statistique mathmatique, Economica, ENSAE.
R AFFIN C. [1993), Economtrie, Flash U, Armand Colin.
T OMASSONE R., L ESQUOY E., M ILLIER C. (1983), La rgression : nouveaux regards sur
une ancienne mthode statistique, Masson.
J OHNSTON J. (1985), Mthodes conomtriques : tomes 1 et 2, Economica.
S APORTA G. (1990), Probabilits, analyse des donnes et statistique, Technip.

105

106

BIBLIOGRAPHIE

Tables statistiques
Loi de Student

d.d.l.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29

0.10
3.078
1.886
1.638
1.533
1.476
1.440
1.415
1.397
1.383
1.372
1.363
1.356
1.350
1.345
1.341
1.337
1.333
1.330
1.328
1.325
1.323
1.321
1.319
1.318
1.316
1.315
1.314
1.313
1.311
1.282

0.05
6.314
2.920
2.353
2.132
2.015
1.943
1.895
1.860
1.833
1.812
1.796
1.782
1.771
1.761
1.753
1.746
1.740
1.734
1.729
1.725
1.721
1.717
1.714
1.711
1.708
1.706
1.703
1.701
1.699
1.645

0.025
12.706
4.303
3.182
2.776
2.571
2.447
2.365
2.306
2.262
2.228
2.201
2.179
2.160
2.145
2.131
2.120
2.110
2.101
2.093
2.086
2.080
2.074
2.069
2.064
2.060
2.056
2.052
2.048
2.045
1.960

107

0.01
31.821
6.965
4.541
3.747
3.365
3.143
2.998
2.896
2.821
2.764
2.718
2.681
2.650
2.624
2.602
2.583
2.567
2.552
2.539
2.528
2.518
2.508
2.500
2.492
2.485
2.479
2.473
2.467
2.462
2.326

0.005
63.657
9.925
5.841
4.604
4.032
3.707
3.499
3.355
3.250
3.169
3.106
3.055
3.012
2.977
2.947
2.921
2.898
2.878
2.861
2.845
2.831
2.819
2.807
2.797
2.787
2.779
2.771
2.763
2.756
2.576

108

TABLES STATISTIQUES

Loi normale

F(u)
u

u
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2.0
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9

0.00
0.5000
0.5398
0.5793
0.6179
0.6554
0.6915
0.7257
0.7580
0.7881
0.8159
0.8413
0.8643
0.8849
0.9032
0.9192
0.9332
0.9452
0.9554
0.9641
0.9713
0.9772
0.9821
0.9861
0.9893
0.9918
0.9938
0.9953
0.9965
0.9974
0.9981

0.01
0.5040
0.5438
0.5832
0.6217
0.6591
0.6950
0.7291
0.7611
0.7910
0.8186
0.8438
0.8665
0.8869
0.9049
0.9207
0.9345
0.9463
0.9564
0.9649
0.9719
0.9778
0.9826
0.9864
0.9896
0.9920
0.9940
0.9955
0.9966
0.9975
0.9982

0.02
0.5080
0.5478
0.5871
0.6255
0.6628
0.6985
0.7324
0.7642
0.7939
0.8212
0.8461
0.8686
0.8888
0.9066
0.9222
0.9357
0.9474
0.9573
0.9656
0.9726
0.9783
0.9830
0.9868
0.9898
0.9922
0.9941
0.9956
0.9967
0.9976
0.9982

0.03
0.5120
0.5517
0.5910
0.6293
0.6664
0.7019
0.7357
0.7673
0.7967
0.8238
0.8485
0.8708
0.8907
0.9082
0.9236
0.9370
0.9484
0.9582
0.9664
0.9732
0.9788
0.9834
0.9871
0.9901
0.9925
0.9943
0.9957
0.9968
0.9977
0.9983

0.04
0.5160
0.5557
0.5948
0.6331
0.6700
0.7054
0.7389
0.7704
0.7995
0.8264
0.8508
0.8729
0.8925
0.9099
0.9251
0.9382
0.9495
0.9591
0.9671
0.9738
0.9793
0.9838
0.9875
0.9904
0.9927
0.9945
0.9959
0.9969
0.9977
0.9984

0.05
0.5199
0.5596
0.5987
0.6368
0.6736
0.7088
0.7422
0.7734
0.8023
0.8289
0.8531
0.8749
0.8944
0.9115
0.9265
0.9394
0.9505
0.9599
0.9678
0.9744
0.9798
0.9842
0.9878
0.9906
0.9929
0.9946
0.9960
0.9970
0.9978
0.9984

0.06
0.5239
0.5636
0.6026
0.6406
0.6772
0.7123
0.7454
0.7764
0.8051
0.8315
0.8554
0.8770
0.8962
0.9131
0.9279
0.9406
0.9515
0.9608
0.9686
0.9750
0.9803
0.9846
0.9881
0.9909
0.9931
0.9948
0.9961
0.9971
0.9979
0.9985

0.07
0.5279
0.5675
0.6064
0.6443
0.6808
0.7157
0.7486
0.7794
0.8078
0.8340
0.8577
0.8790
0.8980
0.9147
0.9292
0.9418
0.9525
0.9616
0.9693
0.9756
0.9808
0.9850
0.9884
0.9911
0.9932
0.9949
0.9962
0.9972
0.9979
0.9985

0.08
0.5319
0.5714
0.6103
0.6480
0.6844
0.7190
0.7517
0.7823
0.8106
0.8365
0.8599
0.8810
0.8997
0.9162
0.9306
0.9429
0.9535
0.9625
0.9699
0.9761
0.9812
0.9854
0.9887
0.9913
0.9934
0.9951
0.9963
0.9973
0.9980
0.9986

Table pour les grandes valeurs de u :


u
F (u)

3.0
0.998650

3.1
0.999032

3.2
0.999313

3.3
0.999517

3.4
0.999663

3.5
0.999767

u
F (u)

3.6
0.999841

3.7
0.999892

3.8
0.999928

3.9
0.999952

4.0
0.999968

4.5
0.999997

0.09
0.5359
0.5753
0.6141
0.6517
0.6879
0.7224
0.7549
0.7852
0.8133
0.8389
0.8621
0.8830
0.9015
0.9177
0.9319
0.9441
0.9545
0.9633
0.9706
0.9767
0.9817
0.9857
0.9890
0.9916
0.9936
0.9952
0.9964
0.9974
0.9981
0.9986

109

TABLES STATISTIQUES

Loi du khi-deux

d.d.l.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
50
60
70
80
90
100

0.95
0.004
0.103
0.352
0.711
1.145
1.635
2.167
2.733
3.325
3.940
4.575
5.226
5.892
6.571
7.261
7.962
8.672
9.390
10.117
10.851
11.591
12.338
13.091
13.848
14.611
15.379
16.151
16.928
17.708
18.493
26.509
34.764
43.188
51.739
60.391
69.126
77.929

0.90
0.016
0.211
0.584
1.064
1.610
2.204
2.833
3.490
4.168
4.865
5.578
6.304
7.042
7.790
8.547
9.312
10.085
10.865
11.651
12.443
13.240
14.041
14.848
15.659
16.473
17.292
18.114
18.939
19.768
20.599
29.051
37.689
46.459
55.329
64.278
73.291
82.358

0.50
0.455
1.386
2.366
3.357
4.351
5.348
6.346
7.344
8.343
9.342
10.341
11.340
12.340
13.339
14.339
15.338
16.338
17.338
18.338
19.337
20.337
21.337
22.337
23.337
24.337
25.336
26.336
27.336
28.336
29.336
39.335
49.335
59.335
69.334
79.334
89.334
99.334

0.30
1.074
2.408
3.665
4.878
6.064
7.231
8.383
9.524
10.656
11.781
12.899
14.011
15.119
16.222
17.322
18.418
19.511
20.601
21.689
22.775
23.858
24.939
26.018
27.096
28.172
29.246
30.319
31.391
32.461
33.530
44.165
54.723
65.227
75.689
86.120
96.524
106.906

0.20
1.642
3.219
4.642
5.989
7.289
8.558
9.803
11.030
12.242
13.442
14.631
15.812
16.985
18.151
19.311
20.465
21.615
22.760
23.900
25.037
26.171
27.301
28.429
29.553
30.675
31.795
32.912
34.027
35.139
36.250
47.269
58.164
68.972
79.715
90.405
101.054
111.667

0.10
2.706
4.605
6.251
7.779
9.236
10.645
12.017
13.362
14.684
15.987
17.275
18.549
19.812
21.064
22.307
23.542
24.769
25.989
27.204
28.412
29.615
30.813
32.007
33.196
34.382
35.563
36.741
37.916
39.087
40.256
51.805
63.167
74.397
85.527
96.578
107.565
118.498

0.05
3.841
5.991
7.815
9.488
11.07
12.592
14.067
15.507
16.919
18.307
19.675
21.026
22.362
23.685
24.996
26.296
27.587
28.869
30.144
31.410
32.671
33.924
35.172
36.415
37.652
38.885
40.113
41.337
42.557
43.773
55.758
67.505
79.082
90.531
101.879
113.145
124.342

0.02
5.412
7.824
9.837
11.668
13.388
15.033
16.622
18.168
19.679
21.161
22.618
24.054
25.471
26.873
28.259
29.633
30.995
32.346
33.687
35.020
36.343
37.659
38.968
40.270
41.566
42.856
44.140
45.419
46.693
47.962
60.436
72.613
84.580
96.388
108.069
119.648
131.142

0.01
6.635
9.210
11.345
13.277
15.086
16.812
18.475
20.090
21.666
23.209
24.725
26.217
27.688
29.141
30.578
32.000
33.409
34.805
36.191
37.566
38.932
40.289
41.638
42.980
44.314
45.642
46.963
48.278
49.588
50.892
63.691
76.154
88.379
100.425
112.329
124.116
135.807

0.001
10.828
13.816
16.266
18.467
20.515
22.458
24.322
26.124
27.877
29.588
31.264
32.909
34.528
36.123
37.697
39.252
40.790
42.312
43.820
45.315
46.797
48.268
49.728
51.179
52.620
54.052
55.476
56.892
58.301
59.703
73.402
86.661
99.607
112.317
124.839
137.208
149.449

Quandle nombre de degrs de libert est lev, 22 est peu prs distribu normalement
autour de 2d.d.l. 1 avec une variance gale 1.

110

TABLES STATISTIQUES

Loi de Fisher : = 0.10

Degrs de libert du dnominateur : 2

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120

1
39.86
8.53
5.54
4.54
4.06
3.78
3.59
3.46
3.36
3.29
3.23
3.18
3.14
3.10
3.07
3.05
3.03
3.01
2.99
2.97
2.96
2.95
2.94
2.93
2.92
2.91
2.90
2.89
2.89
2.88
2.84
2.79
2.75
2.71

2
49.50
9.00
5.46
4.32
3.78
3.46
3.26
3.11
3.01
2.92
2.86
2.81
2.76
2.73
2.70
2.67
2.64
2.62
2.61
2.59
2.57
2.56
2.55
2.54
2.53
2.52
2.51
2.50
2.50
2.49
2.44
2.39
2.35
2.30

Degrs de libert du numrateur : 1


3
4
5
6
7
53.59 55.83 57.24 58.20 58.91
9.16
9.24
9.29
9.33
9.35
5.39
5.34
5.31
5.28
5.27
4.19
4.11
4.05
4.01
3.98
3.62
3.52
3.45
3.40
3.37
3.29
3.18
3.11
3.05
3.01
3.07
2.96
2.88
2.83
2.78
2.92
2.81
2.73
2.67
2.62
2.81
2.69
2.61
2.55
2.51
2.73
2.61
2.52
2.46
2.41
2.66
2.54
2.45
2.39
2.34
2.61
2.48
2.39
2.33
2.28
2.56
2.43
2.35
2.28
2.23
2.52
2.39
2.31
2.24
2.19
2.49
2.36
2.27
2.21
2.16
2.46
2.33
2.24
2.18
2.13
2.44
2.31
2.22
2.15
2.10
2.42
2.29
2.20
2.13
2.08
2.40
2.27
2.18
2.11
2.06
2.38
2.25
2.16
2.09
2.04
2.36
2.23
2.14
2.08
2.02
2.35
2.22
2.13
2.06
2.01
2.34
2.21
2.11
2.05
1.99
2.33
2.19
2.10
2.04
1.98
2.32
2.18
2.09
2.02
1.97
2.31
2.17
2.08
2.01
1.96
2.30
2.17
2.07
2.00
1.95
2.29
2.16
2.06
2.00
1.94
2.28
2.15
2.06
1.99
1.93
2.28
2.14
2.05
1.98
1.93
2.23
2.09
2.00
1.93
1.87
2.18
2.04
1.95
1.87
1.82
2.13
1.99
1.90
1.82
1.77
2.08
1.94
1.85
1.77
1.72

8
59.44
9.37
5.25
3.95
3.34
2.98
2.75
2.59
2.47
2.38
2.30
2.24
2.20
2.15
2.12
2.09
2.06
2.04
2.02
2.00
1.98
1.97
1.95
1.94
1.93
1.92
1.91
1.90
1.89
1.88
1.83
1.77
1.72
1.67

9
59.86
9.38
5.24
3.94
3.32
2.96
2.72
2.56
2.44
2.35
2.27
2.21
2.16
2.12
2.09
2.06
2.03
2.00
1.98
1.96
1.95
1.93
1.92
1.91
1.89
1.88
1.87
1.87
1.86
1.85
1.79
1.74
1.68
1.63

111

TABLES STATISTIQUES

Loi de Fisher : = 0.10 (suite)

Degrs de libert du dnominateur : 2

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120

10
60.19
9.39
5.23
3.92
3.30
2.94
2.70
2.54
2.42
2.32
2.25
2.19
2.14
2.10
2.06
2.03
2.00
1.98
1.96
1.94
1.92
1.90
1.89
1.88
1.87
1.86
1.85
1.84
1.83
1.82
1.76
1.71
1.65
1.60

12
60.71
9.41
5.22
3.90
3.27
2.90
2.67
2.50
2.38
2.28
2.21
2.15
2.10
2.05
2.02
1.99
1.96
1.93
1.91
1.89
1.87
1.86
1.84
1.83
1.82
1.81
1.80
1.79
1.78
1.77
1.71
1.66
1.60
1.55

15
61.22
9.42
5.20
3.87
3.24
2.87
2.63
2.46
2.34
2.24
2.17
2.10
2.05
2.01
1.97
1.94
1.91
1.89
1.86
1.84
1.83
1.81
1.80
1.78
1.77
1.76
1.75
1.74
1.73
1.72
1.66
1.60
1.55
1.49

Degrs de libert du numrateur : 1


20
24
30
40
60
61.74 62.00 62.26 62.53 62.79
9.44
9.45
9.46
9.47
9.47
5.18
5.18
5.17
5.16
5.15
3.84
3.83
3.82
3.80
3.79
3.21
3.19
3.17
3.16
3.14
2.84
2.82
2.80
2.78
2.76
2.59
2.58
2.56
2.54
2.51
2.42
2.40
2.38
2.36
2.34
2.30
2.28
2.25
2.23
2.21
2.20
2.18
2.16
2.13
2.11
2.12
2.10
2.08
2.05
2.03
2.06
2.04
2.01
1.99
1.96
2.01
1.98
1.96
1.93
1.90
1.96
1.94
1.91
1.89
1.86
1.92
1.90
1.87
1.85
1.82
1.89
1.87
1.84
1.81
1.78
1.86
1.84
1.81
1.78
1.75
1.84
1.81
1.78
1.75
1.72
1.81
1.79
1.76
1.73
1.70
1.79
1.77
1.74
1.71
1.68
1.78
1.75
1.72
1.69
1.66
1.76
1.73
1.70
1.67
1.64
1.74
1.72
1.69
1.66
1.62
1.73
1.70
1.67
1.64
1.61
1.72
1.69
1.66
1.63
1.59
1.71
1.68
1.65
1.61
1.58
1.70
1.67
1.64
1.60
1.57
1.69
1.66
1.63
1.59
1.56
1.68
1.65
1.62
1.58
1.55
1.67
1.64
1.61
1.57
1.54
1.61
1.57
1.54
1.51
1.47
1.54
1.51
1.48
1.44
1.40
1.48
1.45
1.41
1.37
1.32
1.42
1.38
1.34
1.30
1.24

120
63.06
9.48
5.14
3.78
3.12
2.74
2.49
2.32
2.18
2.08
2.00
1.93
1.88
1.83
1.79
1.75
1.72
1.69
1.67
1.64
1.62
1.60
1.59
1.57
1.56
1.54
1.53
1.52
1.51
1.50
1.42
1.35
1.26
1.17

63.33
9.49
5.13
3.76
3.10
2.72
2.47
2.29
2.16
2.06
1.97
1.90
1.85
1.80
1.76
1.72
1.69
1.66
1.63
1.61
1.59
1.57
1.55
1.53
1.52
1.50
1.49
1.48
1.47
1.46
1.38
1.29
1.19
1.00

112

TABLES STATISTIQUES

Loi de Fisher : = 0.05

Degrs de libert du dnominateur : 2

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120

1
161.45
18.51
10.13
7.71
6.61
5.99
5.59
5.32
5.12
4.96
4.84
4.75
4.67
4.60
4.54
4.49
4.45
4.41
4.38
4.35
4.32
4.30
4.28
4.26
4.24
4.23
4.21
4.20
4.18
4.17
4.08
4.00
3.92
3.84

2
199.50
19.00
9.55
6.94
5.79
5.14
4.74
4.46
4.26
4.10
3.98
3.89
3.81
3.74
3.68
3.63
3.59
3.55
3.52
3.49
3.47
3.44
3.42
3.40
3.39
3.37
3.35
3.34
3.33
3.32
3.23
3.15
3.07
3.00

Degrs de libert du numrateur : 1


3
4
5
6
7
215.71 224.58 230.16 233.99 236.77
19.16
19.25
19.30
19.33
19.35
9.28
9.12
9.01
8.94
8.89
6.59
6.39
6.26
6.16
6.09
5.41
5.19
5.05
4.95
4.88
4.76
4.53
4.39
4.28
4.21
4.35
4.12
3.97
3.87
3.79
4.07
3.84
3.69
3.58
3.50
3.86
3.63
3.48
3.37
3.29
3.71
3.48
3.33
3.22
3.14
3.59
3.36
3.20
3.09
3.01
3.49
3.26
3.11
3.00
2.91
3.41
3.18
3.03
2.92
2.83
3.34
3.11
2.96
2.85
2.76
3.29
3.06
2.90
2.79
2.71
3.24
3.01
2.85
2.74
2.66
3.20
2.96
2.81
2.70
2.61
3.16
2.93
2.77
2.66
2.58
3.13
2.90
2.74
2.63
2.54
3.10
2.87
2.71
2.60
2.51
3.07
2.84
2.68
2.57
2.49
3.05
2.82
2.66
2.55
2.46
3.03
2.80
2.64
2.53
2.44
3.01
2.78
2.62
2.51
2.42
2.99
2.76
2.60
2.49
2.40
2.98
2.74
2.59
2.47
2.39
2.96
2.73
2.57
2.46
2.37
2.95
2.71
2.56
2.45
2.36
2.93
2.70
2.55
2.43
2.35
2.92
2.69
2.53
2.42
2.33
2.84
2.61
2.45
2.34
2.25
2.76
2.53
2.37
2.25
2.17
2.68
2.45
2.29
2.18
2.09
2.60
2.37
2.21
2.10
2.01

8
238.88
19.37
8.85
6.04
4.82
4.15
3.73
3.44
3.23
3.07
2.95
2.85
2.77
2.70
2.64
2.59
2.55
2.51
2.48
2.45
2.42
2.40
2.37
2.36
2.34
2.32
2.31
2.29
2.28
2.27
2.18
2.10
2.02
1.94

9
240.54
19.38
8.81
6.00
4.77
4.10
3.68
3.39
3.18
3.02
2.90
2.80
2.71
2.65
2.59
2.54
2.49
2.46
2.42
2.39
2.37
2.34
2.32
2.30
2.28
2.27
2.25
2.24
2.22
2.21
2.12
2.04
1.96
1.88

113

TABLES STATISTIQUES

Loi de Fisher : = 0.05 (suite)

Degrs de libert du dnominateur : 2

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120

10
241.88
19.40
8.79
5.96
4.74
4.06
3.64
3.35
3.14
2.98
2.85
2.75
2.67
2.60
2.54
2.49
2.45
2.41
2.38
2.35
2.32
2.30
2.27
2.25
2.24
2.22
2.20
2.19
2.18
2.16
2.08
1.99
1.91
1.83

12
243.91
19.41
8.74
5.91
4.68
4.00
3.57
3.28
3.07
2.91
2.79
2.69
2.60
2.53
2.48
2.42
2.38
2.34
2.31
2.28
2.25
2.23
2.20
2.18
2.16
2.15
2.13
2.12
2.10
2.09
2.00
1.92
1.83
1.75

15
245.95
19.43
8.70
5.86
4.62
3.94
3.51
3.22
3.01
2.85
2.72
2.62
2.53
2.46
2.40
2.35
2.31
2.27
2.23
2.20
2.18
2.15
2.13
2.11
2.09
2.07
2.06
2.04
2.03
2.01
1.92
1.84
1.75
1.67

Degrs de libert du numrateur : 1


20
24
30
40
248.01 249.05 250.10 251.14
19.45
19.45
19.46
19.47
8.66
8.64
8.62
8.59
5.80
5.77
5.75
5.72
4.56
4.53
4.50
4.46
3.87
3.84
3.81
3.77
3.44
3.41
3.38
3.34
3.15
3.12
3.08
3.04
2.94
2.90
2.86
2.83
2.77
2.74
2.70
2.66
2.65
2.61
2.57
2.53
2.54
2.51
2.47
2.43
2.46
2.42
2.38
2.34
2.39
2.35
2.31
2.27
2.33
2.29
2.25
2.20
2.28
2.24
2.19
2.15
2.23
2.19
2.15
2.10
2.19
2.15
2.11
2.06
2.16
2.11
2.07
2.03
2.12
2.08
2.04
1.99
2.10
2.05
2.01
1.96
2.07
2.03
1.98
1.94
2.05
2.01
1.96
1.91
2.03
1.98
1.94
1.89
2.01
1.96
1.92
1.87
1.99
1.95
1.90
1.85
1.97
1.93
1.88
1.84
1.96
1.91
1.87
1.82
1.94
1.90
1.85
1.81
1.93
1.89
1.84
1.79
1.84
1.79
1.74
1.69
1.75
1.70
1.65
1.59
1.66
1.61
1.55
1.50
1.57
1.52
1.46
1.39

60
252.20
19.48
8.57
5.69
4.43
3.74
3.30
3.01
2.79
2.62
2.49
2.38
2.30
2.22
2.16
2.11
2.06
2.02
1.98
1.95
1.92
1.89
1.86
1.84
1.82
1.80
1.79
1.77
1.75
1.74
1.64
1.53
1.43
1.32

120
253.25
19.49
8.55
5.66
4.40
3.70
3.27
2.97
2.75
2.58
2.45
2.34
2.25
2.18
2.11
2.06
2.01
1.97
1.93
1.90
1.87
1.84
1.81
1.79
1.77
1.75
1.73
1.71
1.70
1.68
1.58
1.47
1.35
1.22

254.30
19.50
8.53
5.63
4.36
3.67
3.23
2.93
2.71
2.54
2.40
2.30
2.21
2.13
2.07
2.01
1.96
1.92
1.88
1.84
1.81
1.78
1.76
1.73
1.71
1.69
1.67
1.65
1.64
1.62
1.51
1.39
1.25
1.00

114

TABLES STATISTIQUES

Loi de Fisher : = 0.025

Degrs de libert du dnominateur : 2

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120

1
647.79
38.51
17.44
12.22
10.01
8.81
8.07
7.57
7.21
6.94
6.72
6.55
6.41
6.30
6.20
6.12
6.04
5.98
5.92
5.87
5.83
5.79
5.75
5.72
5.69
5.66
5.63
5.61
5.59
5.57
5.42
5.29
5.15
5.02

2
799.50
39.00
16.04
10.65
8.43
7.26
6.54
6.06
5.71
5.46
5.26
5.10
4.97
4.86
4.77
4.69
4.62
4.56
4.51
4.46
4.42
4.38
4.35
4.32
4.29
4.27
4.24
4.22
4.20
4.18
4.05
3.93
3.80
3.69

Degrs de libert du numrateur : 1


3
4
5
6
7
864.16 899.58 921.85 937.11 948.22
39.17
39.25
39.30
39.33
39.36
15.44
15.10
14.88
14.73
14.62
9.98
9.60
9.36
9.20
9.07
7.76
7.39
7.15
6.98
6.85
6.60
6.23
5.99
5.82
5.70
5.89
5.52
5.29
5.12
4.99
5.42
5.05
4.82
4.65
4.53
5.08
4.72
4.48
4.32
4.20
4.83
4.47
4.24
4.07
3.95
4.63
4.28
4.04
3.88
3.76
4.47
4.12
3.89
3.73
3.61
4.35
4.00
3.77
3.60
3.48
4.24
3.89
3.66
3.50
3.38
4.15
3.80
3.58
3.41
3.29
4.08
3.73
3.50
3.34
3.22
4.01
3.66
3.44
3.28
3.16
3.95
3.61
3.38
3.22
3.10
3.90
3.56
3.33
3.17
3.05
3.86
3.51
3.29
3.13
3.01
3.82
3.48
3.25
3.09
2.97
3.78
3.44
3.22
3.05
2.93
3.75
3.41
3.18
3.02
2.90
3.72
3.38
3.15
2.99
2.87
3.69
3.35
3.13
2.97
2.85
3.67
3.33
3.10
2.94
2.82
3.65
3.31
3.08
2.92
2.80
3.63
3.29
3.06
2.90
2.78
3.61
3.27
3.04
2.88
2.76
3.59
3.25
3.03
2.87
2.75
3.46
3.13
2.90
2.74
2.62
3.34
3.01
2.79
2.63
2.51
3.23
2.89
2.67
2.52
2.39
3.12
2.79
2.57
2.41
2.29

8
956.66
39.37
14.54
8.98
6.76
5.60
4.90
4.43
4.10
3.85
3.66
3.51
3.39
3.29
3.20
3.12
3.06
3.01
2.96
2.91
2.87
2.84
2.81
2.78
2.75
2.73
2.71
2.69
2.67
2.65
2.53
2.41
2.30
2.19

9
963.28
39.39
14.47
8.90
6.68
5.52
4.82
4.36
4.03
3.78
3.59
3.44
3.31
3.21
3.12
3.05
2.98
2.93
2.88
2.84
2.80
2.76
2.73
2.70
2.68
2.65
2.63
2.61
2.59
2.57
2.45
2.33
2.22
2.11

115

TABLES STATISTIQUES

Loi de Fisher : = 0.025 (suite)

Degrs de libert du dnominateur : 2

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120

10
968.63
39.40
14.42
8.84
6.62
5.46
4.76
4.30
3.96
3.72
3.53
3.37
3.25
3.15
3.06
2.99
2.92
2.87
2.82
2.77
2.73
2.70
2.67
2.64
2.61
2.59
2.57
2.55
2.53
2.51
2.39
2.27
2.16
2.05

12
976.71
39.41
14.34
8.75
6.52
5.37
4.67
4.20
3.87
3.62
3.43
3.28
3.15
3.05
2.96
2.89
2.82
2.77
2.72
2.68
2.64
2.60
2.57
2.54
2.51
2.49
2.47
2.45
2.43
2.41
2.29
2.17
2.05
1.94

15
984.87
39.43
14.25
8.66
6.43
5.27
4.57
4.10
3.77
3.52
3.33
3.18
3.05
2.95
2.86
2.79
2.72
2.67
2.62
2.57
2.53
2.50
2.47
2.44
2.41
2.39
2.36
2.34
2.32
2.31
2.18
2.06
1.94
1.83

Degrs de libert du numrateur : 1


20
24
30
40
993.10 997.25 1001.41 1005.60
39.45
39.46
39.46
39.47
14.17
14.12
14.08
14.04
8.56
8.51
8.46
8.41
6.33
6.28
6.23
6.18
5.17
5.12
5.07
5.01
4.47
4.41
4.36
4.31
4.00
3.95
3.89
3.84
3.67
3.61
3.56
3.51
3.42
3.37
3.31
3.26
3.23
3.17
3.12
3.06
3.07
3.02
2.96
2.91
2.95
2.89
2.84
2.78
2.84
2.79
2.73
2.67
2.76
2.70
2.64
2.59
2.68
2.63
2.57
2.51
2.62
2.56
2.50
2.44
2.56
2.50
2.44
2.38
2.51
2.45
2.39
2.33
2.46
2.41
2.35
2.29
2.42
2.37
2.31
2.25
2.39
2.33
2.27
2.21
2.36
2.30
2.24
2.18
2.33
2.27
2.21
2.15
2.30
2.24
2.18
2.12
2.28
2.22
2.16
2.09
2.25
2.19
2.13
2.07
2.23
2.17
2.11
2.05
2.21
2.15
2.09
2.03
2.20
2.14
2.07
2.01
2.07
2.01
1.94
1.88
1.94
1.88
1.82
1.74
1.82
1.76
1.69
1.61
1.71
1.64
1.57
1.48

60
1009.80
39.48
13.99
8.36
6.12
4.96
4.25
3.78
3.45
3.20
3.00
2.85
2.72
2.61
2.52
2.45
2.38
2.32
2.27
2.22
2.18
2.14
2.11
2.08
2.05
2.03
2.00
1.98
1.96
1.94
1.80
1.67
1.53
1.39

120
1014.02
39.49
13.95
8.31
6.07
4.90
4.20
3.73
3.39
3.14
2.94
2.79
2.66
2.55
2.46
2.38
2.32
2.26
2.20
2.16
2.11
2.08
2.04
2.01
1.98
1.95
1.93
1.91
1.89
1.87
1.72
1.58
1.43
1.27

1018
39.50
13.90
8.26
6.02
4.85
4.14
3.67
3.33
3.08
2.88
2.72
2.60
2.49
2.40
2.32
2.25
2.19
2.13
2.09
2.04
2.00
1.97
1.94
1.91
1.88
1.85
1.83
1.81
1.79
1.64
1.48
1.31
1.00

116

TABLES STATISTIQUES

Loi de Fisher : = 0.01

Degrs de libert du dnominateur : 2

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120

1
4052.18
98.50
34.12
21.20
16.26
13.75
12.25
11.26
10.56
10.04
9.65
9.33
9.07
8.86
8.68
8.53
8.40
8.29
8.18
8.10
8.02
7.95
7.88
7.82
7.77
7.72
7.68
7.64
7.60
7.56
7.31
7.08
6.85
6.63

2
4999.50
99.00
30.82
18.00
13.27
10.92
9.55
8.65
8.02
7.56
7.21
6.93
6.70
6.51
6.36
6.23
6.11
6.01
5.93
5.85
5.78
5.72
5.66
5.61
5.57
5.53
5.49
5.45
5.42
5.39
5.18
4.98
4.79
4.61

Degrs de libert du numrateur : 1


3
4
5
6
7
5403.35 5624.58 5763.65 5858.99 5928.36
99.17
99.25
99.30
99.33
99.36
29.46
28.71
28.24
27.91
27.67
16.69
15.98
15.52
15.21
14.98
12.06
11.39
10.97
10.67
10.46
9.78
9.15
8.75
8.47
8.26
8.45
7.85
7.46
7.19
6.99
7.59
7.01
6.63
6.37
6.18
6.99
6.42
6.06
5.80
5.61
6.55
5.99
5.64
5.39
5.20
6.22
5.67
5.32
5.07
4.89
5.95
5.41
5.06
4.82
4.64
5.74
5.21
4.86
4.62
4.44
5.56
5.04
4.69
4.46
4.28
5.42
4.89
4.56
4.32
4.14
5.29
4.77
4.44
4.20
4.03
5.18
4.67
4.34
4.10
3.93
5.09
4.58
4.25
4.01
3.84
5.01
4.50
4.17
3.94
3.77
4.94
4.43
4.10
3.87
3.70
4.87
4.37
4.04
3.81
3.64
4.82
4.31
3.99
3.76
3.59
4.76
4.26
3.94
3.71
3.54
4.72
4.22
3.90
3.67
3.50
4.68
4.18
3.85
3.63
3.46
4.64
4.14
3.82
3.59
3.42
4.60
4.11
3.78
3.56
3.39
4.57
4.07
3.75
3.53
3.36
4.54
4.04
3.73
3.50
3.33
4.51
4.02
3.70
3.47
3.30
4.31
3.83
3.51
3.29
3.12
4.13
3.65
3.34
3.12
2.95
3.95
3.48
3.17
2.96
2.79
3.78
3.32
3.02
2.80
2.64

8
5981.07
99.37
27.49
14.80
10.29
8.10
6.84
6.03
5.47
5.06
4.74
4.50
4.30
4.14
4.00
3.89
3.79
3.71
3.63
3.56
3.51
3.45
3.41
3.36
3.32
3.29
3.26
3.23
3.20
3.17
2.99
2.82
2.66
2.51

9
6022.47
99.39
27.35
14.66
10.16
7.98
6.72
5.91
5.35
4.94
4.63
4.39
4.19
4.03
3.89
3.78
3.68
3.60
3.52
3.46
3.40
3.35
3.30
3.26
3.22
3.18
3.15
3.12
3.09
3.07
2.89
2.72
2.56
2.41

117

TABLES STATISTIQUES

Loi de Fisher : = 0.01 (suite)

Degrs de libert du dnominateur : 2

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120

10
6055.85
99.40
27.23
14.55
10.05
7.87
6.62
5.81
5.26
4.85
4.54
4.30
4.10
3.94
3.80
3.69
3.59
3.51
3.43
3.37
3.31
3.26
3.21
3.17
3.13
3.09
3.06
3.03
3.00
2.98
2.80
2.63
2.47
2.32

12
6106.32
99.42
27.05
14.37
9.89
7.72
6.47
5.67
5.11
4.71
4.40
4.16
3.96
3.80
3.67
3.55
3.46
3.37
3.30
3.23
3.17
3.12
3.07
3.03
2.99
2.96
2.93
2.90
2.87
2.84
2.66
2.50
2.34
2.18

15
6157.28
99.43
26.87
14.20
9.72
7.56
6.31
5.52
4.96
4.56
4.25
4.01
3.82
3.66
3.52
3.41
3.31
3.23
3.15
3.09
3.03
2.98
2.93
2.89
2.85
2.81
2.78
2.75
2.73
2.70
2.52
2.35
2.19
2.04

Degrs de libert du numrateur : 1


20
24
30
40
6208.73 6234.63 6260.65 6286.78
99.45
99.46
99.47
99.47
26.69
26.60
26.50
26.41
14.02
13.93
13.84
13.75
9.55
9.47
9.38
9.29
7.40
7.31
7.23
7.14
6.16
6.07
5.99
5.91
5.36
5.28
5.20
5.12
4.81
4.73
4.65
4.57
4.41
4.33
4.25
4.17
4.10
4.02
3.94
3.86
3.86
3.78
3.70
3.62
3.66
3.59
3.51
3.43
3.51
3.43
3.35
3.27
3.37
3.29
3.21
3.13
3.26
3.18
3.10
3.02
3.16
3.08
3.00
2.92
3.08
3.00
2.92
2.84
3.00
2.92
2.84
2.76
2.94
2.86
2.78
2.69
2.88
2.80
2.72
2.64
2.83
2.75
2.67
2.58
2.78
2.70
2.62
2.54
2.74
2.66
2.58
2.49
2.70
2.62
2.54
2.45
2.66
2.58
2.50
2.42
2.63
2.55
2.47
2.38
2.60
2.52
2.44
2.35
2.57
2.49
2.41
2.33
2.55
2.47
2.39
2.30
2.37
2.29
2.20
2.11
2.20
2.12
2.03
1.94
2.03
1.95
1.86
1.76
1.88
1.79
1.70
1.59

60
6313.03
99.48
26.32
13.65
9.20
7.06
5.82
5.03
4.48
4.08
3.78
3.54
3.34
3.18
3.05
2.93
2.83
2.75
2.67
2.61
2.55
2.50
2.45
2.40
2.36
2.33
2.29
2.26
2.23
2.21
2.02
1.84
1.66
1.47

120
6339.39
99.49
26.22
13.56
9.11
6.97
5.74
4.95
4.40
4.00
3.69
3.45
3.25
3.09
2.96
2.84
2.75
2.66
2.58
2.52
2.46
2.40
2.35
2.31
2.27
2.23
2.20
2.17
2.14
2.11
1.92
1.73
1.53
1.32

6366
99.50
26.13
13.46
9.02
6.88
5.65
4.86
4.31
3.91
3.60
3.36
3.17
3.00
2.87
2.75
2.65
2.57
2.49
2.42
2.36
2.31
2.26
2.21
2.17
2.13
2.10
2.06
2.03
2.01
1.80
1.60
1.38
1.00

118

TABLES STATISTIQUES

Test de Durbin et Watson


Valeurs critiques au seuil = 0.05 pour H0 : = 0
p : nombre de variables explicatives (constante exclue)
n : nombre dobservations


0

n
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
45
50
55
60
65
70
75
80
85
90
95
100



refusee

p=1
d1
d2
1.08 1.36
1.10 1.37
1.13 1.38
1.16 1.39
1.18 1.40
1.20 1.41
1.22 1.42
1.24 1.43
1.26 1.44
1.27 1.45
1.29 1.45
1.30 1.46
1.32 1.47
1.33 1.48
1.34 1.48
1.35 1.49
1.36 1.50
1.37 1.50
1.38 1.51
1.39 1.51
1.40 1.52
1.41 1.52
1.42 1.53
1.43 1.54
1.43 1.54
1.44 1.54
1.48 1.57
1.50 1.59
1.53 1.60
1.55 1.62
1.57 1.63
1.58 1.64
1.60 1.65
1.61 1.66
1.62 1.67
1.63 1.68
1.64 1.69
1.65 1.69


Incertitude

p=2
d1
d2
0.95 1.54
0.98 1.54
1.02 1.54
1.05 1.53
1.08 1.53
1.10 1.54
1.13 1.54
1.15 1.54
1.17 1.54
1.19 1.55
1.21 1.55
1.22 1.55
1.24 1.56
1.26 1.56
1.27 1.56
1.28 1.57
1.30 1.57
1.31 1.57
1.32 1.58
1.33 1.58
1.34 1.58
1.35 1.59
1.36 1.59
1.37 1.59
1.38 1.60
1.39 1.60
1.43 1.62
1.46 1.63
1.49 1.64
1.51 1.65
1.54 1.66
1.55 1.67
1.57 1.68
1.59 1.69
1.60 1.70
1.61 1.70
1.62 1.71
1.63 1.72

p=3
d1
d2
0.82 1.75
0.86 1.73
0.90 1.71
0.93 1.69
0.97 1.68
1.00 1.68
1.03 1.67
1.05 1.66
1.08 1.66
1.10 1.66
1.12 1.66
1.14 1.65
1.16 1.65
1.18 1.65
1.20 1.65
1.21 1.65
1.23 1.65
1.24 1.65
1.26 1.65
1.27 1.65
1.28 1.65
1.29 1.65
1.31 1.66
1.32 1.66
1.33 1.66
1.34 1.66
1.38 1.67
1.42 1.67
1.45 1.68
1.48 1.69
1.50 1.70
1.52 1.70
1.54 1.71
1.56 1.72
1.57 1.72
1.59 1.73
1.60 1.73
1.61 1.74



acceptee

p=4
d1
d2
0.69 1.97
0.74 1.93
0.78 1.90
0.82 1.87
0.86 1.85
0.90 1.83
0.93 1.81
0.96 1.80
0.99 1.79
1.01 1.78
1.04 1.77
1.06 1.76
1.08 1.76
1.10 1.75
1.12 1.74
1.14 1.74
1.16 1.74
1.18 1.73
1.19 1.73
1.21 1.73
1.22 1.73
1.24 1.73
1.25 1.72
1.26 1.72
1.27 1.72
1.29 1.72
1.34 1.72
1.38 1.72
1.41 1.72
1.44 1.73
1.47 1.73
1.49 1.74
1.51 1.74
1.53 1.74
1.55 1.75
1.57 1.75
1.58 1.75
1.59 1.76

p=5
d1
d2
0.56 2.21
0.62 2.15
0.67 2.10
0.71 2.06
0.75 2.02
0.79 1.99
0.83 1.96
0.86 1.94
0.90 1.92
0.93 1.90
0.95 1.89
0.98 1.88
1.01 1.86
1.03 1.85
1.05 1.84
1.07 1.83
1.09 1.83
1.11 1.82
1.13 1.81
1.15 1.81
1.16 1.80
1.18 1.80
1.19 1.80
1.21 1.79
1.22 1.79
1.23 1.79
1.29 1.78
1.34 1.77
1.38 1.77
1.41 1.77
1.44 1.77
1.46 1.77
1.49 1.77
1.51 1.77
1.52 1.77
1.54 1.78
1.56 1.78
1.57 1.78

Vous aimerez peut-être aussi