MODLE LINAIRE
M. B ONNEU , E. L ECONTE
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
11
11
16
20
20
20
23
26
28
28
29
31
Modle linaire
2.1 Formulation du modle linaire . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Ecriture matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.2 Hypothses du modle linaire . . . . . . . . . . . . . . . . . . . . . .
2.2 Estimateur des moindres carrs ordinaires (MCO) . . . . . . . . . . . . . . . .
2.2.1 Dfinition de lestimateur MCO du paramtre . . . . . . . . . . . . .
2.2.2 Proprits de lestimateur MCO . . . . . . . . . . . . . . . . . . . .
2.2.3 Estimation de la variance rsiduelle 2 . . . . . . . . . . . . . . . . . .
2.3 Interprtation gomtrique . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Reprsentation des individus . . . . . . . . . . . . . . . . . . . . . . .
2.3.2 Espace des variables . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.3 Coefficient de corrlation multiple (empirique) ou coefficient de dtermination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.4 Interprtation et critique de lutilisation de R2 . . . . . . . . . . . . . .
35
35
36
36
37
37
39
39
41
41
41
47
47
43
43
3.2
3.3
3.1.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.2 Estimateur maximum de vraisemblance EM V ou M LE
3.1.3 Loi de probabilit des estimateurs . . . . . . . . . . . .
3.1.4 Estimation par intervalle de confiance (IC) . . . . . . .
3.1.5 Prvision pour une valeur future x0 = (x10 , . . . , xp0 )0 . . .
Tests dhypothses . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1 Estimation sous contrainte linaire . . . . . . . . . . . .
3.2.2 Test de student de signification dun coefficient j . . .
3.2.3 Test de Fisher de signification de plusieurs coefficients .
3.2.4 Test de Fisher dune hypothse linaire gnrale . . . .
Critiques du modle linaire gaussien . . . . . . . . . . . . . .
3.3.1 Test de linarit . . . . . . . . . . . . . . . . . . . . . .
3.3.2 Analyse des rsidus . . . . . . . . . . . . . . . . . . . .
3.3.3 Dtection de valeurs aberrantes ou influentes . . . . . .
3.3.4 Slection des variables exognes . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
47
48
48
51
54
54
54
55
56
57
58
58
60
64
65
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
71
72
72
73
75
77
78
78
79
80
83
87
87
90
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
91
92
92
95
96
98
99
99
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Bibliographie
105
Tables statistiques
107
Introduction
En conomtrie, quand on est en prsence de plusieurs variables, le but nest pas uniquement
de les tudier en tant que variables alatoires, mais essentiellement de modliser leurs relations.
Cadre de ce cours : MODELES EXPLICATIFS
Expliquer une variable endogne y quantitative par p variables exognes, dites explicatives.
Les donnes se prsentent sous la forme du tableau suivant :
x1
u.s. 1
..
.
y
endogne
y1
..
.
x11
..
.
xp1
..
.
u.s. i
..
.
yi
..
.
x1i
..
.
xpi
..
.
u.s. n
yn
x1n
xpn
Variables
xp
INTRODUCTION
Chiffre daffaire
Marge Commerciale
Charges locatives
Charge salariale
CA HT
CA TTC
Marge
% CA HT
Taille
Loyer
% CA HT
Nbre Vendeurs
CA / vendeur
Agen
Amboise
1181201
700201
1441081
954241
592101
355901
50.127
50.828
112201
58501
9.498
8.354
2501
1501
472.29
466.49
Perpignan
1079101
1318501
505201
46.816
10.001
10001
...
...
95301
129401
11.991
2701
399.519
Exemple 2.
On se propose dtudier la relation, quon suppose linaire si elle existe, entre le prix et
les variables suivantes : cylindre, puissance, longueur, largeur, poids et vitesse de 18 voitures
figurant dans le tableau :
OBS
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
x2
x3
x4
x5
x6
x7
x8
NOM
CYL
PUIS
LON
LAR
POIDS
VITESSE
FINITION
PRIX
ALFASUD-TI-1350
AUDI-100-L
SIMCA-1307-GLS
CITROEN-CG-CLUB
FIAT-132-1600GLS
LANCIA-BETA-1300
PEUGEOT-504
RENAULT-16-TL
RENAULT-30-TS
TOYOTA-COROLLA
ALFETTA-1.66
PRINCESS-1800-HL
DATSUN-200L
TAUNUS-2000-GL
RANCHO
MAZDA-9295
OPEL-REKORD-L
LADA-1300
1350
1588
1294
1222
1585
1297
1796
1565
2664
1166
1570
1798
1998
1993
1442
1769
1979
1294
79
85
68
59
98
82
79
55
128
55
109
82
115
98
80
83
100
68
393
468
424
412
439
429
449
424
452
399
428
445
469
438
431
440
459
404
161
177
168
161
164
169
169
163
173
157
162
172
169
170
166
165
173
161
870
1110
1050
930
1105
1080
1160
1010
1320
815
1060
1160
1370
1080
1129
1095
1120
955
165
160
152
151
165
160
154
140
180
140
175
158
160
167
144
165
173
140
B
TB
M
M
B
TB
B
B
TB
M
TB
B
TB
B
TB
M
B
M
30570
39990
29600
28250
34900
35480
32300
32000
47700
26540
42395
33990
43980
35010
39450
27900
32700
22100
yi = 1 + 2 x2i + + 8 x8i + ei
Exemple 3.
Modle conomique du comportement de production des entreprises :
p
Y
Q = (xj )j
(1)
j=2
(Fonction de Cobb-Douglas)
var y expliquer : Q quantit de production
INTRODUCTION
var x2 , . . . , xp explicatives :
K : Capital,
L : Travail,
E : Energie,
M : Matires premires,
T : Progrs techniques.
(1) scrit :
log Q = 1 +
p
X
j=2
log Q =
ou encore
p
X
j=1
p
X
j log xjt + et
j=1
avec des hypothses sur les v.a. et , qui diffrent selon les 2 cas suivants :
Cas 1. les variables xjt ne contiennent pas de valeurs passes de Qt : modle explicatif statique.
Cas 2. sinon, modle explicatif dynamique et dans ce cas les rsidus et sont des v.a. corrles.
2. Soit partir dun panel de n entreprises dans une priode donne :
log Qi =
p
X
j log xji + ei
j=1
INTRODUCTION
Exemple 4.
En Macroconomie, modle dynamique explicatif :
Rt
= 1
taux
dintrt
long terme
+ 2
Mt + 3
It
+ 4
Ut
+ et
masse
taux
taux
montaire
dinflation
de chmage
centres
V (et ) = t2
htroscdastiques
INTRODUCTION
OBJECTIF DU COURS
10
INTRODUCTION
Chapitre 1
Outils algbriques et probabilistes pour le
modle linaire
1.1
Ce chapitre se propose de rassembler des notations et rappels dalgbre linaire ainsi que
quelques complments mathmatiques du niveau du premier cycle des Universits.
Dans tout ce qui suit, E et F sont deux espaces vectoriels rels munis respectivement des
bases canoniques E = {ej ; j = 1, . . . , p} et F = {fi ; i = 1, . . . , n}. On note indiffremment
un vecteur de E ou de F , un endomorphisme de E, une application linaire de E dans F et
leurs reprsentations matricielles dans ces bases.
1.1.1 Matrices
Notations
La matrice dordre (n p) associe une application linaire de E dans F est dcrite par
un tableau :
.
.. ... ...
j
p
1
A=
ai ai ai
..
.
.
. .. ..
a1n ajn apn
11
12
0 si i 6= j
,
1 si i = j
diagonale si aji = 0 lorsque i 6= j,
symtrique si aji = aij ,
triangulaire suprieure (infrieure) si
identit (Ip ) si
aji
ij
Produit
[AB]ji = a0i bj avec A(np) , B(pq) .
13
La trace et le dterminant sont des notions intrinsques qui ne dpendent pas des bases de
reprsentation choisies mais uniquement de lapplication linaire sous-jacente.
Trace
Par dfinition, si A est une matrice (p p) :
trA =
p
X
aii
i=1
tr
tr(A)
tr(A + B)
tr(AB)
=
=
=
=
i=1 j=1
Dterminant
On note | A | (ou detA) le dterminant de la matrice carre A. Il vrifie :
|A| =
p
Y
i=1
| A | = p | A | .
Inverse
Linverse de A, lorsquelle existe, est la matrice unique note A1 telle que
AA1 = A1 A = Ip ;
elle existe si et seulement si | A |6= 0.
Quelques proprits :
(A1 )0 = (A0 )1 ,
(AB)1 = B 1 A1 ,
1
| A1 | =
|A|
14
Dfinitions
Une matrice carre A est dite :
symtrique si A0 = A,
singulire si | A |= 0,
rgulire si | A |6= 0,
idempotente si AA = A,
orthogonale si AA0 = A0 A = I(A0 = A1 ).
Exercice :
1 2
1
1
4 2
Soit A = 2
6
1 2
1
15
Proprits des vecteurs propres et des valeurs propres des matrices relles symtriques
Dans les problmes statistiques nous sommes gnralement confronts des matrices relles
symtriques. Les proprits numres ci-dessous qui sont prcdes par un astrisque ne sont
valables que pour les matrices relles symtriques ; celles sans astrisque sont valables pour
toutes les matrices relles.
1.
2.
3.
Les vecteurs propres associs des valeurs propres diffrentes sont orthogonaux.
Si une valeur propre est de multiplicit algbrique k (cest--dire, si elle est une racine
dordre k), il y a k vecteurs propres orthogonaux qui lui sont associs.
4. La matrice symtrique A dordre n possde n valeurs propres 1 , 2 , . . . , n , pas forcment diffrentes. Les proprits 2 et 3 montrent quil existe un ensemble de n vecteurs
propres orthogonaux x1 , x2 , . . . , xn , tels que
x0i xj = 0
5.
i 6= j; i, j = 1, 2, . . . , n
6. La somme des valeurs propres est gale la somme des lments diagonaux (la trace) de
A.
7. Le produit des valeurs propres dune matrice A est gale son dterminant.
8. Le rang de A est gal au nombre de ses valeurs propres non nulles.
9. Les valeurs propres de A2 sont les carrs des valeurs propres de A et ces deux matrices
ont les mmes vecteurs propres.
10. Les valeurs propres de A1 sont les inverses des valeurs propres de A, mais ces deux
matrices ont les mmes vecteurs propres. Soit :
Ax = x
11. Les valeurs propres dune matrice idempotente ne peuvent tre gales qu 0 ou 1.
12. Le rang dune matrice idempotente est gal sa trace.
16
Sous-espaces
Un sous-ensemble Eq de E est un sous-espace vectoriel (s.e.v.) de E sil est non vide et
stable :
x, y Eq , IR, (x + y) Eq .
Le q-uple {x1 , . . . , xq } de E constitue un systme linairement indpendant si et seulement si :
q
X
i xi = 0 1 = = q = 0.
i=1
Ker(A) =
dim(Im(A)) + dim(Ker(A)).
Rang
rang(A)
0
dim(Im(A)),
rang(A)
min(n, p),
rang(A)
rang(A0 ),
rang(A + B)
rang(A) + rang(B),
rang(AB)
min(rang(A), rang(B)),
rang(BAC)
rang(A)
17
Mtrique euclidienne
Soit M une matrice carre (p p), symtrique, dfinie-positive ; M dfinit sur lespace E :
un produit scalaire : hx, yiM = x0 M y,
1/2
une norme : k x kM = hx, xiM ,
une distance : dM (x, y) =k x y kM ,
hx, yiM
des angles : cos M (x, y) =
,
k x kM k y kM
La matrice M tant donne, on dit que :
une matrice A est M -symtrique si A0 M = M A,
deux vecteurs x et y sont M -orthogonaux si hx, yiM = 0,
un vecteur x est M -norm si k x kM = 1,
une base Eq = {e1 , . . . , eq } est M -orthonorme si
(i, j), hei , ej iM = ij .
Remarque : Si M est la matrice Identit (M = Ip ), cest le cas usuel relatif la base canonique
de IR p .
Projection
Dfinitions quivalentes
Soit W un sous-espace de E et B = {b1 , . . . , bq } une base de W : P (p p) est une
matrice de projection M -orthogonale sur W si et seulement si :
y E, P y W et hP y, y P yiM = 0.
Toute matrice idempotente (P 2 = P ) et M -symtrique (P 0 M = M P ) est une matrice de
projection M -orthogonale.
Proprits dune matrice P de projection
Les valeurs propres de P sont 0 ou 1
u W P u = u, = 1 de multiplicit dim(W ),
v W LP v = 0, = 0 de multiplicit dim(W ), o W est le sous-espace orthogonal
W (W
W = E).
trP = dim(W ) (= rang(P )),
P = B(B 0 M B)1 B 0 M o B = [b1 , . . . , bq ],
18
P = BB M =
q
X
bj bj M,
j=1
19
p
X
j xji + ei (i = 1, . . . , n).
j=1
W = vect{x1 , . . . , xp }.
6
W
y
y Py W
Py W
W
20
f (u)
u1
f (u)
.
..
=
f (u)
uk
Proprits
(i) Cas des formes linaires : Si f (u) = a0 u o a est un vecteur (k 1) :
a0 u
u0 a
=a=
u
u
(ii) Cas des formes quadratiques : Si f (u) = u0 Au ou A est une matrice carre dordre k,
alors :
u0 Au
= (A + A0 )u.
u
u0 Au
= 2Au.
De plus, si A est symtrique :
u
(cf. tableau de lois, thormes sur les combinaisons linaires indpendantes de v.a.r. et sur
les changements de variables donnant les lois usuelles dchantillonnage : F, T, 2 ).
21
Formulaire de probabilits
Lois de probabilit usuelles
Lois discrtes
Dnomination
X
Loi de probabilit
Moyenne
E(X)
Variance
V (X)
k pk (1 p)nk
P [X = k] = Cn
k = 0, 1, 2, . . . , n
np
np(1 p)
Loi multinomiale n; p1 , . . . , pk ,
P [X1 = n1 et X2 = n2 et Xk = nk ]
E(Xi ) = npi
P [X = k] = e k!
k entier positif ou nul
n1
P [X = k] = Cn+k1
pn (1 p)k
k entier positif ou nul
n(1 p)
p
n(1 p)
p2
n entier positif ;
p1 + p2 + + pk = 1
n!
nk
2
pn1 pn
2 pk
n1 !n2 ! nk ! 1
P
ni entier positif ; ki=1 ni = n.
Loi de Poisson de
paramtre ( > 0)
22
Lois continues
Dnomination
X
Loi de probabilit
f (x) =
Loi normale N (, 2 )
f (x) =
positif
f (x) =
a et p strictement positifs
q>0
1
,
2 2
1
e 2
Loi de Cauchy
ap p1 ax
x
e
si x > 0
(p)
0 si x 0
R
o (p) = 0+ xp1 ex dx
x 1
e 2 x2
22
f (x) =
2
(b a)2
12
p
a
p
a2
p
p+q
pq
(p + q)2 (p + q + 1)
si x > 0
si x 0
+1
2 2
1 + x
f (x) =
B 12 , 2
1/2 2/2
1
2
x 1/2 1
2
B( 1 , 2 )( x + ) 1 +
2
1
2
2
2
f (x) =
pour x > 0
0 pour x 0
f (x) =
Loi de Laplace
f (x) =
de paramtre > 0
a+b
2
2
f (x) =
Loi de 2 degrs
Variance
V (X)
1
xp1 (1 x)q1
B(p, q)
si 0 < x < 1
0 sinon
R 1 p1
o B(p, q) = 0 x
(1 x)q1 dx
1
pour a x b
ba
Moyenne
E(X)
1
(1 + x2 )
1
1
exp
x
0 pour 2
non dfinie
pour 2
2
pour = 1
2
pour 2 3
2 2
non dfinie
pour 2 < 3
222 (1 + 2 2)
1 (2 2)2 (2 4)
si 2 5
non dfinie
non dfinie
2
2
23
X1
X = ... o Xi v.a.r.
(1 i p)
Xp
Loi de probabilit dun vecteur alatoire X
Elle est dfinie par la fonction de rpartition F application de IR p dans IR :
!
Y
F (x1 , . . . , xp ) = P X
] , xi ]
1ip
= P (X1 x1 , . . . , Xp xp )
Remarque : La loi de probabilit sera dfinie de faon quivalente par :
pF
si la drive partielle existe dans le
Soit la densit de X : f (x1 , . . . , xp ) =
x1 . . . xp
cas de v.a. continues.
Soit P (X1 = x1 , . . . , Xp = xp ) dans le cas de v.a. discrtes.
Application : Montrer que f (x1 , x2 ) =
alatoire X de IR 2 .
1
2 x1 x2
E(X1 )
..
E(X) =
.
E(Xp )
Remarque : RQuand
on ne dispose que de la loi de X, on peut calculer E(Xi ) par la formule :
R
E(Xi ) =
x f (x , . . . , xp )dx1 dxp , dans le cas
IR p i " 1
# continu
Z Z
Y
R
ou bien E(Xi ) = IR xi
f (x1 , . . . , xp )
dxj dxi
IR p1
j6=i
{z
densit marginale de Xi
24
x1
ou bien E(Xi ) =
xp
xi
xi
XX
j6=i
P (X1 = x1 , . . . , Xp = xp )
xj
{z
}
|
Probabilit marginale P (Xi =xi )
Proprit :
Soit X un vecteur alatoire de IR p et A une matrice non alatoire (m p). On a alors
E(AX) = AE(X).
V (X1 )
cov (X1 , X2 ) cov (X1 , Xp )
..
..
Cest--dire V (X) = cov (X2 , X1 )
V (X2 )
.
.
..
..
cov (Xp , X1 )
V (Xp )
cf. exemple prcdent : dterminer la matrice V (X)
1. V (X) = E [(X E(X)) (X E(X))0 ] = E(XX 0 ) E(X)[E(X)]0
(p n)
(n p)
2. V (X) est symtrique (en exercice)
3. V (X) est dfinie positive (en exercice)
P
4. Rciproquement
si est une matrice carre dordre p symtrique et dfinie positive, alors
P
est la matrice de variance dun vecteur alatoire de IR p .
A V (X) A0
(m p)(p p)(p m)
mensions respectives (m p) et (p n).
5. var (AX + B) =
25
A = x1i xpi
.
..
..
.
1
xn xpn
1X j
x , pour j = 1 p.
n i=1 i
1X j
(x xj )2 et cov(xj , xk ) la covariance
On note varx , la variance empirique : varx =
n i=1 i
empirique :
n
1X j
j
k
cov (x , x ) =
(xi xj )(xki xk )
n i=1
j
La matrice de variance covariance empirique est la matrice de terme gnral cov (xj , xk ), dont
lexpression matricielle est :
1 0
A A x x0 .
n
.
var xj var xk
26
1.2.3
PUIS
0.79663
1.00000
0.64136
0.52083
0.76529
0.84438
0.79870
LON
0.70146
0.64136
1.00000
0.84927
0.86809
0.47593
0.64376
LAR
0.62976
0.52083
0.84927
1.00000
0.71687
0.47295
0.54665
Changement de variable
1 (x)
x1
1
On suppose
1 queles applications i sont biunivoques cest--dire i existe et
1 (y)
..
1
(y) =
.
.
1
p (y)
x1
.
det J = ..
y1
x
p
Exercice
Soit X = (X1 , X2 ) un couple de deux v.a. indpendantes et de mme loi exponentielle de
paramtre 1.
27
X1 + X2
?
Quelle est la densit de Y = (X) =
X2
En dduire que la loi de X1 + X2 est Gamma(1,2).
Loi de probabilit
Xi binomiale : B(ni , p)
(Xi ) indpendantes ; Y =
k
X
i=1
Xi
Xi de Poisson : P(i )
(Xi ) indpendantes ; Y =
k
X
i=1
Xi normale : N (i , i2 )
(Xi ) indpendantes ; Y =
n
X
i=1
Xi
ai Xi
(Xi ) indpendantes ; Y =
n
X
i=1
Cas particulier :
Xi
Y binomiale B
ni , p
i=1
Y loi de Poisson P
k
X
i=1
Y normale N
k
X
ai i ,
i=1
Cas particulier : i = et i =
n
1X
=
X=
Xi
n i=1
Xi loi gamma : G(a, pi )
k
X
Xi loi de i dd` =
n
X
i=1
2
X normale N , n
Y loi gamma G a,
n
X
i=1
Y loi de
n
X
i=1
i dd`
pi
a2i i2
28
Hypothses
Xi normales centres rduites N (0, 1)
et indpendantes
Loi de probabilit
X normale N (0, 1)
Y loi de 2 n dd`
=
X et Y indpendantes
X1 loi de 2 n1 dd`
2
X2 loi de n2 dd`
=
X1 et X2 indpendantes
T loi de Student dd` =
1.3
1.3.1
n
X
i=1
X
q loi de Student n dd`
Y
n
X1
n1
loi de Fisher Snedecor
X2
n1 et n2 dd`
n2
T 2 loi de Fisher 1 = 1 et 2 =
29
Notation :
X Nn (, )
E(X) = et V (X) =
Dfinition 2. X Nn (, ) o est une matrice carre symtrique et de rang n si la densit
de X scrit :
1
n/2
1/2
2
fX (x1 , . . . , xn ) = (2)
(det )
exp k x k1
2
x1
..
o x = .
xn
Applications :
1.
2.
1.3.2
30
(
x 1 1
1
fX (x1 , x2 )
=
densit conjointe
cest--dire
2
x 2 2
2
2 )
X1 et X2 indpendantes
U
Thorme 2. Soit Z =
Nu+w (, ) o U v.a. de IR u et W v.a. de IR w .
W
La loi de U sachant W = w est une loi gaussienne.
Nu E(U ) + cov (U, W )(V (W ))1 (W E(W )),
avec
cov (U, W ) = 0
U et W indpendants
()
()
[V (U )]
1
0
1
0 1
2
= 1
fU (u) = (2)n/2 (det V (U ))1/2 exp 12 (u E(U ))0 (V (U ))1 (u E(U ))
= fU1 (u1 ) fU2 (u2 )
31
32
1 = 1/2 1/2
On pose y = 1/2 (X )
y Nn (0, In )
En effet
n
X
yi2 est une v.a.r. qui suit une loi de 2 (n), daprs la dfinition dune loi de chi-deux.
i=1
( 1)u = 0
= 1 ou = 0
Or rang A = r il a r valeurs propres non nulles, donc gales 1.
Soit y = P 0 X,
L=
1
...
0
1
0
..
.
0
33
E(y) = 0
V (y) = P V (X)P 0 = In
car
V (X) = In et P P 0 = In .
Donc y Nn (0, In ).
X 0 AX = X 0 P LP 0 X = (P 0 X)0 L(P 0 X) =
r
X
yir 2(r)
i=1
Xi N (, 2 )
n
1 X
2
(Xi X)2 2(n1)
i=1
Xi indpendants
34
Chapitre 2
Modle linaire
Cadre gnral quand les variables exognes sont non alatoires.
Autre terminologie :
RLM (plusieurs v. exognes quantitatives) : Rgression Linaire Multiple
RLS
2.1
Donnes : Pour i = 1, . . . , n
yi
x1 , . . . , xp
|{z}
| i {z }i
endogne(quantitative) exognes
n>p
Modle linaire :
(1)
yi = 1 x1i + + p xpi +
i
|{z}
rsidu, bruit,. . .
(terme derreur)
(i = 1, . . . , n)
Remarques :
On notera y indiffremment la variable alatoire y ou la valeur observe y.
La relation (1) est stochastique :
yi observation dune v.a. yi
i valeur non observable dune v.a. i
35
36
y
=
X
(n 1)
(n p)
(p 1)
(n 1)
(2)
H1
H2
rg(X) = p
H3
Sur les rsidus.
est un vecteur alatoire de IR n tel que :
E() = 0
(centr)
V () = 2 In
o > 0
(nn)
Remarques
Hypothse H2 :
rg(X) = p Les p vecteurs colonnes x1 , . . . , xp sont linairement indpendants.
Donc n p.
Hypothse H3 :
E() = 0 et V () = 2 In .
37
= ... et 2
(p 1)
p
2.2
2.2.1
Notation
SS() =k k2In = 0 =
n
X
2i
i=1
n
X
"
yi
i=1
p
X
xi j
#2
j=1
38
SS()
= 0 2X 0 y + 2X 0 X = 0
(1)
(p 1)
u0 a
u = a
Justification (cf. Chapitre 1) :
u0 Au
= 2Au si A symtrique
u
Or rg(X) = p X 0 X inversible car de rang p.
39
Montrons :
V ()]u
0
u IR p , u0 [V ()
V ()]
u
u0 [V ()
= u0 [A V (y) A0 2 (X 0 X)1 ] u
| {z }
2 In
car
= u0 AE(y) = u0 AX
E(u0 )
(u0 AX u0 ) = 0 u0 AX = u0
= u0 E()
= u0
E(u0 )
2 u0 AM A0 u = 2 k A0 u k2M
= 2 (M A0 u)0 M A0 u = 2 k M A0 u k2In 0
V ()
est une matrice semi-dfinie positive. Donc a une variance minimum dans
Donc V ()
la classe des estimateurs linaires et sans biais de .
2.2.3
Thorme : La statistique
2 =
k y X k2In
est un estimateur sans biais de 2 .
np
40
Dmonstration :
E(
2) =
1
E(k y X k2In )
np
1
E(y 0 M y) o M = In X(X 0 X)1 X 0
np
1
1
E[tr(M yy 0 )] =
tr (M E(yy 0 ))
np
np
var y = E[(y X)(y X)0 ] = E(yy 0 ) X 0 X 0
(nn)
(nn)
Or
Var y = 2 I
n
E(yy 0 ) = 2 In + X 0 X 0
tr (M E(yy 0 )) = tr( 2 M ) + tr(M X 0 X 0 ) car M X = [In X(X 0 X)1 X 0 ]X = 0
| {z }
=0
E(
2) =
Or trM
1
2 trM
np
E(
2 ) = 2 . Donc
2 est un estimateur sans biais de 2 .
Remarque :
2 =
p
n
X
X
k y X k2In
RSS
=
=
2i o i = yi yi = yi
xji j .
np
np
i=1
j=1
Estimateur de V ()
k y X k2
d
V ()
=
2 (X 0 X)1 =
(X 0 X)1
np
En particulier :
Lcart-type estim de lestimateur j de chaque coefficient de rgression j est :
41
j =
2 [(X 0 X)1 ]jj qui est appel erreur standard de j , not e.s. (j ).
Le terme [(X 0 X)1 ]ij reprsente le terme gnral de la matrice (X 0 X)1 .
2.3
2.3.1
Interprtation gomtrique
Reprsentation des individus
2.3.2
j
y1
x1
..
..
j
Les vecteurs y = . et x = . pour j = 1, . . . , p sont des vecteurs dun espace
yn
xjn
vectoriel E IR n .
Notation : Soit =vect{x1 , . . . , xp } lespace engendr par les vecteurs x1 , . . . , xp .
Proprit 1 : La matrice P = X(X 0 X)1 X 0 est un oprateur de projection In -orthogonal sur
.
Dmonstration : (cf. exercice 2 TD 1).
Remarques :
a. Lestimateur MCO = (X 0 X)1 X 0 y correspond la projection de y sur :
y = P y = X(X 0 X)1 X 0 y = X =
p
X
j=1
j xj
42
Les coefficients j estims sont les coefficients de la combinaison linaire des vecteurs
xj (j = 1, . . . , p).
n
n
X
X
yi =
yi (Dmonstration exercice 2 TD 4)
b.
i=1
i=1
cest--dire
Graphique :
1
cos2 =
k y y1In k
k y y1In k2
y y1In
6
y y
-
y y1In
n
X
(yi y) =
|i=1 {z
}
TSS totale
n
X
(yi yi ) +
|i=1 {z
}
RSS rsiduelle
n
X
(
yi y)2
|i=1 {z
}
variation
explique par
la rgression
des p var. xj
43
R2 =
n
X
k y y1In k2
= i=1
n
2
X
k y y1In k
(
yi y)2
(yi y)2
i=1
2.3.4
Rgression
Rsiduelle
Totale
d.d.l.
6
11
17
Sig F
0 ,0156
44
30
25
25
30
10
15
10
10
15
20
25
10
15
20
25
30
30
25
20
15
10
15
20
25
10
0
0
20
15
20
10
15
20
25
10
15
20
25
30
15
10
20
25
10
20
30
45
R2 ajust = 0,5504
= 4406,23.
Coefficient
Ecartestim
type
-8239,362677 42718,42313
-3,505182
5,550595
208,693773
412,047884
-15,037660
129,747488
12,574678
24,622191
282,168803
174,882966
-111,113551
222,256575
T si H0 :
coeff. = 0
-0,193
-0,631
0,506
-0,116
0,511
1,613
-0,500
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
ALFASUD-TI-1350
AUDI-100-L
SIMCA-1307-GLS
CITROEN-CG-CLUB
FIAT-132-1600GLS
LANCIA-BETA-1300
PEUGEOT-504
RENAULT-16-TL
RENAULT-30-TS
TOYOTA-COROLLA
ALFETTA-1,66
PRINCESS-1800-HL
DATSUN-200L
TAUNUS-2000-GL
RANCHO
MAZDA-9295
OPEL-REKORD-L
LADA-1300
Prix
30570
39990
29600
28250
34900
35480
32300
32000
47700
26540
42395
33990
43980
35010
39450
27900
32700
22100
Prix estim
29616,1
36259,7
31411,1
26445,8
37043,0
34972,8
33749,1
26580,0
44445,6
24650,2
38270,5
34830,4
44872,4
36343,5
35638,1
32233,4
37103,5
30389,8
Sig T
0,8506
0,5406
0,6225
0,9098
0,6197
0,1349
0,6270
46
Modle
Puis.
Puis., Poids
Cyl., Puis., Poids
Cyl., Puis., Larg., Poids
Cyl., Puis., Larg., Poids, Vitesse
Complet
R2
0,638
0,686
0,699
0,702
0,709
0,709
4076,0
3916,4
3974,4
4103,7
4221,2
4406,2
=
.
1 R2 p 1
k y y k2 /(n p)
Statistique de Fisher (cf. Chapitre 3), cest la statistique du test dgalit zro des (p1)
coefficients 2 = 3 = = p = 0
2
Raj
=
k y y k2
estimateur sans biais de la variance rsiduelle 2 et qui sexprime en
np
2
fonction de Raj
:
2 =
2 = (1 Raj
)
k y y1In k2
n1
Chapitre 3
Induction statistique dans le modle
linaire
Si on ajoute aux hypothses du modle linaire une hypothse de normalit des rsidus, il est
possible de raliser des tests et des estimations par intervalle de confiance.
3.1
3.1.1 Dfinition
H1 ) y = X +
(cf. Chapitre 2)
48
3.1.2
k y X k2
2 =
np
2. Les estimateurs et
2 sont des estimateurs efficaces.
Dmonstration : (en exercice)
3.1.3
49
M = In X(X 0 X)1 X 0
k y X k2 = 0 M car = M
(rang M = n p)
Donc
1
Nn (0, In )
1 0
M 2(np)
2
1
k y X k2 2(np)
2
Remarques :
On retrouve
2
E(
)=E
en effet
k y X k2
np
E(
2) = 2
E(Z) = si Z 2()
On calcule V (
2) =
2
np
E
|
1
2
k
k y X
2
{z
}
2 2
np
k
y
V (
2) = V
np
2
!
4
k y X k2
V
=
(n p)2
2
4
=
2(n p)
(n p)2
2 4
=
np
np
50
Proprit 3 :
Les v.a. et
2 sont indpendantes.
Dmonstration : On considre les vecteurs gaussiens
y X = M y = M
de IR n
(X 0 X)1 X 0
de IR p
et
Ils sont centrs car E() = 0.
Calcul de la matrice de covariance de ces 2 vecteurs (de dimension n p.)
(X 0 X)1 X 0 )
cov (y X ,
= cov (M , (X 0 X)1 X 0 )
= E[M ((X 0 X)1 X 0 )0 ] 0
= E[M 0 X(X 0 X)1 ]
= M E(0 )X(X 0 X)1 = M 2 Id X(X 0 X)1
= 2 M X(X 0 X)1 = 0 car M X = 0
u et w vecteurs gaussiens
y X
et
(X 0 X)1 X 0 indpendants
y X
et
indpendants
k y X k2
et
indpendants
et
indpendants
Proprit 4 :
Pour j = 1, . . . , p, la v.a.r
Tj =
j j
suit une loi de Student de paramtre n p
jj
51
Remarque :
jj = e.s.(j ) =
j
Proprit 5 :
1
Soit L une matrice q p de rang q (q < p). La v.a.r. 2 [L( )]0 [L(X 0 X)1 L0 ]1
Dmonstration :
rang (L) = q rang[L(X 0 X)1 L0 ] = q (cf. chapitre 1).
L est un vecteur alatoire gaussien de IR q
= L Var L
0 = 2 L(X 0 X)1 L0 qui est inversible car dfinie positive de rang q.
Var (L)
L Nn (L, 2 L(X 0 X)1 L0 )
[L L]0
1
[L(X 0 X)1 L0 ]1
2
[L L] 2(q)
3.1.4
[j tnp; 2
jj , j + tnp; 2
jj ]
o
jj
tnp ;
52
Proprit 2 : Rgion de confiance (R.C) pour q paramtres j (q p). Une R.C au coefficient
de scurit = 1 , de q coefficients j1 , . . . , jq est :
Jq, (Lq ) =
o Lq
Fq;np;
est la valeur dune v.a. de Fisher (q; n p) qui est dpasse avec
un probabilit .
jj
, 2 + tnp; 2
jj
2 tnp; 2
|{z}
| {z }
}
3.505 t | {z=2.201
11;2.5%
erreur standard
5.55
f(t)
2.5%
2.201
2.5%
+2.201
53
+8.7]
L2 =
L2 (2 ) =
0 0 1 0 0
3 3
1
2 2
F2;11;5%
J2; (2 , 3 ) = (2 , 3 )/ 2 (2 2 3 3 )
2
3 3
22 23
0
1 0
est linverse de L2 (X X) L2 =
avec (ij ) = (X 0 X)1 .
32 33
2 = 3.5 3 = 282.17
2 22 = 5.552
F2;11;5% = 3.98
2 33 = 174.882
2 23 =
2 32 = 42.1
J2; (2 , 3 ) = (2 , 3 )/(3.5+2 )2 1 +(3 282.17)2 2 +3 (3.52 )(282.173 ) 4
o 1 , 2 , 3 , 4 sont dtermins par le calcul.
3
282.17
2
0
3.5
Ellipsode de confiance
54
x10
o x0 = ...
xp0
y0 = x00
[x00 tnp; 2
0 ; x00 + tnp; 2
0 ]
o 0 = 1 + x00 (X 0 X)1 x0 qui se dduit de la variance de y0 :
+ var e0
var (y0 ) = var (x00 )
0 + 2
= x00 var x
= 2 x00 (X 0 X)1 x0 + 2 = 2 0
(1)
(2)
(3)
1 0 0
0
0
1 = 2 = 3 = 0 0 1 0 =
0 0 1
0 0
0
1 + 2 = 6
22 3 = 9
1 1 0
0 2 1
Contrainte linaire :
R = r
6
9
55
Cette criture matricielle signifie que lon impose un ensemble de q contraintes linaires sur les
coefficients j .
Proprit : Si la matrice R(q p) est de rang q, lE.M.C.O. contraint par R = r, que lon
notera c , est gal :
3.2.2
On souhaite tester :
H0 : j = 0 contre H1 : j 6= 0
qui est un test bilatral de signification de j . Dans ce cas la contrainte R = r peut scrire
pour R = (0 0 0 |{z}
1 0 0) et r = 0.
jme
j
on rejette H0 si t =
> tnp; 2
j
Dmonstration : dcoule des proprits du paragraphe 1.
Remarque : On pourra construire un test unilatral ( titre dexercice) pour lhypothse alternative H1 : j > 0.
56
(q p).
0 1
0 0
0 0
0
1
0
o R = ..
.
(qp)
0 1
0
et
0
r = ...
(q1)
0
)
R
,
2 R(X 0 X)1 R0
|{z}
{z
}
|
R = 0
inversible
si H0 vraie (df. positive de rang q)
0 [R(X 0 X)1 R0 ]1 R
[R]
>
q
2
F
| q;np;
{z }
F de Fisher,
dpass avec une
probabilit .
Remarques :
1. Ce rsultat se dduit de la proprit 5 paragraphe 1 et de la proprit du rapport de 2 lois
de chi-deux.
2. On retrouve le cas particulier pour 1 coefficient : H0 : j = 0.
En effet :
R = j ,
q=1
0
1 0 1
[R(X X) R ] = (jj )1 o jj = ((X 0 X)1 )jj
j2
j2
F1 = 2
=
jj
e.s.(j )
57
Ce test peut tre justifi par une deuxime ide intuitive. On doit rejeter H0 si lcart entre
la RSSc dans le modle contraint et la RSS dans le modle non contraint, est trop grand
(ce qui revient lcart entre X c et X trop grand).
Dans le modle contraint (si H0 est vraie) : R = r = 0.
RSSc =k y X c k2In o c = (X 0 X)1 R0 [R(X 0 X)1 R0 ]1 R
Dans le modle sans contrainte
RSS =k y X k2In =
2 (n p)
Proprit : (dmonstration en exercice).
0 [R(X 0 X)1 R0 ]1 R
RSSc RSS =k X X c k2 = (R)
Formulation du test de Fisher quivalente :
on rejetteH0 si Fq =
(RSSc RSS)/q
> Fq;np;
RSS/(n p)
=
1 R2 p 1
(
yi yi )2 /(n p)
o R2 est le coefficient de corrlation multiple empirique (cf. Chapitre 2).
3.2.4
Le raisonnement est le mme que dans le paragraphe prcdent mais pour lhypothse :
H0 : R = r
contre
R matrice (q p) de rang q
H1 : R 6= r
58
(RSSc RSS)/q
(k y X c k2 k y X k2 )/q
=
2
k y X k2 /(n p)
3.3.1
Test de linarit
y`1 , . . . , y`n`
{z
}
|
n` mesures
L
X
rptes (n =
n` )
`=1
(n > L > p)
Modle linaire gaussien :
y`r = (1 x1` + + p xp` ) + e`r
|{z}
i.i.d
pour ` = 1, L et r = 1, n`
59
y11
..
.
y1n1
y21
.
.
.
y=
y2n2
.
..
L1
..
.
yLnL
X(np)
x11
..
.
1
x1
1
x2
.
.
.
= 1
x2
.
..
x1
L
..
.
x1L
xp1
x21
x21
x22
xp1
xp2
x22
xp2
x2L xpL
x2L xpL
n1 fois
n2 fois
..
.
nL fois
On rejette H0 si
n` (
y` y ` )2 /(L p)
`=1
n`
L
XX
> FLp;nL;
2
(y`j y ` ) /(n L)
`=1 j=1
o y` = 1 x1` + + p xp`
Remarque :
n`
L X
X
(y`j y` ) =
{z
`=1 j=1
n`
L X
X
`=1 j=1
2
kyX k
( dmontrer en exercice).
(y`j y ` ) +
L
X
`=1
n` (
y` y ` )2
60
si i 6= j
avec P = (Pij ).
Dfinitions :
yi yi
i = 1, . . . , n.
1 pii
o
2 =
i = 1, . . . , n
k y X k2
et pii lment diagonal de P = X(X 0 X)1 X 0
np
yi yi
(i) 1 pii
i = 1, . . . , n
o
(i) est lestimation de dans le modle linaire gaussien obtenu en supprimant lobservation i. Ce modle est not ( y(i) , X(i) , 2 In1 )
(n1)1
cf. exercice
Proprit : Sous lhypothse y Nn (X, 2 In ) les v.a. Ti (rsidus par validation croise)
sont identiquement distribues de loi de student n p 1 d.d.`.
Dmonstration : cf Rgression non linaire et applications, Antoniadis et al.
61
Dans la pratique, on utilisera les rsidus studentiss Ti de la mme faon que les rsidus Ti
par validation croise, pour contrler les hypothses faites dans le modle gaussien (les v.a. Ti
sont considres comme des v.a. de Student quand n est grand)
Lanalyse des rsidus consiste alors raliser des graphiques sur les rsidus Ti ou Ti , pour
vrifier lhypothse
y N (X, 2 In )
Min
Q
1
Me Q3
t*
i
Max
Graphique 1
Histogramme (liss) et bote moustaches
de la srie empirique des rsidus ti
62
Graphique 2
Trac chronologique des ti
(uniquement si lordre est connu, cas des sries temporelles)
Dans lexemple, amas de rsidus positifs, puis ngatifs hypothse de non corrlation des
rsidus incorrecte.
63
^y
1
2
Ajustement satisfaisant
t*
i
t*
i
^y
0
i
Hypothse de linarit
ou de non corrlation incorrecte
^y
Hypothse dhomognit
des variances des rsidus incorrecte
64
x1i
n
X
Exercice : Montrer que pii = x0i (X 0 X)1 xi o xi = ... et
pii = p.
p
i=1
xi
Une donne influente intervient fortement dans les rsultats de lajustement car :
yi yi
y = P y ; var i = 2 (1 pii ) ; Ti =
1 pii
Il existe plusieurs rgles pour reprer si une donne (yi , xi ) est influente et pour prciser pii
grand. A titre dexemple, on donne la distance de COOK trs utilise dans la pratique :
Ci =
1
pii
T2
p 1 pii i
Une donne (yi , xi ) sera influente si Ci > s o s est un seuil, au choix du statisticien.
Ci
s
^y
65
Exemple : s = Fp;np; (v.a.r. de Fisher p et n p d.d.`. qui est dpasse avec une probabilit
)
Remarques :
1 k y y(i) k2
1. Ci =
p
2
2. Dans les logiciels, des rgles quivalentes celles de COOK sont utilises avec des seuils
s qui sont fonction du caractre trs influent ou anormalement influent.
3.3.4
Pour avoir un modle plus stable et ayant un bon pouvoir prdictif, lobjectif est dliminer
les variables redondantes.
a)
Recherche exhaustive :
2p 1 modles linaires possibles
Remarques :
La v.a. PRESS est un estimateur sans biais de M SEP (y).
Parmi tous les modles linaires correspondant aux sous-ensembles de k variables exognes (k p), on choisira le modle correspondant la valeur PRESS minimum.
2 X 2
P RESS =
T
n i=1 i
o
yi yi
Ti =
1 pii
rsidu studentis
66
(
yi y)2
(yi y)2
R2 ajust maximum ou
2 minimum (cf. Chapitre 2).
Cp Mallows minimum
(yi yi )2
Cp =
+ 2p
2
o
2 est un estimateur de 2 .
Critre AIC (dAkaike) minimum.
2
AIC(Mk ) = log
M
+ 2k
k
|{z} n
Estimation de la variance
rsiduelle dans le modle Mk
contenant k coefficients de rgression.
b)
67
Variable
Coefficient
Ecartestim
type
Constante -8239,362677 42718,42313
Cylindre
-3,505182
5,550595
Largeur
208,693773
412,047884
Longueur
-15,037660
129,747488
Poids
12,574678
24,622191
Puissance
282,168803
174,882966
Vitesse
-111,113551
222,256575
T si H0 :
coeff. = 0
-0,193
-0,631
0,506
-0,116
0,511
1,613
-0,500
Sig T
0,8506
0,5406
0,6225
0,9098
0,6197
0,1349
0,6270
Facteur
dinflation*
0
3,77201352
11,11881980
7,20419514
4,19760475
9,95728271
6,37511213
2
Rj carr du coefficient de corrlation multiple
1
* facteur dinflation :
1 Rj2 de la variable xj et des (p 2) autres.
Mais : le test de H0 : 2 = 3 = = 7 = 0 est significatif 5 % (P (F > 4.489) = 0.016).
Rsidus
ALFASUD-TI-1350
AUDI-100-L
SIMCA-1307-GLS
CITROEN-CG-CLUB
FIAT-132-1600GLS
LANCIA-BETA-1300
PEUGEOT-504
RENAULT-16-TL
RENAULT-30-TS
TOYOTA-COROLLA
ALFETTA-1.66
PRINCESS-1800-HL
DATSUN-200L
TAUNUS-2000-GL
RANCHO
MAZDA-9295
OPEL-REKORD-L
LADA-1300
PRIX
PRIX
ESTIME
E-TYPE
PREDICT
LIMITE
INF 95%
LIMITE
SUP 95%
RESIDU
RESIDU
STUDENT.
30570
39990
29600
28250
34900
35480
32300
32000
47700
26540
42395
33990
43980
35010
39450
27900
32700
22100
29616,1
36259,7
31411,1
26445,8
37043,0
34972,8
33749,1
26580,0
44445,6
24650,2
38270,5
34830,4
44872,4
36343,5
35638,1
32233,4
37103,5
30389,8
2914,0
3572,5
2486,0
2259,2
2160,8
2707,1
1945,4
2760,8
3683,5
3039,9
3006,8
2018,2
3343,6
2320,9
2453,2
2726,5
2535,7
2755,1
17989,1
23774,5
20276,0
15547,2
26241,5
23590,7
23147,9
15135,5
31805,2
12868,1
26529,5
24163,5
32698,3
25382,4
24538,2
20828,9
25914,2
18952,0
41243,1
48744,8
42546,3
37344,3
47844,5
46355,0
44350,3
38024,5
57086,0
36432,4
50011,4
45497,4
57046,6
47304,6
46737,9
43638,0
48292,8
41827,6
953,891
3730,345
-1811,149
1804,249
-2142,997
507,166
-1449,145
5420,043
3254,423
1889,759
4124,538
-840,418
-892,423
-1333,489
3811,935
-4333,420
-4403,495
-8289,814
0,2886
1,4463
-0,4978
0,4769
-0,5581
0,1459
-0,3665
1,5783
1,3459
0,5925
1,2806
-0,2146
-0,3110
-0,3560
1,0415
-1,2519
-1,2220
-2,4108
DISTANCE
DE COOK
0,009
0,573
0,017
0,012
0,014
0,002
0,005
0,230
0,600
0,046
0,204
0,002
0,019
0,007
0,070
0,139
0,106
0,533
68
R2
0,638
0,686
0,699
0,702
0,709
0,709
Modle
Puis.
Puis., Poids
Cyl., Puis., Poids
Cyl., Puis., Larg., Poids
Cyl., Puis., Larg., Poids, Vitesse
Complet
4076,0
3916,4
3974,4
4103,7
4221,2
4406,2
i = 1, . . . , 18.
Rsidus
ALFASUD-TI-1350
AUDI-100-L
SIMCA-1307-GLS
CITROEN-CG-CLUB
FIAT-132-1600GLS
LANCIA-BETA-1300
PEUGEOT-504
RENAULT-16-TL
RENAULT-30-TS
TOYOTA-COROLLA
ALFETTA-1.66
PRINCESS-1800-HL
DATSUN-200L
TAUNUS-2000-GL
RANCHO
MAZDA-9295
OPEL-REKORD-L
LADA-1300
PRIX
PRIX
ESTIME
LIMITE
INF 95%
LIMITE
SUP 95%
RESIDU
30570
39990
29600
28250
34900
35480
32300
32000
47700
26540
42395
33990
43980
35010
39450
27900
32700
22100
29752,5
34738,6
30811,1
27280,2
36904,9
33726,2
34523,4
27904,5
45630,9
24696,5
38067,3
35042,3
44204,9
36493,6
34186,3
34145,9
37497,6
29248,2
20216,0
26136,2
21981,3
18325,9
28170,9
25139,5
25565,3
18637,2
36023,3
15274,9
28559,2
26191,4
34599,8
27676,7
25431,9
25549,8
28742,6
20470,3
39289,0
43341,0
39640,9
36234,6
45638,9
42312,8
43481,4
37171,8
55238,6
34118,1
47575,3
43893,1
53810,1
45310,6
42940,8
42742,0
46252,6
38026,2
817,5
5251,4
-1211,1
969,8
-2004,9
1753,8
-2223,4
4095,5
2069,1
1843,5
4327,7
-1052,3
-224,9
-1483,6
5263,7
-6245,9
-4797,6
-7148,2
RESIDU
STUDENT.
0,2504
1,3845
-0,3294
0,2687
-0,5381
0,4614
-0,6164
1,1937
0,6429
0,5524
1,3183
-0,2871
-0,0699
-0,4028
1,4166
-1,6453
-1,2913
-1,9302
DISTANCE
DE COOK
0,009
0,042
0,005
0,004
0,010
0,004
0,023
0,144
0,066
0,038
0,245
0,004
0,001
0,007
0,074
0,058
0,062
0,147
Paramtres estims
Variable
POIDS
PUIS
(Constant)
paramtre
16,451161
172,967225
1775,601201
cart-type
10,774488
72,419998
8030,952416
T
1,527
2,388
0,221
Sig T
0,1476
0,0305
0,8280
69
* * * *
M U L T I P L E
Equation Number 1
Block Number 1.
CYL
LAR
R E G R E S S I O N
Dependent Variable..
Method:
LON
Stepwise
POIDS
* * * *
PRIX
Criteria
PIN 0,1500
PUIS
VITESSE
POUT 0,2000
Sum of Squares
468334369,05604
265821421,22173
28,18941
Mean Square
468334369,05604
16613838,82636
Signif F = 0,0001
SE B
Beta
257,589788
12363,652921
48,516071
4215,922818
0,798700
Sig T
5,309 0,0001
2,933 0,0098
Beta In
Partial
Min Toler
Sig T
0,006334
0,179298
0,223392
0,342858
0,006363
0,254366
0,284837
0,366762
0,365384
0,728734
0,588654
0,414327
0,025
1,019
1,151
1,527
0,9807
0,3245
0,2678
0,1476
70
VITESSE
-0,322784
-0,287389
0,287023
-1,162
0,2634
Sum of Squares
504091153,79101
230064636,48677
16,43314
Mean Square
252045576,89550
15337642,43245
Signif F = 0,0002
SE B
Beta
16,451161
172,967225
1775,601201
10,774488
72,419998
8030,952416
0,342858
0,536314
POIDS
PUIS
(Constant)
Sig T
1,527
2,388
0,221
0,1476
0,0305
0,8280
Beta In
Partial
Min Toler
Sig T
-0,205562
0,044471
0,008787
-0,159514
-0,196994
0,055281
0,007772
-0,133170
0,287794
0,275311
0,172546
0,117236
-0,752
0,207
0,029
-0,503
0,4646
0,8389
0,9772
0,6230
PIN =
Remarque : Au niveau 15 %, on rejette lhypothse H0 : le modle M1 est bon pour considrer que le modle M2 est meilleur que le modle M1 .
Test de Fisher de H0 : 2 = 0 contre 2 6= 0
F =
Chapitre 4
Modles linaires gaussiens particuliers
On considre le cas o les variables exognes peuvent tre des variables qualitatives, cest-dire des variables indicatrices dites auxiliaires.
Exemple : Considrons le modle linaire simple relatif une srie chronologique comportant une tendance linaire et une composante saisonnire trimestrielle (par exemple le volume
dimportations ou le nombre de chmeurs ou le prix des biens alimentaires,. . .) :
t = 1, . . . , n
s = 1, . . . , 4
yts = a + bt + s + ets
indice du mois
indice du trimestre
4
X
s = 0.
s=1
y =
(n1)
y11
y21
y31
y41
y52
..
.
yn4
(51)
4
X
a
b
1
2
3
e=
e11
e21
e31
e41
e52
..
.
en4
s=1
72
o X =
1
2
3
4
5
6
..
.
..
.
1
1
1
1
0
0
..
.
..
.
0
0
0
0
1
1
..
.
..
.
0
0
0
0
0
0
..
.
..
.
0
0
0
0
0
0
..
.
..
.
1
2 3 4 5
] et =
= [x
2
|x x {zx x}
variables indicatrices
de la saison trimestre
4.1.1
Exemple
On considre une tude sur les salaires de responsables de ventes auprs de 6 entreprises.
On a obtenu le tableau des salaires annuels bruts en centaine de FF :
Entreprise i
1602
1615
1624
1631
1472
1477
1485
1493
1496
1504
1510
1548
1555
1559
1563
1575
1435
1438
1448
1449
1454
1458
1467
1475
1493
1498
1509
1516
1521
1523
1585
1592
1598
1604
1609
1612
Question : Peut-on considrer que les salaires moyens dun responsable de ventes diffrent suivant
le type dentreprise ?
73
On souhaite donc tudier linfluence du type dentreprise sur la variable salaire. Le type
dentreprise est un facteur ayant 6 niveaux.
I
X
ni ).
i=1
yi =
1
ni
ni
X
yij ; y =
j=1
1
n
ni
I X
X
yij =
i=1 j=1
1
n
I
X
y i ni .
i=1
ni
I X
X
(yij y)2 =
ni
I X
X
(yij y i )2 +
{z
{z
i=1 j=1
i=1 j=1
VARIATION TOTALE
I
X
|i=1
ni (y i y)2
{z
VARIATION INTRA
VARIATION INTER
(effet du hasard)
(effet du facteur x)
INTER
Modlisation statistique
(1)
yij = i + eij
(i = 1, . . . , I; j = 1, . . . , ni )
y
(n1)
X
(nI)(I1)
+ e
(n1)
74
avec
1
2
..
.
I
y11
..
.
y1n1
.
y=
..
y
I1
.
..
yInI
0 0
..
.
. ..
.
0 ..
.
1 ..
..
..
. .
..
1 .
0 0
..
. 1
..
..
. .
0 0 1
1
..
.
.
..
X=
..
.
.
..
.
..
..
.
n1 lignes
n2 lignes
..
.
nI lignes
I
X
ni i et un
i=1
I
X
i=1
ni i = 0
(i = 1, . . . , I
j = 1, . . . , ni )
75
avec
(I1)
1
2
..
.
I1
et X =
(nI)
1
..
.
0
..
.
1
..
.
1
0
..
.
0
1
..
..
..
.
.
.
..
..
.
.
1
..
..
.
.
0
..
..
..
.
.
.
..
..
..
.
.
.
..
..
..
.
.
.
..
.
0
0
n2
n1
..
.
nI
nI
..
..
1
.
.
n1
n2
1
nI
nI
y = X + e
0
..
.
..
.
..
.
..
.
..
.
..
.
1
..
.
1
nI1
nI
..
.
nI1
nI
.
..
n1 lignes
n2 lignes
nI1 lignes
nI lignes
et e Nn (0, 2 In )
4.1.3
On peut considrer les rsultats obtenus dans le chapitre 3 pour le modle linaire gaussien, que lon applique par exemple au modle (1) correspondant la matrice X des variables
indicatrices des I niveaux du facteur x.
1
y1
Proprit : lEMCO (ou MV) de = ... est = ... le vecteur des I moyennes des
I
yI
valeurs de yij pour chaque niveau i.
Dmonstration :
Il suffit de calculer = (X 0 X)1 X 0 y en remarquant que X 0 y a pour ime composante
ni
X
j=1
76
ni
i X
X
(yij i )2 ,
i=1 j=1
2 =
k y X k2
=
nI
ni
I X
X
(yij y i )2
i=1 j=1
nI
INTRA
[y i tnI; 2 ; y i + tnI; 2 ]
ni
ni
b) de q paramtres i1 , . . . , iq (q I) :
h
p
p i
ij y ij bij , y ij + bij
o
pour j = 1 q.
q
bij = ni
2 Fq;nI;
j
c) des diffrences i i0 :
On ordonne suivant les valeurs croissantes les estimations y i des paramtres i . On obtient
alors
i1
i2
iI .
On considre alors les (I 1) diffrences i i0 pour deux indices i et i0 successifs.
Lintervalle de confiance des (I 1) diffrences est alors :
h
p
p i
1
1
y i y i0 bii0 , y i y i0 + bii0 avec bii0 = (I 1)
+
2 fI1;nI; .
ni ni0
Dans la pratique, on regarde si 0 appartient lintervalle en commenant par i1 i2 et on
regroupe les 2 niveaux i1 et i2 si cest le cas. On continue alors avec i2 i3 , . . . .
77
02
1
= n
1
02
ni
I X
X
(yij y)2 .
i=1 j=1
INTER
I
X
ni (y i y)2
Degr de
libert
d.f. (d.d.`)
I
X
I 1
Statistique F
de Fisher
i=1
I 1
i=1
I
X
ni (y i y)2
F0 =
(due au facteur x)
INTRA
ni
I X
X
ni
I X
X
(yij y i )2
nI
2 =
i=1 j=1
(yij y i )2
i=1 j=1
nI
(due au hasard)
TOTALE
ni
I X
X
ni
I X
X
(yij y)2
n1
02 =
i=1 j=1
(yij y)2
i=1 j=1
n1
i=1 j=1
i=1 j=1
ni
I X
X
i=1 j=1
(yij y i )2 /(n I)
ni (y i y)2
i=1
(I 1)
2
78
4.2
4.2.1 Exemple
Le tableau ci-dessous donne les rendements laitiers de 40 vaches pour des modes dalimentation diffrents. On se propose dtudier linfluence des 2 variables Dose et Produit de base sur
le rendement laitier.
Produit
de base Paille Foin
Herbe
Aliments
ensils
Dose
Dose faible
8
11
11
10
7
12
13
14
11
10
10
12
12
13
14
17
13
17
14
13
Dose forte
8
9
8
10
9
10
7
10
12
11
11
9
11
11
12
17
19
17
16
21
79
Dfinition : Le plan dexprience est complet si nij 1 pour tout couple (i, j).
n
Le plan est dit quilibr si nij = IJ
pour tout couple (i, j).
4.2.2
1 0
.. ..
. .
11
1 0
..
.
0 1
1J
.. ..
21
. .
.
.
y = X + e
.
(n1)
..
. 1
avec =
X = .
2J (nIJ) .. 0
(IJ1)
.
o e Nn (0, 2 In )
..
.. ..
. .
I1
.. ..
..
. .
. .
.
.. ..
IJ
. .
.. ..
0 0
0
..
.
..
.
..
.
..
.
..
.
..
.
..
.
0
1
..
.
1
n11 lignes
n12 lignes
..
.
nIJ lignes
80
Autre paramtrisation : (Voir section 4.2.4, pour la signification des interactions ij12 ).
yijk = + i1 + j2 + ij12 + eijk
(4)
I
X
i1 =
i=1
J
X
j=1
j2 =
I
X
i=1
ij12 =
J
X
ij12 = 0.
j=1
k y X k
i=1 j=1 k=1
2 =
=
n IJ
n IJ
Dmonstration : Soit en calculant (cf Chapitre 2), soit en maximisant la vraisemblance.
Estimation par intervalle de confiance, de q paramtres ij conjointement au coefficient de
confiance = 1 :
h
p
p i
q
y ij bij ; y ij + bij
avec bij =
2 fq,nIJ;
nij
4.2.3
Tests dhypothses
81
Pour chacune des hypothses H01 , H02 ou H03 , on considre les matrices correspondant aux
contraintes linaires : R1 , R2 ou R3 .
On utilise alors le test de Fisher dune hypothse linaire (cf. II.4 Chapitre 3).
La statistique du test de Fisher ne sexplicite pas simplement dans le cas dun plan complet
dsquilibr.
2. Cas dun plan complet quilibr (cest--dire nij =
n
IJ
On peut tablir dans ce cas lquation danalyse de variance qui donne la dcomposition de
la variation totale de faon orthogonale :
(E)
I X
J X
K
X
i=1 j=1 k=1
X
(yijk y ij )2 + JK
(y i y)2
i X
j
k
XX i
2
+ IK
(y j y) + K
(y ij y i y j + y)2
(yijk y)2 =
XXX
j
I
J
K
J
I
1 XXX
1X
1X
avec y =
yij ; y i =
y ; y j =
y
n i=1 j=1 k=1 k
J j=1 ij
I i=1 ij
82
Due au facteur F1
JK
d.d.`.
Statistique du
test de Fisher
JK
I
X
(y i y)2
I 1
J
X
(y j y)2
J 1
Hyp.
nulle
FI1;nIJ;
H01
FJ1;nIJ;
H02
F(I1)(J1);nIJ;
H03
Fn1;nIJ;
H04
I
X
(y i y)2
i=1
2 (I 1)
i=1
Valeur
thorique
RSS23 RSS
Due au facteur F2
IK
IK
j=1
j (y j
2 (J
y)2
1)
RSS13 RSS
Due linteraction
F1 F2 des 2 facteurs
(y ij y i y j + y)2
XX
(y ij y i y j + y)2
(I 1)
(J 1)
I X
J
X
j
(I 1)(J 1)
2
RSS12 RSS
Rsiduelle RSS
I X
J X
K
X
(yijk y ij )2
n IJ
Totale TSS
I X
J X
K
X
(yijk y)2
R2
n IJ
1 R2
IJ 1
n1
o
=
P P P
i
k (yijk
y ij )2
n IJ
Notation : RSS23 (resp. RSS13 et RSS12 ) dsigne la somme des carrs des rsidus estims
sous lhypothse H2 H3 (resp. H1 H3 et H1 H2 )
Application : Pour lexemple II.1, construire le tableau danalyse de variance.
Au niveau 5%, peut-on conclure sil y a un effet moyen de la dose sur le rendement laitier ? sil
83
y a un effet moyen du produit de base ? sil y a une interaction des facteurs dose et produit ?
Expliquer la signification de leffet de linteraction, en prcisant quel est leffet de la dose sur
le rendement laitier.
i = 1, . . . , I
j = 1, . . . , J
k = 1, . . . , nij
avec
I
J
1 XX
=
ij
IJ i=1 j=1
J
1X
i =
ij
J j=1
j =
1X
ij
I j=1
Dfinitions :
i1 = i est leffet diffrentiel du niveau i du facteur F1 (i = 1, . . . , I).
j2 = j est leffet diffrentiel du niveau j du facteur F2 (j = 1, . . . , J).
ij12 = ij i j + est linteraction entre le niveau i du facteur F1 et le niveau j
du facteur F2 .
Remarque : On vrifie que
I
X
i=1
i1
J
X
j=1
j2
I
X
i=1
ij12
J
X
j=1
ij12 = 0
84
avec
(4)
i1
i=1
J
X
j2
j=1
I
X
ij12
J
X
i=1
ij12
j=1
i = 1, . . . , I
j = 1, . . . , J
=0
k = 1, . . . , nij
eijk ralisation dune v.a. Eijk N (0, 2 ) et les v.a. Eijk indpendantes.
Lcriture matricielle est dans ce cas :
y=
+e
(nIJ)(IJ1)
et X est une matrice dont les lments sont 0,1 ou +1, qui scrit dans lexemple : I = 2, J =
3 et nij = K = 2 :
y
y111
y112
y121
y122
y131
y132
y211
y212
y221
y222
y231
y232
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
0
0
1
1
1
1
0
0
1
1
0
0
1
1
1
1
0
0
1
1
1
1
1
1
0
0
1
1
1
1
0
0
1
1
0
0
1
1
1
1
0
0
1
1
1
1
11
12
22
12
11
12
12
e
e111
..
.
..
.
..
.
..
.
..
.
..
.
..
.
..
.
..
.
e232
85
Pour expliquer la signification des interactions, nous allons considrer deux exemples fictifs
donnant le tableau des valeurs des paramtres ij .
1er exemple : Facteur F1 2 niveaux et F2 3 niveaux.
F2
j=1
j=2
j=3
F1
i=1
11 = 20 12 = 10 13 = 30
i=2
21 = 20 22 = 10 23 = 30
On calcule :
1 = 2 = = 20
1 = 20; 2 = 10; 3 = 30
Ce qui entraine :
11 = 21 = 0
le facteur F1 na pas deffet diffrentiel.
12
ij = 0 (i, j)
les facteurs F1 et F2 sont sans interaction.
Si on reprsente dans un repre, les points de coordonnes (i, ij ), on obtient :
ij
30
20
10
i
i=1
i=2
86
Remarque :
Le paralllisme entre et laxe des abscisses des niveaux du facteur F1 , caractrise labsence deffet moyen du facteur F2 .
Le paralllisme des lignes polygonales entre elles caractrise labsence dinteraction
entre les facteurs F1 et F2 .
2me exemple : Facteur F1 3 niveaux et F2 4 niveaux.
F1
j=1 j=2 j=3 j=4
F2
i=1
16
11
i=2
10
17
i=3
14
14
87
15
10
i
i=1
i=2
i=3
4.3.1
i = 1, . . . , I
et
j = 1, . . . , ni et n =
I
X
i=1
88
y = + a z
2j
2
2 2j
+a1z
1j = 1
1j
observations du niveau 1
observations du niveau 2
89
(n1)
1 z11
..
..
.
.
1 z
1n1
0 0
1
a1
..
..
.
.
2
.
..
.
.
a2
.
o =
, X = .
..
..
..
.
.
..
..
.
I
.
.
..
aI
..
.
.
..
..
.
.
.
..
..
0 0
(n2I)(2I1)
0
..
.
0
..
.
1
..
.
z21
..
.
0
..
.
..
.
..
.
..
.
1 z2n2
0
..
.
..
.
..
.
..
.
0
0
..
.
..
.
..
.
..
.
0
0
..
.
..
.
..
.
..
.
..
.
..
.
..
.
0
..
.
1
..
.
0
..
.
0
0
..
.
..
.
..
.
..
.
..
.
zI1
..
.
zInI
0
..
.
..
.
..
.
..
.
..
.
..
.
..
.
n1 lignes
n2 lignes
nI lignes
Les (2i 1)me et (2i)me vecteurs colonnes de X tant orthogonaux tous les autres
vecteurs colonnes, on peut dterminer les estimateurs de i et ai pour tout i = 1, . . . , I, en
considrant I modles linaires successifs :
1 zi1
yi1
..
i
..
. zi2
yi = Xi
+ ei
avec
y(i) = .
X = . .
ai
.. ..
(ni 2)
(ni 1)
yini
1 zini
Estimateurs (cf. RLS). Pour tout i = 1, . . . , I :
i z i
i = y i a
ni
X
(yij y i )(zij z i )
j=1
a
ni
i =
X
(zij z i )2
j=1
yi =
1
ni
ni
X
yij
ni
X
zij
j=1
zi =
1
ni
j=1
90
2 =
4.3.2
ni
I X
X
k y X k2
=
n 2I
[yij y i a
i (zij z i )]2
i=1 j=1
si n > 2I
n 2I
Tests dhypothses
i=1 j=1
2 (I 1)
> fI1;n2I;
On montrera, titre dexercice, ce rsultat (cf. test de Fisher Chapitre 3) en prcisant lestimateur a
qui est lestimateur de a sous lhypothse H01 .
Test de lhypothse H02 contre lhypothse H01 , pour i quelconque.
La rgle de dcision, au niveau est :
"
#
XX
XX
2
2
(yij y i )
(yij y i a
(zij zi ))
on rejette H02 si
XX
i
(yij y i a
(zij z i ))2 /(n I 1)
> f1;nI1;
(zij z i )2 .
i
Exercice : Montrer que lestimation de a est diffrente dans les 2 modles suivants :
1)
2)
Chapitre 5
Gnralisation du modle linaire gaussien
Le modle linaire gaussien, sil nest pas adapt au problme considr, peut tre tendu
dans les cas des diffrentes hypothses :
Hypothse de linarit
y = X + e
y = f (x, ) + e.
MODLE DE RGRESSION
NON LINAIRE
x vecteur alatoire de IR p
Loi du p + 1-uple (y, x).
Loi de y sachant x.
MODLE CONDITIONNEL
91
92
var(ei ) = i2
(Rsidus htrognes)
MOINDRES CARRS PONDRS
E(ei ej ) = 0 si i 6= j
(Rsidus non corrls)
E(ei ej ) 6= 0 si i 6= j
(Rsidus autocorrls)
MOINDRES CARRS GNRALISS
ei v.a. gaussienne
(Normalit des rsidus)
5.1
y
(n1)
X
(np)(p1)
+ e
(n1)
H2
H300
E(e) = 0 et E(ee0 ) = 2
rang n.
93
z = A + u
?
?
E(u) = 0
E(uu0 ) = 2 In
(A0 A)1 A0 z = (X 0 P
| {zP } X) X P
| {zP } y = M CG
94
Proprits :
1. Sous lhypothse H300 , lestimateur M CO M CO = (X 0 X)1 X 0 y, qui est linaire et toujours sans biais, nest plus de variance minimale.
Exercice : Calculer Var (M CO ).
2. Lestimateur M CG M CG = (X 0 0 X)1 X 0 1 y est lestimateur qui :
MINIMISE k y X k21
MAXIMISE LA VRAISEMBLANCE DU MODLE LINAIRE G AUSSIEN (y, X, 2 )
dfini par H1 , H2 , H300 et lhypothse de normalit des rsidus e.
1
L(y, ) = n (2)n/2 (det )1/2 exp{ 2 k y X k21 }
2
Exercice : Montrer que M CG = arg min k y X k2 1 = M V
Remarques :
1. Si la matrice est connue :
M CG = (X 0 1 X)1 X 0 1 y est un estimateur sans biais de .
k y X M CG k21
2 =
est un estimateur sans biais de 2 . ( montrer titre dexernp
cice).
2. Si la matrice est inconnue :
n(n 1)
paramtres ij de la matrice estimer ainsi que n paramtres ii .
Il y a
2
Problme insoluble dans le cas gnral.
Estimation de possible dans des cas simples particuliers :
* diagonale
* a une expression particulire, par exemple :
1
2 n1
1
Processus autorgressif
1
.
.
.
1
du premier ordre :
=
1 2 .
et = et1 + ut
..
1
n1
1
Test dans le modle (y, X, 2 , ) gaussien o connue : Test de Fisher. (cf. Chapitre 3.)
Hypothse nulle :
H0 : R = r
contre
R 6= r
95
1
k r RM CG k2[R(X 0 1 X)1 R0 ]1
q
F =
1
k y X M CG k21
np
5.1.2
i = 1, . . . , I; j = 1, . . . , ni
1
eij indpendantes
yij = 1 + 2 xij + eij avec
y i = 1 + 2 x1i + ui avec
Var u = 2 = 2
1
n1
0
..
.
= arg min
1
nI
I
X
i=1
u indpendants
ni (y i 1 2 x1i )2
96
y = X + e avec
E(e) = 0
Var (e) = 2
= arg min
n
X
(yi
i=1
p
X
xji j )2 wi
j=1
o la pondration wi =
1
,
(xji )2
Estimateur M CP
Cest lestimateur M CG dans le modle particulier (y, X, 2 ) o est une matrice
diagonale : = diag ( w11 , . . . , w1n ) dfinie par :
M CP = arg min
n
X
i=1
wi (yi
p
X
xji j )2
j=1
5.1.3
97
(nn)
2
=
1 2
2
..
.
..
.
..
.
n1
n2
n3
..
.
n1 n2 n3 1
1 + 2
0
..
.
..
.
0
1
..
.
..
.
..
.
1 + 2
..
.
1 + 2
0
..
.
..
.
= 2
et det =
1 2
0
t = 2, . . . , n
98
M CO =
t=2
n
X
et et1
(
e2t1 )
t=2
Etape 2 :
DW =
(
et et1 )2
t=2
n
X
o e = y X(X 0 X)1 X 0 y
(
e2t )
t=1
99
100
Rgression de y en x
Problme : Peut-on trouver une fonction f de IR p dans IR telle que :
y=
f (x)
+
e
|{z}
|{z}
reste
explique
indpendant
par x
de x
Dmonstration : On dcompose :
E[(y k)2 ] = V (y) + (E(y) k)2
Car
Proprit 2 : La fonction f qui minimise E[(y f (x))2 ] est celle qui x associe lesprance
conditionnelle de y sachant x = x, note E(y/x = x) ou R(
x) et appele rgression de y en x.
Dmonstration : On rappelle :
E(U ) = E[E(U/x = x)] si U est une fonction de x et de y.
On dcompose :
E[(y f (x))2 ] = E [y E(y/x = x)]2 + E [E(y/x = x) f (
x)]2
car le double produit est nul.
La fonction f qui minimise E[(y f (x))2 ] est donc
f (
x) = E(y/x = x) pour toute valeur x de la variable alatoire x.
Remarque : R(
x) sexplicite :
101
P (y = y, x = x)
P (x = x)
1
(y, x) de densit g(y, x) = si 0 < y < x < 1
2 xy
y
(2)
25/174
120/174
4/174
25/174
0
1
Rgression linaire de y en x.
p
X
aj x j +
j=1
2
102
p
X
j=1
Dmonstration : On pose
ax
(1p)(p1)
p
X
(pp)
(p1)
aj xj =< a, x >.
j=1
On dcompose :
E[(y a0 x a0 )2 ] = E[(y a0 x )2 ] + (E(y) a0 E(x) a0 )2
car le double produit est nul
avec y = y E(y) et x = x E(x)
On dcompose :
E[(y a0 x )2 ] = V (y) cov (y, x)(V (x))1 cov (x, y)
+ (a (V (x))1 cov (x, y))0 V (x)(a (V (x))1 cov (x, y))
E[(y a0 x a0 )2 ] minimum si :
a = (V (x))1 cov (x, y)
a0 = E(Y ) a0 E(x)
f (x) = a0 x + a0 qui minimise E[(y a0 x a0 )2 ] est :
103
Quand on ne connait pas la loi de (y, x) mais quand on dispose dun chantillon (yi , xi )i=1,n
de taille n, on peut estimer EL(y/x).
Proprit : Soit (y, x) centre (E(y) = 0 et E(x) = 0)
x11 xp1
y1
x1i
.
0
1 0
0
d
EL(y
i /xi ) = xi (X X) X y o xi = ..
xpi
Remarque : On retrouve les formules du modle linaire (Chapitre 2).
Dmonstration : On a vu que a = (V (x))1 cov (x, y) comme y et x sont centres :
1
a = (E(xx0 ))
E(xy)
1
gnral : n
n
X
1 0
X X de terme
n
xjt xjt .
t=1
1 X j j0
0
xt xt ) = E(xj xj ) terme gnral de E(xx0 ).
En effet, E(
n t=1
n
X
1
E(xy) est estime par le vecteur de covariance empirique X 0 y, de composantes : n1
yt xit .
n
(p1)
t=1
En effet, E
1
n
n
X
yt xjt
t=1
(j = 1, . . . , p)
104
Application : Au concours de tir larc de la fort de Brocliande, les archers visent une cible
triangulaire. Merlin lEnchanteur, en avance sur son temps, a repr les points de cette cible
dans un systme daxes orthonorms, selon le schma :
y
A(2.2)
2
1
0
1
1
B(2.1)
La cible a atteindre est OAB et le rsultat dun tir est un couple (x, y) reprsentant les
coordonnes du point atteint. On suppose que (x, y) suit une loi uniforme sur le triangle OAB,
nulle en dehors.
- Calculer la rgression de y par x.
- Calculer la rgression linaire de y par x.
Bibliographie
A NTONIADIS A., B ERRUYER J., C ARMONA R. (1992), Rgression non linaire et applications, Economica.
B OURBONNAIS R. (1998), Economtrie : manuel et exercices corrigs, Dunod.
M ADDALA G.S. (1977), Econometrics, International Student Edition.
F OURGEAUD C., L ENCLUD B. (1978), Economtrie, PUF.
G REENE W. H. (1993), Econometric Analysis, Prentice Hall.
G IRAUD R., C HAIX N. (1989), Economtrie, PUF.
M ONFORT A. (1982), Cours de statistique mathmatique, Economica, ENSAE.
R AFFIN C. [1993), Economtrie, Flash U, Armand Colin.
T OMASSONE R., L ESQUOY E., M ILLIER C. (1983), La rgression : nouveaux regards sur
une ancienne mthode statistique, Masson.
J OHNSTON J. (1985), Mthodes conomtriques : tomes 1 et 2, Economica.
S APORTA G. (1990), Probabilits, analyse des donnes et statistique, Technip.
105
106
BIBLIOGRAPHIE
Tables statistiques
Loi de Student
d.d.l.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
0.10
3.078
1.886
1.638
1.533
1.476
1.440
1.415
1.397
1.383
1.372
1.363
1.356
1.350
1.345
1.341
1.337
1.333
1.330
1.328
1.325
1.323
1.321
1.319
1.318
1.316
1.315
1.314
1.313
1.311
1.282
0.05
6.314
2.920
2.353
2.132
2.015
1.943
1.895
1.860
1.833
1.812
1.796
1.782
1.771
1.761
1.753
1.746
1.740
1.734
1.729
1.725
1.721
1.717
1.714
1.711
1.708
1.706
1.703
1.701
1.699
1.645
0.025
12.706
4.303
3.182
2.776
2.571
2.447
2.365
2.306
2.262
2.228
2.201
2.179
2.160
2.145
2.131
2.120
2.110
2.101
2.093
2.086
2.080
2.074
2.069
2.064
2.060
2.056
2.052
2.048
2.045
1.960
107
0.01
31.821
6.965
4.541
3.747
3.365
3.143
2.998
2.896
2.821
2.764
2.718
2.681
2.650
2.624
2.602
2.583
2.567
2.552
2.539
2.528
2.518
2.508
2.500
2.492
2.485
2.479
2.473
2.467
2.462
2.326
0.005
63.657
9.925
5.841
4.604
4.032
3.707
3.499
3.355
3.250
3.169
3.106
3.055
3.012
2.977
2.947
2.921
2.898
2.878
2.861
2.845
2.831
2.819
2.807
2.797
2.787
2.779
2.771
2.763
2.756
2.576
108
TABLES STATISTIQUES
Loi normale
F(u)
u
u
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2.0
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
0.00
0.5000
0.5398
0.5793
0.6179
0.6554
0.6915
0.7257
0.7580
0.7881
0.8159
0.8413
0.8643
0.8849
0.9032
0.9192
0.9332
0.9452
0.9554
0.9641
0.9713
0.9772
0.9821
0.9861
0.9893
0.9918
0.9938
0.9953
0.9965
0.9974
0.9981
0.01
0.5040
0.5438
0.5832
0.6217
0.6591
0.6950
0.7291
0.7611
0.7910
0.8186
0.8438
0.8665
0.8869
0.9049
0.9207
0.9345
0.9463
0.9564
0.9649
0.9719
0.9778
0.9826
0.9864
0.9896
0.9920
0.9940
0.9955
0.9966
0.9975
0.9982
0.02
0.5080
0.5478
0.5871
0.6255
0.6628
0.6985
0.7324
0.7642
0.7939
0.8212
0.8461
0.8686
0.8888
0.9066
0.9222
0.9357
0.9474
0.9573
0.9656
0.9726
0.9783
0.9830
0.9868
0.9898
0.9922
0.9941
0.9956
0.9967
0.9976
0.9982
0.03
0.5120
0.5517
0.5910
0.6293
0.6664
0.7019
0.7357
0.7673
0.7967
0.8238
0.8485
0.8708
0.8907
0.9082
0.9236
0.9370
0.9484
0.9582
0.9664
0.9732
0.9788
0.9834
0.9871
0.9901
0.9925
0.9943
0.9957
0.9968
0.9977
0.9983
0.04
0.5160
0.5557
0.5948
0.6331
0.6700
0.7054
0.7389
0.7704
0.7995
0.8264
0.8508
0.8729
0.8925
0.9099
0.9251
0.9382
0.9495
0.9591
0.9671
0.9738
0.9793
0.9838
0.9875
0.9904
0.9927
0.9945
0.9959
0.9969
0.9977
0.9984
0.05
0.5199
0.5596
0.5987
0.6368
0.6736
0.7088
0.7422
0.7734
0.8023
0.8289
0.8531
0.8749
0.8944
0.9115
0.9265
0.9394
0.9505
0.9599
0.9678
0.9744
0.9798
0.9842
0.9878
0.9906
0.9929
0.9946
0.9960
0.9970
0.9978
0.9984
0.06
0.5239
0.5636
0.6026
0.6406
0.6772
0.7123
0.7454
0.7764
0.8051
0.8315
0.8554
0.8770
0.8962
0.9131
0.9279
0.9406
0.9515
0.9608
0.9686
0.9750
0.9803
0.9846
0.9881
0.9909
0.9931
0.9948
0.9961
0.9971
0.9979
0.9985
0.07
0.5279
0.5675
0.6064
0.6443
0.6808
0.7157
0.7486
0.7794
0.8078
0.8340
0.8577
0.8790
0.8980
0.9147
0.9292
0.9418
0.9525
0.9616
0.9693
0.9756
0.9808
0.9850
0.9884
0.9911
0.9932
0.9949
0.9962
0.9972
0.9979
0.9985
0.08
0.5319
0.5714
0.6103
0.6480
0.6844
0.7190
0.7517
0.7823
0.8106
0.8365
0.8599
0.8810
0.8997
0.9162
0.9306
0.9429
0.9535
0.9625
0.9699
0.9761
0.9812
0.9854
0.9887
0.9913
0.9934
0.9951
0.9963
0.9973
0.9980
0.9986
3.0
0.998650
3.1
0.999032
3.2
0.999313
3.3
0.999517
3.4
0.999663
3.5
0.999767
u
F (u)
3.6
0.999841
3.7
0.999892
3.8
0.999928
3.9
0.999952
4.0
0.999968
4.5
0.999997
0.09
0.5359
0.5753
0.6141
0.6517
0.6879
0.7224
0.7549
0.7852
0.8133
0.8389
0.8621
0.8830
0.9015
0.9177
0.9319
0.9441
0.9545
0.9633
0.9706
0.9767
0.9817
0.9857
0.9890
0.9916
0.9936
0.9952
0.9964
0.9974
0.9981
0.9986
109
TABLES STATISTIQUES
Loi du khi-deux
d.d.l.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
50
60
70
80
90
100
0.95
0.004
0.103
0.352
0.711
1.145
1.635
2.167
2.733
3.325
3.940
4.575
5.226
5.892
6.571
7.261
7.962
8.672
9.390
10.117
10.851
11.591
12.338
13.091
13.848
14.611
15.379
16.151
16.928
17.708
18.493
26.509
34.764
43.188
51.739
60.391
69.126
77.929
0.90
0.016
0.211
0.584
1.064
1.610
2.204
2.833
3.490
4.168
4.865
5.578
6.304
7.042
7.790
8.547
9.312
10.085
10.865
11.651
12.443
13.240
14.041
14.848
15.659
16.473
17.292
18.114
18.939
19.768
20.599
29.051
37.689
46.459
55.329
64.278
73.291
82.358
0.50
0.455
1.386
2.366
3.357
4.351
5.348
6.346
7.344
8.343
9.342
10.341
11.340
12.340
13.339
14.339
15.338
16.338
17.338
18.338
19.337
20.337
21.337
22.337
23.337
24.337
25.336
26.336
27.336
28.336
29.336
39.335
49.335
59.335
69.334
79.334
89.334
99.334
0.30
1.074
2.408
3.665
4.878
6.064
7.231
8.383
9.524
10.656
11.781
12.899
14.011
15.119
16.222
17.322
18.418
19.511
20.601
21.689
22.775
23.858
24.939
26.018
27.096
28.172
29.246
30.319
31.391
32.461
33.530
44.165
54.723
65.227
75.689
86.120
96.524
106.906
0.20
1.642
3.219
4.642
5.989
7.289
8.558
9.803
11.030
12.242
13.442
14.631
15.812
16.985
18.151
19.311
20.465
21.615
22.760
23.900
25.037
26.171
27.301
28.429
29.553
30.675
31.795
32.912
34.027
35.139
36.250
47.269
58.164
68.972
79.715
90.405
101.054
111.667
0.10
2.706
4.605
6.251
7.779
9.236
10.645
12.017
13.362
14.684
15.987
17.275
18.549
19.812
21.064
22.307
23.542
24.769
25.989
27.204
28.412
29.615
30.813
32.007
33.196
34.382
35.563
36.741
37.916
39.087
40.256
51.805
63.167
74.397
85.527
96.578
107.565
118.498
0.05
3.841
5.991
7.815
9.488
11.07
12.592
14.067
15.507
16.919
18.307
19.675
21.026
22.362
23.685
24.996
26.296
27.587
28.869
30.144
31.410
32.671
33.924
35.172
36.415
37.652
38.885
40.113
41.337
42.557
43.773
55.758
67.505
79.082
90.531
101.879
113.145
124.342
0.02
5.412
7.824
9.837
11.668
13.388
15.033
16.622
18.168
19.679
21.161
22.618
24.054
25.471
26.873
28.259
29.633
30.995
32.346
33.687
35.020
36.343
37.659
38.968
40.270
41.566
42.856
44.140
45.419
46.693
47.962
60.436
72.613
84.580
96.388
108.069
119.648
131.142
0.01
6.635
9.210
11.345
13.277
15.086
16.812
18.475
20.090
21.666
23.209
24.725
26.217
27.688
29.141
30.578
32.000
33.409
34.805
36.191
37.566
38.932
40.289
41.638
42.980
44.314
45.642
46.963
48.278
49.588
50.892
63.691
76.154
88.379
100.425
112.329
124.116
135.807
0.001
10.828
13.816
16.266
18.467
20.515
22.458
24.322
26.124
27.877
29.588
31.264
32.909
34.528
36.123
37.697
39.252
40.790
42.312
43.820
45.315
46.797
48.268
49.728
51.179
52.620
54.052
55.476
56.892
58.301
59.703
73.402
86.661
99.607
112.317
124.839
137.208
149.449
Quandle nombre de degrs de libert est lev, 22 est peu prs distribu normalement
autour de 2d.d.l. 1 avec une variance gale 1.
110
TABLES STATISTIQUES
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120
1
39.86
8.53
5.54
4.54
4.06
3.78
3.59
3.46
3.36
3.29
3.23
3.18
3.14
3.10
3.07
3.05
3.03
3.01
2.99
2.97
2.96
2.95
2.94
2.93
2.92
2.91
2.90
2.89
2.89
2.88
2.84
2.79
2.75
2.71
2
49.50
9.00
5.46
4.32
3.78
3.46
3.26
3.11
3.01
2.92
2.86
2.81
2.76
2.73
2.70
2.67
2.64
2.62
2.61
2.59
2.57
2.56
2.55
2.54
2.53
2.52
2.51
2.50
2.50
2.49
2.44
2.39
2.35
2.30
8
59.44
9.37
5.25
3.95
3.34
2.98
2.75
2.59
2.47
2.38
2.30
2.24
2.20
2.15
2.12
2.09
2.06
2.04
2.02
2.00
1.98
1.97
1.95
1.94
1.93
1.92
1.91
1.90
1.89
1.88
1.83
1.77
1.72
1.67
9
59.86
9.38
5.24
3.94
3.32
2.96
2.72
2.56
2.44
2.35
2.27
2.21
2.16
2.12
2.09
2.06
2.03
2.00
1.98
1.96
1.95
1.93
1.92
1.91
1.89
1.88
1.87
1.87
1.86
1.85
1.79
1.74
1.68
1.63
111
TABLES STATISTIQUES
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120
10
60.19
9.39
5.23
3.92
3.30
2.94
2.70
2.54
2.42
2.32
2.25
2.19
2.14
2.10
2.06
2.03
2.00
1.98
1.96
1.94
1.92
1.90
1.89
1.88
1.87
1.86
1.85
1.84
1.83
1.82
1.76
1.71
1.65
1.60
12
60.71
9.41
5.22
3.90
3.27
2.90
2.67
2.50
2.38
2.28
2.21
2.15
2.10
2.05
2.02
1.99
1.96
1.93
1.91
1.89
1.87
1.86
1.84
1.83
1.82
1.81
1.80
1.79
1.78
1.77
1.71
1.66
1.60
1.55
15
61.22
9.42
5.20
3.87
3.24
2.87
2.63
2.46
2.34
2.24
2.17
2.10
2.05
2.01
1.97
1.94
1.91
1.89
1.86
1.84
1.83
1.81
1.80
1.78
1.77
1.76
1.75
1.74
1.73
1.72
1.66
1.60
1.55
1.49
120
63.06
9.48
5.14
3.78
3.12
2.74
2.49
2.32
2.18
2.08
2.00
1.93
1.88
1.83
1.79
1.75
1.72
1.69
1.67
1.64
1.62
1.60
1.59
1.57
1.56
1.54
1.53
1.52
1.51
1.50
1.42
1.35
1.26
1.17
63.33
9.49
5.13
3.76
3.10
2.72
2.47
2.29
2.16
2.06
1.97
1.90
1.85
1.80
1.76
1.72
1.69
1.66
1.63
1.61
1.59
1.57
1.55
1.53
1.52
1.50
1.49
1.48
1.47
1.46
1.38
1.29
1.19
1.00
112
TABLES STATISTIQUES
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120
1
161.45
18.51
10.13
7.71
6.61
5.99
5.59
5.32
5.12
4.96
4.84
4.75
4.67
4.60
4.54
4.49
4.45
4.41
4.38
4.35
4.32
4.30
4.28
4.26
4.24
4.23
4.21
4.20
4.18
4.17
4.08
4.00
3.92
3.84
2
199.50
19.00
9.55
6.94
5.79
5.14
4.74
4.46
4.26
4.10
3.98
3.89
3.81
3.74
3.68
3.63
3.59
3.55
3.52
3.49
3.47
3.44
3.42
3.40
3.39
3.37
3.35
3.34
3.33
3.32
3.23
3.15
3.07
3.00
8
238.88
19.37
8.85
6.04
4.82
4.15
3.73
3.44
3.23
3.07
2.95
2.85
2.77
2.70
2.64
2.59
2.55
2.51
2.48
2.45
2.42
2.40
2.37
2.36
2.34
2.32
2.31
2.29
2.28
2.27
2.18
2.10
2.02
1.94
9
240.54
19.38
8.81
6.00
4.77
4.10
3.68
3.39
3.18
3.02
2.90
2.80
2.71
2.65
2.59
2.54
2.49
2.46
2.42
2.39
2.37
2.34
2.32
2.30
2.28
2.27
2.25
2.24
2.22
2.21
2.12
2.04
1.96
1.88
113
TABLES STATISTIQUES
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120
10
241.88
19.40
8.79
5.96
4.74
4.06
3.64
3.35
3.14
2.98
2.85
2.75
2.67
2.60
2.54
2.49
2.45
2.41
2.38
2.35
2.32
2.30
2.27
2.25
2.24
2.22
2.20
2.19
2.18
2.16
2.08
1.99
1.91
1.83
12
243.91
19.41
8.74
5.91
4.68
4.00
3.57
3.28
3.07
2.91
2.79
2.69
2.60
2.53
2.48
2.42
2.38
2.34
2.31
2.28
2.25
2.23
2.20
2.18
2.16
2.15
2.13
2.12
2.10
2.09
2.00
1.92
1.83
1.75
15
245.95
19.43
8.70
5.86
4.62
3.94
3.51
3.22
3.01
2.85
2.72
2.62
2.53
2.46
2.40
2.35
2.31
2.27
2.23
2.20
2.18
2.15
2.13
2.11
2.09
2.07
2.06
2.04
2.03
2.01
1.92
1.84
1.75
1.67
60
252.20
19.48
8.57
5.69
4.43
3.74
3.30
3.01
2.79
2.62
2.49
2.38
2.30
2.22
2.16
2.11
2.06
2.02
1.98
1.95
1.92
1.89
1.86
1.84
1.82
1.80
1.79
1.77
1.75
1.74
1.64
1.53
1.43
1.32
120
253.25
19.49
8.55
5.66
4.40
3.70
3.27
2.97
2.75
2.58
2.45
2.34
2.25
2.18
2.11
2.06
2.01
1.97
1.93
1.90
1.87
1.84
1.81
1.79
1.77
1.75
1.73
1.71
1.70
1.68
1.58
1.47
1.35
1.22
254.30
19.50
8.53
5.63
4.36
3.67
3.23
2.93
2.71
2.54
2.40
2.30
2.21
2.13
2.07
2.01
1.96
1.92
1.88
1.84
1.81
1.78
1.76
1.73
1.71
1.69
1.67
1.65
1.64
1.62
1.51
1.39
1.25
1.00
114
TABLES STATISTIQUES
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120
1
647.79
38.51
17.44
12.22
10.01
8.81
8.07
7.57
7.21
6.94
6.72
6.55
6.41
6.30
6.20
6.12
6.04
5.98
5.92
5.87
5.83
5.79
5.75
5.72
5.69
5.66
5.63
5.61
5.59
5.57
5.42
5.29
5.15
5.02
2
799.50
39.00
16.04
10.65
8.43
7.26
6.54
6.06
5.71
5.46
5.26
5.10
4.97
4.86
4.77
4.69
4.62
4.56
4.51
4.46
4.42
4.38
4.35
4.32
4.29
4.27
4.24
4.22
4.20
4.18
4.05
3.93
3.80
3.69
8
956.66
39.37
14.54
8.98
6.76
5.60
4.90
4.43
4.10
3.85
3.66
3.51
3.39
3.29
3.20
3.12
3.06
3.01
2.96
2.91
2.87
2.84
2.81
2.78
2.75
2.73
2.71
2.69
2.67
2.65
2.53
2.41
2.30
2.19
9
963.28
39.39
14.47
8.90
6.68
5.52
4.82
4.36
4.03
3.78
3.59
3.44
3.31
3.21
3.12
3.05
2.98
2.93
2.88
2.84
2.80
2.76
2.73
2.70
2.68
2.65
2.63
2.61
2.59
2.57
2.45
2.33
2.22
2.11
115
TABLES STATISTIQUES
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120
10
968.63
39.40
14.42
8.84
6.62
5.46
4.76
4.30
3.96
3.72
3.53
3.37
3.25
3.15
3.06
2.99
2.92
2.87
2.82
2.77
2.73
2.70
2.67
2.64
2.61
2.59
2.57
2.55
2.53
2.51
2.39
2.27
2.16
2.05
12
976.71
39.41
14.34
8.75
6.52
5.37
4.67
4.20
3.87
3.62
3.43
3.28
3.15
3.05
2.96
2.89
2.82
2.77
2.72
2.68
2.64
2.60
2.57
2.54
2.51
2.49
2.47
2.45
2.43
2.41
2.29
2.17
2.05
1.94
15
984.87
39.43
14.25
8.66
6.43
5.27
4.57
4.10
3.77
3.52
3.33
3.18
3.05
2.95
2.86
2.79
2.72
2.67
2.62
2.57
2.53
2.50
2.47
2.44
2.41
2.39
2.36
2.34
2.32
2.31
2.18
2.06
1.94
1.83
60
1009.80
39.48
13.99
8.36
6.12
4.96
4.25
3.78
3.45
3.20
3.00
2.85
2.72
2.61
2.52
2.45
2.38
2.32
2.27
2.22
2.18
2.14
2.11
2.08
2.05
2.03
2.00
1.98
1.96
1.94
1.80
1.67
1.53
1.39
120
1014.02
39.49
13.95
8.31
6.07
4.90
4.20
3.73
3.39
3.14
2.94
2.79
2.66
2.55
2.46
2.38
2.32
2.26
2.20
2.16
2.11
2.08
2.04
2.01
1.98
1.95
1.93
1.91
1.89
1.87
1.72
1.58
1.43
1.27
1018
39.50
13.90
8.26
6.02
4.85
4.14
3.67
3.33
3.08
2.88
2.72
2.60
2.49
2.40
2.32
2.25
2.19
2.13
2.09
2.04
2.00
1.97
1.94
1.91
1.88
1.85
1.83
1.81
1.79
1.64
1.48
1.31
1.00
116
TABLES STATISTIQUES
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120
1
4052.18
98.50
34.12
21.20
16.26
13.75
12.25
11.26
10.56
10.04
9.65
9.33
9.07
8.86
8.68
8.53
8.40
8.29
8.18
8.10
8.02
7.95
7.88
7.82
7.77
7.72
7.68
7.64
7.60
7.56
7.31
7.08
6.85
6.63
2
4999.50
99.00
30.82
18.00
13.27
10.92
9.55
8.65
8.02
7.56
7.21
6.93
6.70
6.51
6.36
6.23
6.11
6.01
5.93
5.85
5.78
5.72
5.66
5.61
5.57
5.53
5.49
5.45
5.42
5.39
5.18
4.98
4.79
4.61
8
5981.07
99.37
27.49
14.80
10.29
8.10
6.84
6.03
5.47
5.06
4.74
4.50
4.30
4.14
4.00
3.89
3.79
3.71
3.63
3.56
3.51
3.45
3.41
3.36
3.32
3.29
3.26
3.23
3.20
3.17
2.99
2.82
2.66
2.51
9
6022.47
99.39
27.35
14.66
10.16
7.98
6.72
5.91
5.35
4.94
4.63
4.39
4.19
4.03
3.89
3.78
3.68
3.60
3.52
3.46
3.40
3.35
3.30
3.26
3.22
3.18
3.15
3.12
3.09
3.07
2.89
2.72
2.56
2.41
117
TABLES STATISTIQUES
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120
10
6055.85
99.40
27.23
14.55
10.05
7.87
6.62
5.81
5.26
4.85
4.54
4.30
4.10
3.94
3.80
3.69
3.59
3.51
3.43
3.37
3.31
3.26
3.21
3.17
3.13
3.09
3.06
3.03
3.00
2.98
2.80
2.63
2.47
2.32
12
6106.32
99.42
27.05
14.37
9.89
7.72
6.47
5.67
5.11
4.71
4.40
4.16
3.96
3.80
3.67
3.55
3.46
3.37
3.30
3.23
3.17
3.12
3.07
3.03
2.99
2.96
2.93
2.90
2.87
2.84
2.66
2.50
2.34
2.18
15
6157.28
99.43
26.87
14.20
9.72
7.56
6.31
5.52
4.96
4.56
4.25
4.01
3.82
3.66
3.52
3.41
3.31
3.23
3.15
3.09
3.03
2.98
2.93
2.89
2.85
2.81
2.78
2.75
2.73
2.70
2.52
2.35
2.19
2.04
60
6313.03
99.48
26.32
13.65
9.20
7.06
5.82
5.03
4.48
4.08
3.78
3.54
3.34
3.18
3.05
2.93
2.83
2.75
2.67
2.61
2.55
2.50
2.45
2.40
2.36
2.33
2.29
2.26
2.23
2.21
2.02
1.84
1.66
1.47
120
6339.39
99.49
26.22
13.56
9.11
6.97
5.74
4.95
4.40
4.00
3.69
3.45
3.25
3.09
2.96
2.84
2.75
2.66
2.58
2.52
2.46
2.40
2.35
2.31
2.27
2.23
2.20
2.17
2.14
2.11
1.92
1.73
1.53
1.32
6366
99.50
26.13
13.46
9.02
6.88
5.65
4.86
4.31
3.91
3.60
3.36
3.17
3.00
2.87
2.75
2.65
2.57
2.49
2.42
2.36
2.31
2.26
2.21
2.17
2.13
2.10
2.06
2.03
2.01
1.80
1.60
1.38
1.00
118
TABLES STATISTIQUES
0
n
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
45
50
55
60
65
70
75
80
85
90
95
100
refusee
p=1
d1
d2
1.08 1.36
1.10 1.37
1.13 1.38
1.16 1.39
1.18 1.40
1.20 1.41
1.22 1.42
1.24 1.43
1.26 1.44
1.27 1.45
1.29 1.45
1.30 1.46
1.32 1.47
1.33 1.48
1.34 1.48
1.35 1.49
1.36 1.50
1.37 1.50
1.38 1.51
1.39 1.51
1.40 1.52
1.41 1.52
1.42 1.53
1.43 1.54
1.43 1.54
1.44 1.54
1.48 1.57
1.50 1.59
1.53 1.60
1.55 1.62
1.57 1.63
1.58 1.64
1.60 1.65
1.61 1.66
1.62 1.67
1.63 1.68
1.64 1.69
1.65 1.69
Incertitude
p=2
d1
d2
0.95 1.54
0.98 1.54
1.02 1.54
1.05 1.53
1.08 1.53
1.10 1.54
1.13 1.54
1.15 1.54
1.17 1.54
1.19 1.55
1.21 1.55
1.22 1.55
1.24 1.56
1.26 1.56
1.27 1.56
1.28 1.57
1.30 1.57
1.31 1.57
1.32 1.58
1.33 1.58
1.34 1.58
1.35 1.59
1.36 1.59
1.37 1.59
1.38 1.60
1.39 1.60
1.43 1.62
1.46 1.63
1.49 1.64
1.51 1.65
1.54 1.66
1.55 1.67
1.57 1.68
1.59 1.69
1.60 1.70
1.61 1.70
1.62 1.71
1.63 1.72
p=3
d1
d2
0.82 1.75
0.86 1.73
0.90 1.71
0.93 1.69
0.97 1.68
1.00 1.68
1.03 1.67
1.05 1.66
1.08 1.66
1.10 1.66
1.12 1.66
1.14 1.65
1.16 1.65
1.18 1.65
1.20 1.65
1.21 1.65
1.23 1.65
1.24 1.65
1.26 1.65
1.27 1.65
1.28 1.65
1.29 1.65
1.31 1.66
1.32 1.66
1.33 1.66
1.34 1.66
1.38 1.67
1.42 1.67
1.45 1.68
1.48 1.69
1.50 1.70
1.52 1.70
1.54 1.71
1.56 1.72
1.57 1.72
1.59 1.73
1.60 1.73
1.61 1.74
acceptee
p=4
d1
d2
0.69 1.97
0.74 1.93
0.78 1.90
0.82 1.87
0.86 1.85
0.90 1.83
0.93 1.81
0.96 1.80
0.99 1.79
1.01 1.78
1.04 1.77
1.06 1.76
1.08 1.76
1.10 1.75
1.12 1.74
1.14 1.74
1.16 1.74
1.18 1.73
1.19 1.73
1.21 1.73
1.22 1.73
1.24 1.73
1.25 1.72
1.26 1.72
1.27 1.72
1.29 1.72
1.34 1.72
1.38 1.72
1.41 1.72
1.44 1.73
1.47 1.73
1.49 1.74
1.51 1.74
1.53 1.74
1.55 1.75
1.57 1.75
1.58 1.75
1.59 1.76
p=5
d1
d2
0.56 2.21
0.62 2.15
0.67 2.10
0.71 2.06
0.75 2.02
0.79 1.99
0.83 1.96
0.86 1.94
0.90 1.92
0.93 1.90
0.95 1.89
0.98 1.88
1.01 1.86
1.03 1.85
1.05 1.84
1.07 1.83
1.09 1.83
1.11 1.82
1.13 1.81
1.15 1.81
1.16 1.80
1.18 1.80
1.19 1.80
1.21 1.79
1.22 1.79
1.23 1.79
1.29 1.78
1.34 1.77
1.38 1.77
1.41 1.77
1.44 1.77
1.46 1.77
1.49 1.77
1.51 1.77
1.52 1.77
1.54 1.78
1.56 1.78
1.57 1.78