Vous êtes sur la page 1sur 34

Cours dconomtrie II

Tests statistiques et modle statistique


linaire
Cours du 9 mars 2007
Michel Juillard
Un rsultat incertain
Les valeurs estimes

0
et

1
ont t calcules partir dun
chantillon dobservations. Elles ne sont quune approximation
des vraies valeurs
0
et
1
et un autre chantillon du mme
phnomne aurait fourni dautres valeurs estimes.
Cest la raison pour laquelle nous avons besoin dintervalles de
conance et de tests dhypothses.
Pourquoi les tests?
Etant donn le caractre approximatif de la valeur estime, il
nest pas facile de rpondre mme une question simple
concernant cette valeur.
Par exemple, la valeur estime de leffet du ratio lves par
enseignant sur le rsultat aux tests est de -2.28. Il nest pas
facile de savoir si la vraie valeur de cet effet est nulle (le nombre
dlve par enseignant na pas dinuence sur les rsultats) ou
sil est ngatif (une augmentation du nombre dlves par
enseignant conduit une diminution des rsultats).
Une solution de bon sens
Une solution de bon sens consiste considrer que si la valeur
estime (ici -2.28) est sufsamment proche de lhypothse (ici
0), on accepte lhypothse. Si la valeur estime est trop
loigne, on rejette lhypothse. Le problme est de dnir ce
qui est sufsamment proche et ce qui est trop loign.
Si les observations concordent avec ma thorie hypothtique,
je continue y croire. Au contraire, si les observations sont en
contradiction avec ma thorie, je dois la rviser (la rejeter).
Dcision en incertitude
On doit dcider de lexistence dun effet du ratio lves par
enseignants sur le rsultat aux tests partir dune information
incomplte (la valeur estime). En situation dincertitude, il est
impossible de toujours prendre la bonne dcision. On est
condamn parfois se tromper.
Le mieux quon puisse esprer, cest controler la probabilit et
la manire de se tromper.
Hypothse nulle et hypothse alternative

Lhypothse nulle, H
0
, reprsente la priori thorique que
lon veut confronter aux donnes.

Lhypothse alternative, H
1
, reprsente les vnements qui
pourraient se produire si H
0
tait fausse.

Hypothse ponctuelle: H
0
: =

Hypothse sur un intervalle: H


1
: >

Dans ce cours, lhypothse nulle est toujours une


hypothse ponctuelle.

Lhypothse nulle et lhypothse alternative ne jouent pas


des rles symmtriques. Cest toujours lhypothse nulle
qui est teste.
Deux erreurs possibles

Erreur de type I: refuser H


0
alors quelle est vraie

Erreur de type II: accepter H


0
alors quelle est fausse

Risque de 1re espce: probabilit de commettre lerreur


de type I

Risque de 2e espce: probabilit de commettre lerreur de


type III

Jinsiste: sur la base de la valeur estime des paramtres,


on est condamn commettre de temps en temps lun ou
lautre erreur!
La rgle de bon sens en pratique

Prs de lhypothse nulle on accepte (zone dacceptation)

Loin de lhypothse nulle on rejette (zone de rejet)


Zone dacceptation
6 5 4 3 2 1 0 1 2 3 4 5 6
R A R
D
i
s
t
r
i
b
u
t
i
o
n
d
e

s
o
u
s
H
0
O
n
p
o
s
t
u
l
e
q
u
e
l

h
y
p
o
t
h

s
e
n
u
l
l
e
e
s
t
v
r
a
i
e
.

2
0
2
4
6
0.00 0.05 0.10 0.15 0.20 0.25 0.30 0.35
x
dt(x, df = df)
Risque de 1re espce
Probabilit de rejeter H
0
alors quelle est vraie
6 4 2 0 2 4 6
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
0
.
2
5
0
.
3
0
0
.
3
5
x
d
t
(
x
,

d
f

=

d
f
)
0.09 0.09
s
u
i
t
e
o
n
d
i
m
i
n
u
e
l
e
r
i
s
q
u
e
d
e
1

r
e
e
s
p

c
e

2
0
2
4
6
0.00 0.05 0.10 0.15 0.20 0.25 0.30 0.35
x
dt(x, df = df)
0
.
0
5
0
.
0
5
Attention
Lorsquon diminue le risque de 1re espce, on augmente
ncessairement le risque de 2e espce (accepter H
0
alors
quelle est fausse)
P-valeur
On dnit la p-valeur comme la probabilit dobtenir une valeur
plus grande que celle observe (ou calcule).
Pour les tests o la zone de rejet est rpartie des deux cts
de la distribution de la statistique, on dnit la p-valeur comme
Prob(|Z| > |z

|)
Modle statistique linaireH1
Hypothse I:
Dans la population dintrt (ex: tous les districts scolaires
possibles), le phnomne quon veut tudier est dcrit par des
variables alatoires (ex: rsultats aux tests, ratio lves par
enseignants). On suppose quil existe une relation linaire
entre ces deux variables. Cest la droite de rgression dans la
population.
Hypothse I (suite)
On suppose le modle statistique linaire
Y
i
=
0
+
1
X
i
+ u
i
i = 1, . . . , n
X : variable indpendante (alatoire, observable)
Y : variable dpendante (alatoire, observable)

0
: constante (certaine, inobservable)

1
: pente (certaine, inobservable)
u
i
: terme derreur (alatoire, inobservable)
Terme derreur
Le terme derreur rassemble tous les autres facteurs affectant
le phnomne en dehors de X ainsi que les possibles erreurs
de mesure sur la variable dpendante.
(Source: Stock et Watson, 2003)
Hypothse I (suite)
Lhypothse contenue dans la spcication du modle
Y
i
=
0
+
1
X
i
+ u
i
i = 1, . . . , n
contient deux soushypothses:
1. la relation fonctionnelle est linaire
2. les coefcients
0
et
1
sont constants dans toute la
population
H2: E (u|X) = 0
La distribution conditionnelle du terme derreur lie une
valeur de X donne a une moyenne nulle.
(Source: Stock et Watson, 2003)
Exemple
R
i
=
0
+
1
EE
i
+ u
i
i = 1, . . . , 420
u
i
rsume les autres facteurs qui peuvent affecter les rsultats
aux tests. Parmi eux, par exemple,

laide apporte par les parents

lenvironnement familial

les possibilits dapprendre en dehors de lcole (cours


domicile)

le revenu familial est une variable proxy pour plusieurs de


ces facteurs
Hypothse 2 (suite)
E (u|X) = 0
implique, par exemple, que la moyenne du revenu familial tant
donn le ratio lve par enseignant dans le district est une
constante et par consquent que revenu familial et ratio lve
par enseignants ne sont pas corrls. Cest une hypothse
dlicate.
H3: les observations sont i.i.d.
Les observations de la paire variable dpendantevariable
explicative sont indpendamment, identiquement distribues
(i.i.d.).
Cest le cas si lchantillon est tir au sort dans la population.
Ce nest pas presque jamais le cas si les observations sont
faites au cours du temps (sries temporelles).
Dans notre exemple, les observations nont pas t tires au
hasard.
H4: E
_
u
4
_
< et E
_
X
4
_
<
Hypothse technique qui est gnralement plausible. Un
domaine de dnition ni pour les variables implique que leur
quatrime moment est ni.
Rsum des hypothses
H1 : Y
i
=
0
+
1
X
i
+ u
i
i = 1, . . . , n
H2 : E (u|X) = 0
H3 : les observations (Y
i
, X
i
) sont i.i.d.
H4 : E
_
u
4
_
< et E
_
X
4
_
<
Proprits de lestimateur des MCO
Sous ces hypothses, lestimateur des Moindres Carrs
Ordinaires a les proprits suivantes, lorsquon dispose dun
grand nombre dobservations:

E
_

1
_
=
1

var
_

1
_
=
var
([
X

X
]
u
)
n[var(X)]
2

1
suit une loi normale N
_

1
,
var
([
X

X
]
u
)
n[var(X)]
2
_
Distribution de

1
Y
i
=
0
+
1
X
i
+ u
i
Y
i


Y =
1
_
X
i


X
_
+ u
i
u
n

i =1
_
X
i


X
_ _
Y
i


Y
_
=
n

i =1
_
X
i


X
_ _

1
_
X
i


X
_
+ (u
i
u)

=
1
n

i =1
_
X
i


X
_
2
+
n

i =1
_
X
i


X
_
u
i

n

i =1
_
X
i


X
_
u
=
1
n

i =1
_
X
i


X
_
2
+
n

i =1
_
X
i


X
_
u
i

1
=
1
n

n
i =1
_
Y
i


Y
_ _
X
i


X
_
1
n

n
i =1
_
X
i


X
_
2
=
1
+
1
n

n
i =1
_
X
i


X
_
u
i
1
n

n
i =1
_
X
i


X
_
2
E (
1
)
E
_

1
_
=
1
+E
_
1
n

n
i =1
(
X
i

X
)
u
i
1
n

n
i =1
(
X
i

X
)
2
_
car
1
est une grandeur certaine
=
1
+E
_
1
n

n
i =1
(
X
i

X
)
E(u
i
|X
1
,...,X
n
)
1
n

n
i =1
(
X
i

X
)
2
_
par la loi des esprances itres
=
1
par H2
Rappel: loi des esprances itres
E (Y) = E (E (Y|X))
Considrez par exemple le cas discret:
E (Y) =
n

i =1
E (Y|X = x
i
) Pr (X = x
i
)
Convergence en probabilit
Une squence de variables alatoires Z
n
converge en
probabilit vers une constante, z

, si et si seulement ,
lim
n
Pr (z

< Z
n
< z

+ ) = 1. On crit
Z
n

p
z

La loi des grands nombres dit que si Y


1
, . . . , Y
n
sont
indpendamment, identiquement, distribues, avec
E (Y
i
) =
Y
, var(Y
i
) =
2
Y
et 0 <
2
Y
< ,

Y
p

Y
.
Thorme de la limite centrale
[en anglais central limit theorem]
Supposon quil existe Y
1
, . . . , Y
n
variables alatoires qui sont
indpendamment, identiquement, distribues, avec
E (Y
i
) =
Y
, var (Y
i
) =
2
Y
et 0 <
2
Y
< . Lorsque n , la
distribution de
(

Y
Y
)

Y
(o

Y
=

Y
n
) tend vers une loi normale
centre rduite, N(0, 1).
Distribution asymptotique de

1
=
1
+
1
n

n
i =1
_
X
i


X
_
u
i
1
n

n
i =1
_
X
i


X
_
2
Asymptotiquement, lorsque n ,


X
p

X


i
= (X
i

X
) u
i

=
1
n

n
i =1
(X
i

X
) u
i

E ( ) = 0, par H2


i
est i.i.d., par H3

= var (
i
) et 0 <
2

< , par H4
suite


2

=

2


suit une distribution N(0, 1), par le T.L.C.

1
n

n
i =1
_
X
i


X
_
2

p

2
X

var
_

1
_
=
var
([
X

X
]
u
)
n[var(X)]
2

1
suit une loi normale N
_

1
,
var
([
X

X
]
u
)
n[var(X)]
2
_
En pratique. . .
var
_

1
_
=
1
n
1
n2

n
i =1
_
X
i


X
_

u
2
i
_
1
n

n
i =1
_
X
i


X
_
2
_
2
Lerreurtype (standard error en anglais) de

1
:
s

1
=
_
var
_

1
_
Exemple

H
0
:
1
= 0

H
1
:
1
= 0

1
= 2.28
s

1
= 0.5195
t =

1
0
s

1
= 4.389
Pr (|T| > |t |) = 1.45e 05 = 1.45 10
5
= 0.0000145
On rejette H
0
a nimporte quel niveau de signication usuel

Vous aimerez peut-être aussi