Vous êtes sur la page 1sur 118

´

Econom´etrie

Inspir´e du cours de Bruno Crepon 21 f´evrier 2003

1

2

1

` ´

INTRODUCTION : LE MOD ELE LIN EAIRE

1 Introduction : le mod`ele lin´eaire

On consid`ere le mod`ele :

y = b 0 + x 1 b 1 + ··· + x k b k + u

Ou`

 

x


b

inconnue du probl`eme

y

u

=

=

=

=

variable d´ependante

variables explicatives

terme d’erreur

Le but de l’´econom´etrie est d’estimer ce mod`ele, c’est-`a-dire de trouver une

ˆ

fonction b = b(Y, X) qui satisfasse les conditions suivantes :

ˆ

– sans biais : E( b) = b ;

– ob´eissance `a un principe, comme le maximum de vraisemblance : si la loi

des r´esidus est connue, on connaˆıt la loi conditionnelle Y |X et on choisit

ˆ

b ;

– optimisation d’un crit`ere, comme min (y xb) 2 ;

– minimisation de Var( b).

On travaille sur des donn´ees appartenant `a trois grands types :

– Donn´ees temporelles, par observation du mˆeme ph´enom`ene dans le temps,

c’est-`a-dire des variables y t , x t , u t , t [1,

nement grand, de l’ordre de 50 p´eriodes. Exemple (Consommation et revenu). C t = α + βR t + α t + u

peut ˆetre grand, voire tr`es

grand (plusieurs milliers d’observations). L’ajustement est en g´en´eral beaucoup moins bon que dans le cas des don-

n´ees temporelles. Exemple (Enquˆete-emploi). On a plus de 150000 personnes enquˆet´ees, avec un grand nombre de questions.

C’est le type de donn´ees le plus adapt´e au calibrage macro-´economique.

– Donn´ees de panel, doublement indic´ees :

, T ]. T doit alors ˆetre moyen-

– Donn´ees en coupe :y i , x i , u i , i

=

1,

, N . N

ω i = α 0 + α 1 sco i + β 1 exp i + β 2 exp

2

i

+ u i

, Exemple (Fonctions de production d’entreprises).

y i,t , x i,t , i = 1,

, N grand(> 100), t = 1,

T petit(< 10).

Y it = A it K

α

it L β

it y it = a it + αk it + βl it

Le r´esidu, dit r´esidu de Solow, est alors a it , et l’observation unitaire, ou

unit´e statistique le T -uplet (y i1 ,

, y iT ).

`

1.1 A quoi sert l’estimation ?

Il s’agit de v´erifier qu’une variable X a bien un effet sur la variable Y , et de

quantifier cet effet. L’estimation peut aussi avoir un but de simulation. Si la consommation des bien mod´elis´ee par C t = α 0 + α 1 R t + α 2 T t + u t , quel est l’effet de pr´el`evements fiscaux T sur la consommation, autrement dit, quel est le signe de α 2 ? La th´eorie de l’´equivalence ricardienne dit que α 2 = 0.

On peut enfin vouloir faire de la pr´evision : si Y t =

bX t , alors il y a une

probabilit´e, `a d´eterminer, pour que Y t+1 =

bX t+1 .

1.2

D’ou` vient le mod`ele ?

3

1.2 D’ou` vient le mod`ele ?

Le mod`ele vient de la th´eorie ´economique ;

Exemple.

– Fonction de production Y

= F (X), la th´eorie donnant une

id´ee de la mod´elisation, comme Y = K

k=1 X

α

k

k

.

fonction translog : log C = log Q + α log P X + log P X Ω log P X .

Pour pouvoir ´evaluer le mod`ele, il faut souvent imposer une restriction sto- chastique.

Exemple. On sp´ecifie la loi de u|X (en g´en´eral une loi Normale), ce qui permet d’estimer le mod`ele, puisque cela donne la loi de Y |X.

Comme E(u|X) = 0 est une hypoth`ese forte, on pr´ef`ere en g´en´eral faire des hypoth`eses moins fortes.

Exemple. Y d = αp + X d β d + u d , Y 0 = γ p + X 0 β 0 + u 0 . On observe (Y, P, X), et on s’int´eresse principalement `a la premi`ere ´equation avec un choc u d = 0. Si p = f (u), la connaissance du prix donne une information sur le r´esidu,

donc E(u|X)

= 0.

On doit donc faire la r´eduction sctochastique E(u d |X d , X 0 ) = 0.

On peut ´egalement essayer de sp´ecifier la loi des observations. Cependant,

sp´ecifier la loi de u i |X i ne suffit pas. Il faut une hypoth`ese suppl´ementaire pour

passer `a L(y 1 , sont iid.

x N ). On peut par exemple supposer que les (y i , x i )

,

y N |x 1 ,

,

4

`

TABLE DES MATI ERES

Table des mati`eres

1 Introduction : le mod`ele lin´eaire

`

1.1 A quoi sert l’estimation ?

 

.

.

.

.

.

.

.

.

.

.

.

.

1.2 D’ou` vient le mod`ele ?

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

2 Le Mod`ele lin´eaire standard

 

2.1 Hypoth`eses

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

2.2 L’Estimateur des MCO

.

.

.

.

.

.

.

.

.

.

.

.

.

2.2.1 D´efinition

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

2.2.2 Interpr´etation g´eom´etrique

.

.

.

.

.

.

.

2.3 Propri´et´es alg´ebriques de l’estimateur des MCO

2.4 Propri´et´es statistiques de l’estimateur MCO

2.5

.

.

.

2.9 Le Mod`ele lin´eaire statistique

2.6

2.7

2.8

.

.

.

Optimalit´e de

b MCO

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

Estimation de σ 2

.

.

.

.

.

.

Application `a la pr´evision

Analyse de la variance

.

.

.

.

2.9.1 Intervalles de confiance

2.10 Test d’hypoth`eses .

.

.

.

.

.

.

2.11 MCO et EMV

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

3 Estimation sous contraintes lin´eaires

3.1 Introduction .

.

.

.

.

.

.

.

.

.

.

.

.

.

3.1.1 Questions :

.

.

.

.

.

.

.

.

.

.

3.1.2 Formulation : Exemple .

.

.

.

3.2

3.3

3.4

3.5

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

3.1.3

3.1.4

L’Estimateur des Moindres Carr´es Contraints (MCC)

3.2.1

.

3.2.3

Estimateur de la Variance des r´esidus σ 2 Estimation par int´egration des contraintes

3.2.2

R´e´ecriture sous forme matricielle :

Formulation g´en´erale .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

Expression de l’estimateur des MCC

ˆ

Propri´et´es Statistiques de b mcc .

Interpr´etation

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

Expression simplifi´ee de la statistique

Mise en oeuvre du test .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

Test d’un Ensemble de Contraintes

3.5.1

3.5.2

3.5.3 Application : Test de l’´egalit´e `a une valeur donn´ee de plu-

.

.

.

.

.

.

.

.

.

.

.

.

.

.

sieurs coefficicents :

.

3.6 Test de la significativit´e globale des coefficients d’une r´egression .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

3.7 Le Test de Chow

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

3.7.1 Formalisme

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

3.7.2 Principe d’application du test de Chow (sous hypoth`ese d’homosc ´edasticit´e et non-corr´elation des

4 Propri´et´es asymptotiques de l’estimateur des MCO

 

4.1

Rappel sur les convergences

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

4.1.1 Convergence en loi

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

4.1.2 Convergence en probabilit´e

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

4.1.3 Diff´erents r´esultats

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

2

2

3

7

7

7

7

8

9

11

11

12

13

14

15

16

17

18

19

19

19

19

19

20

20

20

21

22

23

24

25

26

26

27

27

27

28

29

30

30

30

30

30

 

`

TABLE DES MATI ERES

 

5

 

4.1.4

Th´eor`eme central limite (Lindeberg-Levy) .

.

.

.

.

.

.

.

.

31

4.2 Propri´et´es asymptotiques de l’estimateur des MCO

 

.

.

32

4.3 Estimation de la variance de l’estimateur

 

.

.

.

.

.

.

.

.

.

.

.

.

.

35

5 Tests asymptotiques

 

35

 

5.0.1

p-value

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

35

5.1 Test d’hypoth`eses lin´eaires .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

36

 

5.1.1 Cas d’une seule contrainte, p = 1 : test de Student.

.

.

.

.

36

5.1.2 Cas de plusieurs contraintes, p K : test de

 

.

.

.

37

5.2 Test d’hypoth`eses non lin´eaires

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

38

6 Le mod`ele lin´eaire sans l’hypoth`ese IID

 

39

6.1 Pr´esentation .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

39

6.2 Exemples :

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

39

6.3 Conclusion des exemples .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

42

6.4 Le mod`ele lin´eaire h´et´erosc´edastique

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

43

 

6.4.1

D´efinition et hypoth`eses

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

43

6.5 Estimation par les MCO .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

43

6.6 La m´ethode des Moindres Carr´es G´en´eralis´es (MCG)

 

44

6.7 Propri´et´es statistiques de l’esp´erance et de la variance condition-

 

nelle des MCG

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

45

7 L’estimateur des MCQG

 

47

 

7.0.1 Cas ou` Ω = Σ (θ) et θ de dimension finie .

.

.

.

.

.

.

.

.

.

47

Application

7.0.2 .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

50

7.0.3 Retour sur les r´egressions SUR

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

51

7.0.4 Cas ou` Ω = Σ (θ, X) et θ de dimension finie

.

.

.

.

.

.

.

.

52

7.0.5 Application :

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

53

7.0.6 Cas ou` Ω = Σ (θ) et θ de dimension quelconque

.

.

.

.

.

.

54

7.0.7 Application

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

55

7.1

Tests d’h´et´erosc´edasticit´e

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

55

7.1.1 Test de Goldfeld-Quandt

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

55

7.1.2 Test de Breusch-Pagan .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

56

8 Autocorrelation des r´esidus

 

58

8.1 Les diverses formes d’autocorr´elation des perturbations

 

.

.

.

.

.

58

 

8.1.1 Perturbations suivant un processus autor´egressif d’ordre

 

1 (AR1)

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

58

 

8.1.2 Stationnarit´e au premier et au second ordre d’un proces-

 

sus AR1

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

58

 

8.1.3 Covariance entre deux perturbations d’un processus AR(1)

59

8.1.4 Matrice de variances-covariances des perturbations

 

60

8.1.5 Perturbations suivant un processus AR(p)

 

.

.

.

.

.

.

.

.

60

8.1.6 Perturbations suivant un processus de moyenne mobile

 

d’ordre q MA(q)

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

61

 

8.1.7 Perturbation suivant un processus ARMA(p,q)

.

.

.

.

.

.

62

8.1.8 D´etection de l’autocorr´elation : le test de Durbin et Wat-

 

son (1950, 1951)

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

63

8.2 Estimateurs des MCO, des MCG et des MCQG dans un mod`ele

 

dont les perturbations sont autocorr´el´ees

 

.

.

.

.

.

.

.

.

.

.

.

.

65

6

9

`

TABLE DES MATI ERES

8.2.1

Estimation de la matrice de variance

 

.

.

.

.

.

.

Introduction aux variables instrumentales

 

9.0.2 Erreur de mesure sur les variables

.

.

.

.

.

.

.

.

.

.

.

9.0.3 Omission de r´egresseur, h´et´erog´en´eit´e inobserv´ee

.

.

.

9.0.4 La simultan´eit´e

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

9.0.5 La m´ethode des variables instrumentales

.

.

.

.

.

.

9.1 Instruments

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

9.1.1

Identification

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

9.2 Moindres carr´es indirects

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

9.2.1 Propri´et´e asymptotiques des estimateurs des MCI

.

.

9.2.2 Estimation robuste de la matrice de variance

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

65

69

69

70

70

71

71

73

73

74

75

9.2.3 Estimateur `a variables instrumentales optimal ou estima-

teur des doubles moindres carr´es

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

75

9.2.4 Expression de l’estimateur optimal

.

.

.

.

.

.

.

.

.

.

.

.

.

76

9.2.5 Cas des r´esidus h´et´erosc´edastiques

 

.

.

.

.

.

.

.

.

.

.

.

.

.

77

9.2.6 Interpr´etation de la condition rangE (z x i ) = K + 1

i

 

78

 

.

.

.

9.2.7 Test de suridentification

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

78

9.2.8 Test d’exog´en´eit´e des variables explicatives

.

.

.

.

.

.

.

.

83

10 La M´ethode des moments g´en´eralis´ee

86

10.1 Mod`ele structurel et contrainte identifiante : restriction sur les

moments .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

10.2 La m´ethode des moments g´en´eralis´ee .

.

.

.

.

.

.

10.3 Principe de la m´ethode : .

.

.

.

.

.

.

.

.

.

.

.

.

.

10.4 Convergence et propri´et´es asymptotiques

 

10.5 Estimateur optimal .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

10.6 Mise en oeuvre : deux ´etapes

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

10.7 Application : instruments dans un syst`eme d’´equations

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.