Vous êtes sur la page 1sur 8

Examen d’économétrie (3h)

Maîtrise d’économétrie
Jean-Marc Robin
19 janvier 2004 - 13h -16h
Amphi Lefebvre Sorbonne

L’examen est sans documents hormis une feuille de formules, dont vous n’aurez d’ailleurs pas besoin.

QUESTIONS DE COURS (6.5 points)

Soyez bref.

1) (0.5 point) Que représentent et expliciter les composantes (X, Ω, y) de la formule:

bb = (XΩX 0 )−1 X 0 Ωy.

2) (0.5 point) L’estimateur des MCO du modèle linéaire hétéroscédastique est non convergent. Vrai ou
faux?
3) (0.5 point) Qu’est-ce qu’un instrument?
4) Soit le modèle
yi = a + bxi + ui
avec xi ∈ R, Eui = 0 et E(xi ui ) 6= 0.
a) (0.5 point) L’estimateur des MCO de b est-il convergent?
b) (0.5 point) Soit zi un instrument (non constant). On régresse xi sur zi avec constante. Soit x bi
la prédiction. L’estimateur des MCO des paramètres de la régression de yi sur x bi (avec constante) est-il
convergent? Quel est cet estimateur?
c) (0.5 point) Que se passe-t-il si on construit xbi comme la prédiction de xi issue de la régression
de xi sur zi SANS constante? L’estimateur des MCO des paramètres de la régression de yi sur x bi (avec
constante) est-il convergent?
bi comme la prédiction de xi issue de la
d) (0.5 point) Que se passe-t-il à votre avis si on construit x
régression de xi sur zi AVEC constante mais que zi n’est pas corrélé avec xi ?
5) J’ai autant d’instruments que de variables explicatives potentiellement endogènes.
a) (0.5 point) Je peux tester l’exogénéité des variables explicatives?
b) (0.5 point) Je peux tester la validité des instruments?
Répondre par oui ou par non.
6) (1 point) Qu’est-ce que la condition d’ordre? Est-ce une condition nécessaire d’identification? Est-ce
une condition suffisante?
7) (1 point) Je veux décrire la relation statistique entre une variable aléatoire discrète (avec plus de 3
modalités) yi et des variables explicatives xi . Quels sont les différents modèles économétriques que je peux
employer?

PREMIER EXERCICE (3 points)

On dispose d’observations yi , i = 1, ..., n, de variables prenant les valeurs 0 ou 1. Ces observations sont
i.i.d et on suppose que Pr{yi = 1} = p.
1) (0.5 points) Calculer Eyi et Vyi .
2) (1 points) Déterminer pb, l’estimateur du maximum de vraisemblance de p.

1
3) (0.5 points) Montrer que pb converge en probabilité
√ vers p.
4) (1 points) Déterminer la loi asymptotique de N (b p − p).

DEUXIEME EXERCICE (4 points)


A) Soit le système d’équations simultanées :
½
y1t = a1 + b1 · y2t + c1 · x1t + u1t
y2t = a2 + b2 · y1t + c2 · x2t + u2t
avec u1t et u2t corrélés.

1) (1 points) Ecrire les formes structurelle et réduite correspondantes.


2) (0.5 points) Ces équations vérifient-elles la condition d’ordre?
3) (1 points) Montrer à l’aide de la forme réduite que les paramètres sont en effet identifiés.

B) Soit le modèle : ½
y1t = a1 + b1 · y2t + c1 · x1t + u1t
y2t = a2 + c2 · x1t + u2t
1) (0.5 points) La condition d’ordre reste-t-elle satisfaite pour chaque équation ?
2) (1 points) Quels paramètres et fonctions des paramètres sont identifiables?

TROISIEME EXERCICE (2 points)


Soit bb un estimateur d’un paramètre scalaire b convergent et asymptotiquement normal obtenu à partir
d’un échantillon de taille N . Soit σ 2 sa variance asymptotique.

1) (0.5 points) Quelle propriété du logarithme vous permet de proposer β b = ln(bb) comme estimateur
convergent de β = ln(b) ?
b est asymptotiquement normal et calculer sa variance asymptotique.
2) (1.5 point) Montrer que β

QUATRIEME EXERCICE (4.5 points)


Soit yi une variable observable prenant les valeurs 0 ou 1. Soit xi l’unique variable explicative supposée
prendre elle-même que les valeurs 0 ou 1. On suppose qu’il existe une variable latente yi∗ telle que:
yi∗ |xi ∼ N (a + bxi , 1)
et : ¯
¯ 1 si y ∗ ≤ 0
yi = ¯¯ i
0 si yi∗ > 0
(ATTENTION au sens des inégalités!)
On dispose de 100 observation (yi , xi ) décrites dans le tableau de contingence suivant:
y
0 1
0 26 26
x
1 32 16
1) (1 points) Calculer Pr {yi = 1|xi = 1}, Pr {yi = 1|xi = 0}, Pr {yi = 0|xi = 1} et Pr {yi = 0|xi = 0}.
On note Φ la fonction de répartition de la loi normale N (0, 1) et ϕ la densité.
2) (1.5 points) En déduire la formule de la log-vraisemblance de l’échantillon.
3) (1 points) Ecrire les conditions du premier ordre du programme de maximisation de la log-vraisemblance
par rapport α = Φ(a) et β = Φ(a + b) (c’est plus simple). En déduire l’estimateur du maximum de vraisem-
blance de a et b. (Sachez que Φ−1 (2/3) = ³ 0.43.)
´ ³ ´
4) (1 points) Calculer la variance de b a, bb en fonction de celle de α b ? (Posez les calculs mais sachez
b, β
que ϕ(2/3) = 0.75 si vous voulez les mener à leur terme.)

2
Corrigé

QUESTIONS DE COURS
1) (0.5 point) Que représentent et expliciter les composantes ( X, Ω, y) de la formule:

bb = (XΩX 0 )−1 X 0 Ωy.

C’est la formule de l’estimateur des Moindres Carrés Généralisés du modèle linéaire:

E (yi |X) = x0i b,


¡ ¢
V y|X = Ω−1 ,

pour un échantillon d’observations indépendantes d’un couple de variables: (yi , xi ) ∈ R × RK , i = 1, ..., N .


La matrice X = (x0i ) ∈ RN×K , le vecteur y = (yi ) ∈ RN et b ∈ RK et Ω ∈ RN×N sont deux vecteurs/matrices
de paramètres inconnus de l’économètre.
Attention: dans cette formule Ω est l’inverse de la matrice de variance-covariance de y sachant X.
2) (0.5 point) L’estimateur des MCO du modèle linéaire hétéroscédastique est non convergent. Vrai ou
faux?
Faux. L’estimateur des MCO du modèle linéaire hétéroscédastique est convergent mais moins efficace
que l’estimateur des Moindres Carrés Pondérés qui est l’estimateur linéaire en y de variance minimale dans
la classe des estimateurs sans biais de b (théorème de Gauss-Markov).
3) (0.5 point) Qu’est-ce qu’un instrument?
Un instrument est une variable orthogonale ou indépendante de la perturbation (du terme d’erreur) d’un
modèle apparemment linéaire.
4) Soit le modèle
yi = a + bxi + ui
avec xi ∈ R, Eui = 0 et E(xi ui ) 6= 0.
a) (0.5 point) L’estimateur des MCO de b est-il convergent?
Non, car les variables explicatives ne sont pas orthogonales au terme d’erreur.
b) (0.5 point) Soit zi un instrument (non constant). On régresse xi sur zi avec constante. Soit x bi
la prédiction. L’estimateur des MCO des paramètres de la régression de yi sur x bi (avec constante) est-il
convergent? Quel est cet estimateur?
Oui. C’est l’estimateur des Doubles Moindres Carrés.
d) (0.5 point) Que se passe-t-il si on construit xbi comme la prédiction de xi issue de la régression
de xi sur zi SANS constante? L’estimateur des MCO des paramètres de la régression de yi sur x bi (avec
constante) est-il convergent?
On sait que l’estimateur des 2MC est convergent. Or celui-ci est obtenu en régressant yi sur 1 et
bi = α
x b i où α
b + βz b sont les estimés des MCO de la régression de xi sur 1 et zi . Notez qu’en général
b et β
b P Cov(xi ,zi ) P b = (1, x
β→β= Vzi b → α = Exi − βEzi 6= 0. L’espace vectoriel engendré par les colonnes de X
et α bi )
est le même que celui engendré par celles de Z = (1, zi ) de sorte que:

a + bbb
b xi = b bi
c + dz
³ ´0 ³ ´0
en notant b a, bb l’estimateur des 2MC (l’estimateur des MCO de la régression de y sur X)
b et b
c, db
l’estimateur des MCO de la régression de y sur Z. Or
³ ´
a + bbb
b xi = b a + bb α b i
b + βz

a + bbb
= b α + bbβz
b i

et donc
bbβ P Cov (yi , zi )
b = db → P Cov (yi , zi ) Cov (xi , zi ) Cov (yi , zi )
⇐⇒ bb → / = = b.
Vzi Vzi Vzi Cov (xi , zi )
C’est l’estimateur des Moindres Carrés Indirects.

3
e i obtenu comme la projection orthogonale du vecteur (xi ) sur le
ei = βz
Si on reproduit l’argument avec x
vecteur (zi ): P
e xi zi P Exi zi
β = Pi 2 → ,
i zi Ezi2
ei et régresser yi sur 1 et zi revient à projeter orthogonalement sur
on voit encore que régresser yi sur 1 et x
le même espace vectoriel et donc:

a + ebe
e xi a + ebβz
= e e i
= b bi
c + dz
³ ´0
a, eb l’estimateur des MCO de la régression de y sur X
en notant e e = (1, x
ei ). Cependant,

ebβ P Cov (yi , zi )


e = db → P Cov (yi , zi ) Exi zi
⇐⇒ eb → / 6= b (en général).
Vzi Vzi Ezi2

Donc eb n’est généralement pas convergent. Noter que si Ezi = 0 alors Cov (xi , zi ) = Exi zi et Vzi = Ezi2 et
eb est convergent. Ou encore si E (xi |zi ) = βzi . Mais dans ce cas le modèle devient un modèle à équations
simultanées puisqu’on a complété le modèle de yi sachant xi par un modèle de xi sachant zi .
c) (0.5 point) Que se passe-t-il à votre avis si on construit x bi comme la prédiction de xi issue de la
régression de xi sur zi AVEC constante mais que zi n’est pas corrélé avec xi ?
Dans ce cas x bi revient à régresser yi sur deux fois la même variable.
bi est constant et régresser yi sur 1 et x
On a donc un problème de multicolinéarité et tous les paramètres du modèle ne sont donc pas identifiables.
5) J’ai autant d’instruments que de variables explicatives potentiellement endogènes.
a) (0.5 point) Je peux tester l’exogénéité des variables explicatives?
Oui.
b) (0.5 point) Je peux tester la validité des instruments?
Non.
Répondre par oui ou par non.
6) (1 point) Qu’est-ce que la condition d’ordre? Est-ce une condition nécessaire d’identification? Est-ce
une condition suffisante?
On compte le nombre de variables exogènes exclues de l’équation. S’il est supérieur au nombre d’endogènes
inclues la condition d’ordre est vérifiée. C’est une condition nécessaire, pas suffisante.
7) (1 point) Je veux décrire la relation statistique entre une variable aléatoire discrète (avec plus de 3
modalités) yi et des variables explicatives xi . Quels sont les différents modèles économétriques que je peux
employer?
Modèle dichotomique, modèle polytomique ordonné, modèle polytomique non ordonné et modèle de choix
discret.

PREMIER EXERCICE (3 points)

On dispose d’observations yi , i = 1, ..., n, de variables prenant les valeurs 0 ou 1. Ces observations sont
i.i.d et on suppose que Pr{yi = 1} = p.
1) (0.5 points) Calculer Eyi et V yi .
Eyi = Pr {yi = 1} = p et Vyi = Eyi2 − (Eyi )2 = Eyi − (Eyi )2 = p − p2 = p(1 − p).
2) (1 points) Déterminer pb, l’estimateur du maximum de vraisemblance de p.
La log-vraisemblance de l’échantillon s’écrit:
N
X
LN (p) = yi ln p + (1 − yi ) ln (1 − p) .
i=1

On obtient la valeur de p qui maximise LN (p) en résolvant la CPO:


N N
p) X yi 1 − yi
dLN (b 1 X
= − = 0 ⇔ pb = yi .
dp i=1
pb 1 − pb N i=1

3) (0.5 points) Montrer que pb converge en probabilité vers p.

4
pb étant la moyenne de variables iid, la LGN s’applique:
P
pb → Eyi = p.

4) (1 points) Déterminer la loi asymptotique de N (b p − p).
Par application du TCL:
√ L
N (bp − p) → N (0, Vyi ) = N (0, p (1 − p)) .

DEUXIEME EXERCICE (4 points)


A) Soit le système d’équations simultanées :
½
y1t = a1 + b1 · y2t + c1 · x1t + u1t
y2t = a2 + b2 · y1t + c2 · x2t + u2t

avec u1t et u2t corrélés.

1) (1 points) Ecrire les formes structurelle et réduite correspondantes.


Forme structurelle:
½
y1t − b1 · y2t = a1 + c1 · x1t + u1t
y2t − b2 · y1t = a2 + c2 · x2t + u2t
 
µ ¶µ ¶ µ ¶ 1 µ ¶
1 −b1 y1t a1 c1 0  x1t  + u1t .
⇔ =
−b2 1 y2t a2 0 c2 u2t
| {z } | {z } x2t
=A =B

Forme réduite:
 
µ ¶ 1 µ ¶
y1t u1t
= A−1 B  x1t  + A−1
y2t y2t
x2t
µ ¶
1 a1 + a2 b1 + c1 x1t + b1 c2 x2t + u1t + b1 u2t
=
1 − b1 b2 a2 + a1 b2 + b2 c1 x1t + c2 x2t + b2 u1t + u2t
µ ¶
α1 + β 1 x1t + γ 1 x2t + v1t
= (disons).
α2 + β 2 x1t + γ 2 x2t + v2t

2) (0.5 points) Ces équations vérifient-elles la condition d’ordre?


Une variable exogène exclue de la première équation (x2t ) pour une endogène inclue (y2t ). La condition
d’ordre est juste vérifiée pour la première équation. Idem pour la seconde.
3) (1 points) Montrer à l’aide de la forme réduite que les paramètres sont en effet identifiés.
On a:
a1 + a2 b1
α1 =
1 − b1 b2
c1
β1 =
1 − b1 b2
b1 c2
γ1 =
1 − b1 b2
a2 + a1 b2
α2 =
1 − b1 b2
b2 c1
β2 =
1 − b1 b2
c2
γ2 =
1 − b1 b2

5
C’est un système de 6 équations (non linéaires) à 6 inconnues qui admet une solution unique dès l’instant
que b1 b2 6= 1. En effet, γ 1 /γ 2 = b1 et β 2 /β 1 = b2 . Le dénominateur 1 − b1 b2 s’en déduit, puis c1 et c2 se
déduisent de β 1 et γ 2 . Enfin a1 et a2 s’obtiennent à partir de α1 et α2 . Le modèle est donc juste identifié
(au premier ordre). De la matrice de variance-covariance de (v1t , v2t ) et de b1 et b2 on déduit ensuite de
façon unique celle de (u1t , u2t ) .Le modèle est donc aussi juste-identifié au second ordre.

B) Soit le modèle : ½
y1t = a1 + b1 · y2t + c1 · x1t + u1t
y2t = a2 + c2 · x1t + u2t
1) (0.5 points) La condition d’ordre reste-t-elle satisfaite pour chaque équation ?
La première équation ne satisfait pas la condition d’ordre: aucune exogène exclue pour instrumenter y2t .
2) (1 points) Quels paramètres et fonctions des paramètres sont identifiables?
La forme réduite s’écrit:
½
y1t = a1 + b1 a2 + (b1 c2 + c1 ) · x1t + u1t + b1 u2t
y2t = a2 + c2 · x1t + u2t

Sont identifiés a2 , c2 , a1 + b1 a2 et b1 c2 + c1 .

TROISIEME EXERCICE (2 points)

Soit bb un estimateur d’un paramètre scalaire b convergent et asymptotiquement normal obtenu à partir
d’un échantillon de taille N . Soit σ2 sa variance asymptotique.

1) (0.5 points) Quelle propriété du logarithme vous permet de proposer β b = ln(bb) comme estimateur
convergent de β = ln(b) ?
P P
b = ln bb →
Le logarithme est continu, donc bb → b implique β β = ln(b).
2) (1.5 point) Montrer que βb est asymptotiquement normal et calculer sa variance asymptotique.
Le logarithme est continûment différentiable sur R∗+ , on peut donc appliquer la “méthode delta”:
√ ³ ´
L ¡ ¢
N bb − b → N 0, σ 2

implique
√ ³ ´
L ¡ ¢
N βb−β → N 0, ω 2
avec µ ¶2
d ln(b) σ2
ω2 = σ2 = .
db b2
Pour retrouver cette formule, on se rappelle du développement limité:

d ln(b) ³b ´
ln bb ' ln b + b−b
db
d’où µ ¶
√ ³ ´ d ln(b) √ ³ ´
L ¡ ¢
N βb−β ' N bb − b → N 0, ω 2 .
db

QUATRIEME EXERCICE (4.5 points)


Soit yi une variable observable prenant les valeurs 0 ou 1. Soit xi l’unique variable explicative supposée
prendre elle-même que les valeurs 0 ou 1. On suppose qu’il existe une variable latente yi∗ telle que:

yi∗ |xi ∼ N (a + bxi , 1)

6
et : ¯
¯ 1 si y ∗ ≤ 0
yi = ¯¯ i
0 si yi∗ > 0
(ATTENTION au sens des inégalités!)
On dispose de 100 observation (yi , xi ) décrites dans le tableau de contingence suivant:

y
0 1
0 26 26
x
1 32 16

1) (1 points) Calculer Pr {yi = 1|xi = 1}, Pr {yi = 1|xi = 0}, Pr {yi = 0|xi = 1} et Pr {yi = 0|xi = 0}.
On note Φ la fonction de répartition de la loi normale N (0, 1) et ϕ la densité.
Pr {yi = 1|xi = 1} = Pr {yi∗ ≤ 0|xi = 1} = Φ (−a − bxi ) = Φ (−a − b) = 1 − Φ (a + b) .
Pr {yi = 0|xi = 1} = 1 − Pr {yi = 1|xi = 1} = Φ (a + b) .
Pr {yi = 1|xi = 0} = Pr {yi∗ ≤ 0|xi = 0} = Φ (−a − bxi ) = Φ (−a) = 1 − Φ (a) .
Pr {yi = 0|xi = 0} = 1 − Pr {yi = 1|xi = 0} = Φ (a) .
2) (1.5 points) En déduire la formule de la log-vraisemblance de l’échantillon.
La log-vraisemblance s’écrit:
X
LN (a, b) = yi ln Pr {yi = 1|xi } + (1 − yi ) ln Pr {yi = 0|xi }
i
= 16 ln [Pr {yi = 1|xi = 1}] + 32 ln [Pr {yi = 0|xi = 1}]
+26 ln [Pr {yi = 1|xi = 0}] + 26 ln [Pr {yi = 0|xi = 0}]
= 16 ln [1 − Φ (a + b)] + 32 ln Φ (a + b) + 26 ln [1 − Φ (a)] + 26 ln Φ (a) .

3) (1 points) Ecrire les conditions du premier ordre du programme de maximisation de la log-vraisemblance


par rapport α = Φ(a) et β = Φ(a + b) (c’est plus simple). En déduire l’estimateur du maximum de vraisem-
blance de a et b. (Sachez que Φ−1 (2/3) = 0.43.)
En posant α = Φ(a) et β = Φ(a + b), les CPO du programme de maximisation de LN par rapport à α et
β sont:
16 32 b= 32 2
− + = 0⇔β =
1−β b b
β 16 + 32 3
26 26 26 1
− + b=
= 0⇔α =
1−α b b
α 26 + 26 2
D’où ½ ½
a = Φ−1 (1/2) = 0
b b
a=0
⇔ b .
a + bb = Φ−1 (2/3) = 0.43
b b = 0.43
³ ´ ³ ´
4) (1 points) Calculer la variance de b a, bb en fonction de celle de α b ?
b, β
Noter d’abord que par application des résultats du premier exercice:
µ ¶ Ã α(1−α) ! µ
1

b
α 52 0 208 0
Vas b = β(1−β) = 1
β 0 48
0 216

Les estimateurs α b sont indépendants car construits à partir d’échantillons disjoints (les i tq xi = 1 pour
b et β
α et les i tq xi = 0 pour β).
On a de plus en général:
µ ¶ µ ¶ µ ¶
a Φ−1 (α) α
= = g
b Φ−1 (β) − Φ−1 (α) β

7
La méthode delta s’applique encore:
µ ¶ µ ¶µ ¶0
b
a ∂g b
α ∂g
Vas b = Vas b
b ∂ (α, β) β ∂ (α, β)
à ! µ ¶Ã !0
1 1
−1
ϕ◦Φ (α) 0 b
α ϕ(α) 0
= 1 1 Vas b 1 1
− ϕ◦Φ−1 (α) ϕ◦Φ−1 (β) β − ϕ(α) ϕ(β)
à ! µ ¶Ã 1 !
1 1
ϕ(0) 0 b
α ϕ(0) − ϕ(0)
= 1 1 Vas b 1
− ϕ(0) ϕ◦Φ−1 (2/3) β 0 ϕ◦Φ−1 (2/3)
µ 1
¶ µ 1
¶ µ 1 1

.3989 0 208 0 .3989 − .3989
'
− 1 1
0 1
0 1
µ .3989 .3636 ¶ 216 .3636
3.02 −3.02
' × 10−2 .
−3.02 6.52

Vous aimerez peut-être aussi