Académique Documents
Professionnel Documents
Culture Documents
Partiel2004 PDF
Partiel2004 PDF
Maîtrise d’économétrie
Jean-Marc Robin
19 janvier 2004 - 13h -16h
Amphi Lefebvre Sorbonne
L’examen est sans documents hormis une feuille de formules, dont vous n’aurez d’ailleurs pas besoin.
Soyez bref.
2) (0.5 point) L’estimateur des MCO du modèle linéaire hétéroscédastique est non convergent. Vrai ou
faux?
3) (0.5 point) Qu’est-ce qu’un instrument?
4) Soit le modèle
yi = a + bxi + ui
avec xi ∈ R, Eui = 0 et E(xi ui ) 6= 0.
a) (0.5 point) L’estimateur des MCO de b est-il convergent?
b) (0.5 point) Soit zi un instrument (non constant). On régresse xi sur zi avec constante. Soit x bi
la prédiction. L’estimateur des MCO des paramètres de la régression de yi sur x bi (avec constante) est-il
convergent? Quel est cet estimateur?
c) (0.5 point) Que se passe-t-il si on construit xbi comme la prédiction de xi issue de la régression
de xi sur zi SANS constante? L’estimateur des MCO des paramètres de la régression de yi sur x bi (avec
constante) est-il convergent?
bi comme la prédiction de xi issue de la
d) (0.5 point) Que se passe-t-il à votre avis si on construit x
régression de xi sur zi AVEC constante mais que zi n’est pas corrélé avec xi ?
5) J’ai autant d’instruments que de variables explicatives potentiellement endogènes.
a) (0.5 point) Je peux tester l’exogénéité des variables explicatives?
b) (0.5 point) Je peux tester la validité des instruments?
Répondre par oui ou par non.
6) (1 point) Qu’est-ce que la condition d’ordre? Est-ce une condition nécessaire d’identification? Est-ce
une condition suffisante?
7) (1 point) Je veux décrire la relation statistique entre une variable aléatoire discrète (avec plus de 3
modalités) yi et des variables explicatives xi . Quels sont les différents modèles économétriques que je peux
employer?
On dispose d’observations yi , i = 1, ..., n, de variables prenant les valeurs 0 ou 1. Ces observations sont
i.i.d et on suppose que Pr{yi = 1} = p.
1) (0.5 points) Calculer Eyi et Vyi .
2) (1 points) Déterminer pb, l’estimateur du maximum de vraisemblance de p.
1
3) (0.5 points) Montrer que pb converge en probabilité
√ vers p.
4) (1 points) Déterminer la loi asymptotique de N (b p − p).
B) Soit le modèle : ½
y1t = a1 + b1 · y2t + c1 · x1t + u1t
y2t = a2 + c2 · x1t + u2t
1) (0.5 points) La condition d’ordre reste-t-elle satisfaite pour chaque équation ?
2) (1 points) Quels paramètres et fonctions des paramètres sont identifiables?
1) (0.5 points) Quelle propriété du logarithme vous permet de proposer β b = ln(bb) comme estimateur
convergent de β = ln(b) ?
b est asymptotiquement normal et calculer sa variance asymptotique.
2) (1.5 point) Montrer que β
2
Corrigé
QUESTIONS DE COURS
1) (0.5 point) Que représentent et expliciter les composantes ( X, Ω, y) de la formule:
a + bbb
b xi = b bi
c + dz
³ ´0 ³ ´0
en notant b a, bb l’estimateur des 2MC (l’estimateur des MCO de la régression de y sur X)
b et b
c, db
l’estimateur des MCO de la régression de y sur Z. Or
³ ´
a + bbb
b xi = b a + bb α b i
b + βz
a + bbb
= b α + bbβz
b i
et donc
bbβ P Cov (yi , zi )
b = db → P Cov (yi , zi ) Cov (xi , zi ) Cov (yi , zi )
⇐⇒ bb → / = = b.
Vzi Vzi Vzi Cov (xi , zi )
C’est l’estimateur des Moindres Carrés Indirects.
3
e i obtenu comme la projection orthogonale du vecteur (xi ) sur le
ei = βz
Si on reproduit l’argument avec x
vecteur (zi ): P
e xi zi P Exi zi
β = Pi 2 → ,
i zi Ezi2
ei et régresser yi sur 1 et zi revient à projeter orthogonalement sur
on voit encore que régresser yi sur 1 et x
le même espace vectoriel et donc:
a + ebe
e xi a + ebβz
= e e i
= b bi
c + dz
³ ´0
a, eb l’estimateur des MCO de la régression de y sur X
en notant e e = (1, x
ei ). Cependant,
Donc eb n’est généralement pas convergent. Noter que si Ezi = 0 alors Cov (xi , zi ) = Exi zi et Vzi = Ezi2 et
eb est convergent. Ou encore si E (xi |zi ) = βzi . Mais dans ce cas le modèle devient un modèle à équations
simultanées puisqu’on a complété le modèle de yi sachant xi par un modèle de xi sachant zi .
c) (0.5 point) Que se passe-t-il à votre avis si on construit x bi comme la prédiction de xi issue de la
régression de xi sur zi AVEC constante mais que zi n’est pas corrélé avec xi ?
Dans ce cas x bi revient à régresser yi sur deux fois la même variable.
bi est constant et régresser yi sur 1 et x
On a donc un problème de multicolinéarité et tous les paramètres du modèle ne sont donc pas identifiables.
5) J’ai autant d’instruments que de variables explicatives potentiellement endogènes.
a) (0.5 point) Je peux tester l’exogénéité des variables explicatives?
Oui.
b) (0.5 point) Je peux tester la validité des instruments?
Non.
Répondre par oui ou par non.
6) (1 point) Qu’est-ce que la condition d’ordre? Est-ce une condition nécessaire d’identification? Est-ce
une condition suffisante?
On compte le nombre de variables exogènes exclues de l’équation. S’il est supérieur au nombre d’endogènes
inclues la condition d’ordre est vérifiée. C’est une condition nécessaire, pas suffisante.
7) (1 point) Je veux décrire la relation statistique entre une variable aléatoire discrète (avec plus de 3
modalités) yi et des variables explicatives xi . Quels sont les différents modèles économétriques que je peux
employer?
Modèle dichotomique, modèle polytomique ordonné, modèle polytomique non ordonné et modèle de choix
discret.
On dispose d’observations yi , i = 1, ..., n, de variables prenant les valeurs 0 ou 1. Ces observations sont
i.i.d et on suppose que Pr{yi = 1} = p.
1) (0.5 points) Calculer Eyi et V yi .
Eyi = Pr {yi = 1} = p et Vyi = Eyi2 − (Eyi )2 = Eyi − (Eyi )2 = p − p2 = p(1 − p).
2) (1 points) Déterminer pb, l’estimateur du maximum de vraisemblance de p.
La log-vraisemblance de l’échantillon s’écrit:
N
X
LN (p) = yi ln p + (1 − yi ) ln (1 − p) .
i=1
4
pb étant la moyenne de variables iid, la LGN s’applique:
P
pb → Eyi = p.
√
4) (1 points) Déterminer la loi asymptotique de N (b p − p).
Par application du TCL:
√ L
N (bp − p) → N (0, Vyi ) = N (0, p (1 − p)) .
Forme réduite:
µ ¶ 1 µ ¶
y1t u1t
= A−1 B x1t + A−1
y2t y2t
x2t
µ ¶
1 a1 + a2 b1 + c1 x1t + b1 c2 x2t + u1t + b1 u2t
=
1 − b1 b2 a2 + a1 b2 + b2 c1 x1t + c2 x2t + b2 u1t + u2t
µ ¶
α1 + β 1 x1t + γ 1 x2t + v1t
= (disons).
α2 + β 2 x1t + γ 2 x2t + v2t
5
C’est un système de 6 équations (non linéaires) à 6 inconnues qui admet une solution unique dès l’instant
que b1 b2 6= 1. En effet, γ 1 /γ 2 = b1 et β 2 /β 1 = b2 . Le dénominateur 1 − b1 b2 s’en déduit, puis c1 et c2 se
déduisent de β 1 et γ 2 . Enfin a1 et a2 s’obtiennent à partir de α1 et α2 . Le modèle est donc juste identifié
(au premier ordre). De la matrice de variance-covariance de (v1t , v2t ) et de b1 et b2 on déduit ensuite de
façon unique celle de (u1t , u2t ) .Le modèle est donc aussi juste-identifié au second ordre.
B) Soit le modèle : ½
y1t = a1 + b1 · y2t + c1 · x1t + u1t
y2t = a2 + c2 · x1t + u2t
1) (0.5 points) La condition d’ordre reste-t-elle satisfaite pour chaque équation ?
La première équation ne satisfait pas la condition d’ordre: aucune exogène exclue pour instrumenter y2t .
2) (1 points) Quels paramètres et fonctions des paramètres sont identifiables?
La forme réduite s’écrit:
½
y1t = a1 + b1 a2 + (b1 c2 + c1 ) · x1t + u1t + b1 u2t
y2t = a2 + c2 · x1t + u2t
Sont identifiés a2 , c2 , a1 + b1 a2 et b1 c2 + c1 .
Soit bb un estimateur d’un paramètre scalaire b convergent et asymptotiquement normal obtenu à partir
d’un échantillon de taille N . Soit σ2 sa variance asymptotique.
1) (0.5 points) Quelle propriété du logarithme vous permet de proposer β b = ln(bb) comme estimateur
convergent de β = ln(b) ?
P P
b = ln bb →
Le logarithme est continu, donc bb → b implique β β = ln(b).
2) (1.5 point) Montrer que βb est asymptotiquement normal et calculer sa variance asymptotique.
Le logarithme est continûment différentiable sur R∗+ , on peut donc appliquer la “méthode delta”:
√ ³ ´
L ¡ ¢
N bb − b → N 0, σ 2
implique
√ ³ ´
L ¡ ¢
N βb−β → N 0, ω 2
avec µ ¶2
d ln(b) σ2
ω2 = σ2 = .
db b2
Pour retrouver cette formule, on se rappelle du développement limité:
d ln(b) ³b ´
ln bb ' ln b + b−b
db
d’où µ ¶
√ ³ ´ d ln(b) √ ³ ´
L ¡ ¢
N βb−β ' N bb − b → N 0, ω 2 .
db
6
et : ¯
¯ 1 si y ∗ ≤ 0
yi = ¯¯ i
0 si yi∗ > 0
(ATTENTION au sens des inégalités!)
On dispose de 100 observation (yi , xi ) décrites dans le tableau de contingence suivant:
y
0 1
0 26 26
x
1 32 16
1) (1 points) Calculer Pr {yi = 1|xi = 1}, Pr {yi = 1|xi = 0}, Pr {yi = 0|xi = 1} et Pr {yi = 0|xi = 0}.
On note Φ la fonction de répartition de la loi normale N (0, 1) et ϕ la densité.
Pr {yi = 1|xi = 1} = Pr {yi∗ ≤ 0|xi = 1} = Φ (−a − bxi ) = Φ (−a − b) = 1 − Φ (a + b) .
Pr {yi = 0|xi = 1} = 1 − Pr {yi = 1|xi = 1} = Φ (a + b) .
Pr {yi = 1|xi = 0} = Pr {yi∗ ≤ 0|xi = 0} = Φ (−a − bxi ) = Φ (−a) = 1 − Φ (a) .
Pr {yi = 0|xi = 0} = 1 − Pr {yi = 1|xi = 0} = Φ (a) .
2) (1.5 points) En déduire la formule de la log-vraisemblance de l’échantillon.
La log-vraisemblance s’écrit:
X
LN (a, b) = yi ln Pr {yi = 1|xi } + (1 − yi ) ln Pr {yi = 0|xi }
i
= 16 ln [Pr {yi = 1|xi = 1}] + 32 ln [Pr {yi = 0|xi = 1}]
+26 ln [Pr {yi = 1|xi = 0}] + 26 ln [Pr {yi = 0|xi = 0}]
= 16 ln [1 − Φ (a + b)] + 32 ln Φ (a + b) + 26 ln [1 − Φ (a)] + 26 ln Φ (a) .
Les estimateurs α b sont indépendants car construits à partir d’échantillons disjoints (les i tq xi = 1 pour
b et β
α et les i tq xi = 0 pour β).
On a de plus en général:
µ ¶ µ ¶ µ ¶
a Φ−1 (α) α
= = g
b Φ−1 (β) − Φ−1 (α) β
7
La méthode delta s’applique encore:
µ ¶ µ ¶µ ¶0
b
a ∂g b
α ∂g
Vas b = Vas b
b ∂ (α, β) β ∂ (α, β)
à ! µ ¶Ã !0
1 1
−1
ϕ◦Φ (α) 0 b
α ϕ(α) 0
= 1 1 Vas b 1 1
− ϕ◦Φ−1 (α) ϕ◦Φ−1 (β) β − ϕ(α) ϕ(β)
à ! µ ¶Ã 1 !
1 1
ϕ(0) 0 b
α ϕ(0) − ϕ(0)
= 1 1 Vas b 1
− ϕ(0) ϕ◦Φ−1 (2/3) β 0 ϕ◦Φ−1 (2/3)
µ 1
¶ µ 1
¶ µ 1 1
¶
.3989 0 208 0 .3989 − .3989
'
− 1 1
0 1
0 1
µ .3989 .3636 ¶ 216 .3636
3.02 −3.02
' × 10−2 .
−3.02 6.52