Vous êtes sur la page 1sur 12

Abonnez-vous à DeepL Pro pour éditer ce document.

Visitez www.DeepL.com/pro pour en savoir plus.

Nous proposons ici une brève description de l'estimateur de la méthode généralisée des
moments (GMM), en accordant une attention particulière aux questions de l'estimation de la
matrice de pondération et du calcul de la covariance des coefficients. Notre traitement est
parallèle à l'excellente discussion de Hayashi (2000). Les personnes intéressées par des détails
supplémentaires sont invitées à consulter l'une des nombreuses études complètes sur le sujet.
L'estimateur GMM
Le point de départ de l'estimation GMM est l'hypothèse selon laquelle il existe un ensemble
de conditions de moment que les paramètres dimensionnels d'intérêt doivent satisfaire. Ces
conditions de moment peuvent être assez générales, et souvent un modèle particulier a plus de
conditions de moment spécifiées que de paramètres à estimer. Ainsi, le vecteur des conditions
de moment peut être écrit comme suit :

Dans EViews (comme dans la plupart des applications économétriques), nous limitons notre
attention aux conditions de moment qui peuvent être écrites comme une condition
d'orthogonalité entre les résidus d'une équation, , et un ensemble d'instruments :

L'estimateur traditionnel de la méthode des moments est défini en remplaçant les conditions
de moment dans l'équation (23.24) par leur analogue d'échantillon :

et trouver le vecteur de paramètres qui résout cet ensemble d'équations.


Lorsqu'il y a plus de conditions de moment que de paramètres (), le système d'équations
donné dans l'équation (23.26) peut ne pas avoir de solution exacte. On dit d'un tel système
qu'il est suridentifié. Bien que nous ne puissions généralement pas trouver une solution exacte
pour un système suridentifié, nous pouvons reformuler le problème en choisissant a de
manière à ce que le moment d'échantillon soit aussi "proche" de zéro que possible, où
"proche" est défini en utilisant la forme quadratique :

comme mesure de la distance. La matrice éventuellement aléatoire, symétrique et à définition


positive est appelée matrice de pondération car elle sert à pondérer les diverses conditions de
moment dans la construction de la mesure de distance. L'estimation de la méthode des
moments généralisée est définie comme celle qui minimise l'équation (23.27).
Comme pour les autres estimateurs à variable instrumentale, pour que l'estimateur GMM soit
identifié, il doit y avoir au moins autant d'instruments que de paramètres dans le modèle. Dans
les modèles où il y a le même nombre d'instruments que de paramètres, la valeur de la
fonction objectif optimisée est nulle. S'il y a plus d'instruments que de paramètres, la valeur
de la fonction objectif optimisée sera supérieure à zéro. En fait, la valeur de la fonction
objectif, appelée statistique J, peut être utilisée comme un test de suridentification des
conditions de moment.
Sous des conditions de régularité appropriées, l'estimateur GMM est cohérent et
asymptotiquement normalement distribué,

La matrice de covariance asymptotique de est donnée par

pour

où est à la fois la variance asymptotique et la matrice de covariance à long terme du processus


vectoriel.
Dans le cas principal où les sont les résidus d'une spécification linéaire de sorte que , la
fonction objective du GMM est donnée par

et l'estimateur GMM donne la solution unique . La matrice de covariance asymptotique est


donnée par l'équation (23.27), avec

Il ressort de cette formation que l'estimation des moindres carrés en deux étapes et l'estimation
des moindres carrés ordinaires sont toutes deux des cas particuliers de l'estimation GMM.
L'objectif des moindres carrés à deux étapes est simplement la fonction objectif du GMM
multipliée par la matrice de pondération . La méthode des moindres carrés ordinaires est
équivalente à l'objectif des moindres carrés à deux étapes, les instruments étant égaux aux
dérivées de , qui, dans le cas linéaire, sont les régresseurs.
Choix de la matrice de pondération
Un aspect important de la spécification d'un estimateur GMM est le choix de la matrice de
pondération, . Alors que toute séquence de matrices de pondération symétriques définies
positives donnera une estimation cohérente de , l'équation (23.29) implique que le choix de
affecte la variance asymptotique de l'estimateur GMM. Hansen (1992) montre qu'un
estimateur GMM asymptotiquement efficace, ou optimal, de peut être obtenu en choisissant de
manière à ce qu'il converge vers l'inverse de la matrice de covariance à long terme :

Intuitivement, ce résultat découle du fait que nous voulons naturellement attribuer moins de
poids aux conditions de moment qui sont mesurées de manière imprécise. Pour un estimateur
GMM avec une matrice de pondération optimale, la matrice de covariance asymptotique de
est donnée par

La mise en œuvre de l'estimation GMM optimale exige que nous obtenions des estimations de
. EViews propose quatre méthodes de base pour spécifier une matrice de pondération :
Moindres carrés à deux étapes : la matrice de pondération des moindres carrés à deux étapes est
donnée par où est un estimateur de la variance résiduelle basé sur une estimation initiale de .
L'estimateur de la variance sera ou l'équivalent non corrigé de la DD, en fonction de vos
paramètres pour le calcul du coefficient de covariance.
Blanc : la matrice de pondération de White est un estimateur cohérent avec l'hétéroscédasticité de
la matrice de covariance à long terme de basé sur une estimation initiale de .
HAC - Newey-West : la matrice de pondération HAC est un estimateur cohérent en termes
d'hétéroscédasticité et d'autocorrélation de la matrice de covariance à long terme de basé sur
une estimation initiale de .
Spécifié par l'utilisateur : cette méthode vous permet de fournir votre propre matrice de
pondération (spécifiée comme une matrice sym contenant une estimation mise à l'échelle de la
covariance à long terme).
Pour une discussion connexe des estimateurs d'erreurs standard robustes de White et de HAC
- Newey West, voir "Erreurs standard robustes".
Itération de la matrice de pondération
Comme indiqué ci-dessus, les estimateurs de la matrice de pondération de White et de HAC
nécessitent une estimation initiale cohérente de . (Techniquement, la matrice de pondération
des moindres carrés à deux étapes nécessite également une estimation initiale de , bien que
ces valeurs ne soient pas pertinentes puisque le résultat n'affecte pas les estimations
résultantes).
Par conséquent, le calcul de l'estimateur GMM optimal avec des poids de White ou de HAC
utilise souvent une variante de la procédure suivante :
1. calculer les estimations initiales des paramètres en utilisant TSLS
2. utiliser les estimations pour former les résidus
Formulez une estimation de la matrice de covariance à long terme de , , et utilisez-la pour calculer
la matrice de pondération optimale.
4.minimiser la fonction objective du GMM avec la matrice de pondération.

par rapport à pour former des estimations de paramètres mises à jour.


Nous pouvons généraliser cette procédure en répétant les étapes 2 à 4 en utilisant comme
estimations initiales des paramètres, produisant des estimations actualisées . Cette itération de
la matrice de pondération et de l'estimation des coefficients peut être effectuée un nombre fixe
de fois, ou jusqu'à ce que les coefficients convergent avec un degré de précision suffisant.
Une approche alternative due à Hansen, Heaton et Yaron (1996) note que puisque la matrice
de pondération optimale dépend des paramètres, nous pouvons réécrire la fonction objective
du GMM comme suit

où la matrice de pondération est une fonction directe de l'estimateur. L'estimateur qui


minimise l'équation (23.36) par rapport à a été appelé estimateur à mise à jour continue
(CUE).
Mise à jour des poids par équation linéaire
Pour les équations dont les coefficients sont linéaires, EViews propose trois options de mise à
jour de la matrice de pondération : la méthode itérative à N étapes, la méthode itérative
jusqu'à convergence et la méthode de mise à jour continue.
Comme son nom l'indique, la méthode itérative à N étapes répète les étapes 2 à 5 ci-dessus
plusieurs fois, tandis que la méthode itérative jusqu'à convergence répète les étapes jusqu'à
ce que les estimations des paramètres convergent. La méthode de mise à jour continue est
basée sur l'équation (23.36).
De manière quelque peu déroutante, la méthode itérative à N étapes avec une seule étape de
poids est parfois appelée dans la littérature l'estimateur GMM à 2 étapes, la première étape
étant définie comme l'estimation TSLS initiale. EViews considère cet estimateur comme un
estimateur à une étape, car il n'y a qu'un seul calcul de la matrice de poids optimale.
Mise à jour des poids des équations non linéaires
Pour les équations dont les coefficients ne sont pas linéaires, EViews propose cinq
algorithmes de mise à jour différents : Itératif séquentiel à N étapes, itération séquentielle
jusqu'à convergence, itération simultanée jusqu'à convergence, pondération à 1 étape
plus 1 itération, et mise à jour continue. Les méthodes pour les spécifications non linéaires
sont généralement similaires à leurs homologues linéaires, avec des différences centrées sur le
fait que les estimations des paramètres pour une matrice de pondération donnée à l'étape 4
doivent maintenant être calculées en utilisant un optimiseur non linéaire, qui implique lui-
même une itération.
Toutes les méthodes de mise à jour de la matrice de pondération non linéaire commencent par
être obtenues à partir d'une estimation des moindres carrés en deux étapes dans laquelle les
coefficients ont été itérés jusqu'à convergence.
La procédure itérative séquentielle à N étapes est analogue à la procédure itérative linéaire
à N étapes décrite ci-dessus, mais avec l'optimisation non linéaire des paramètres à chaque
étape 4 itérée jusqu'à convergence. De même, la méthode d'itération séquentielle jusqu'à
convergence suit la même approche que la méthode d'itération séquentielle à N étapes, avec
une optimisation non linéaire complète des paramètres à chaque étape 4.
La méthode d'itération simultanée jusqu'à convergence diffère de la méthode d'itération
séquentielle jusqu'à convergence en ce sens qu'une seule itération de l'optimiseur non
linéaire, plutôt qu'une itération jusqu'à convergence, est effectuée à l'étape 4. Les itérations
sont donc simultanées dans le sens où chaque itération de poids est couplée à une itération de
coefficient.
L'itération 1-Step Weight Plus 1 effectue une seule itération de poids après les estimations
initiales des moindres carrés à deux étages, puis une seule itération de l'optimiseur non
linéaire sur la base de la matrice de poids mise à jour.
L'approche de la mise à jour continue est à nouveau basée sur l'équation (23.36).
Calcul du coefficient de covariance
Après avoir estimé les coefficients du modèle, il ne reste plus qu'à spécifier une méthode de
calcul de la matrice de covariance des coefficients. Nous allons considérer deux approches de
base, l'une basée sur une famille d'estimateurs de la covariance asymptotique donnée dans
l'équation (23.29), et une seconde, due à Windmeijer (2000, 2005), qui emploie un estimateur
corrigé du biais qui tient compte de la variation des estimations initiales des paramètres.
Estimateurs conventionnels
En utilisant l'équation (23.29) et en insérant les estimateurs et les moments d'échantillon, nous
obtenons un estimateur pour la matrice de covariance asymptotique de :

Remarquez que l'estimateur dépend à la fois des estimations finales des coefficients et des
utilisées pour former la matrice de pondération de l'estimation, ainsi que d'une estimation
supplémentaire de la matrice de covariance à long terme . Pour les méthodes de mise à jour
des poids qui itèrent les poids jusqu'à ce que les coefficients convergent, les deux ensembles
de coefficients seront identiques.
EViews propose un certain nombre de spécifications de covariance différentes de cette forme,
Estimation par défaut, Estimation mise à jour, Two-stage Least Squares, White, HAC
(Newey-West), Windmeijer, Cluster-robust, et User defined, chacune correspondant à un
estimateur différent pour .
Parmi celles-ci, l'estimation par défaut et la mise à jour de l'estimation sont les méthodes
de covariance des coefficients les plus couramment utilisées. Ces deux méthodes effectuent le
calcul en utilisant la spécification de la matrice de pondération de l'estimation (c'est-à-dire
que si White a été choisie comme matrice de pondération de l'estimation, White sera
également utilisée pour l'estimation).
L'estimation par défaut utilise l'estimation précédemment calculée de la matrice de covariance à
long terme pour former . La matrice de covariance asymptotique se simplifie
considérablement dans ce cas, de sorte que .
L'estimation mise à jour effectue une étape supplémentaire 3 dans la procédure d'estimation
itérative, en calculant une estimation de la covariance à long terme à l'aide des estimations
finales des coefficients pour obtenir . Comme cette méthode repose sur la procédure
d'estimation itérative, elle n'est pas disponible pour les équations estimées par CUE.
Dans les cas où les matrices de pondération sont itérées jusqu'à convergence, ces deux
approches donneront des résultats identiques.
Les autres spécifications calculent les estimations des paramètres finaux en utilisant la
méthode de covariance à long terme indiquée. Vous pouvez utiliser ces méthodes pour
estimer votre équation en utilisant un ensemble d'hypothèses pour la matrice de pondération ,
tandis que vous calculez la covariance des coefficients en utilisant un autre ensemble
d'hypothèses pour .
La principale application de cette approche de pondération mixte est le calcul d'erreurs
standard robustes. Supposons, par exemple, que vous souhaitiez estimer votre équation à
l'aide de pondérations TSLS, mais avec des erreurs standard robustes. La sélection de Two-
stage least squares (moindres carrés à deux niveaux) pour la matrice de pondération de
l'estimation et de White pour la méthode de calcul des covariances demandera à EViews de
calculer des estimations TSLS avec des covariances de coefficient et des erreurs standard de
White. De même, l'estimation avec des poids d'estimation des moindres carrés à deux
étapes et des poids de covariance HAC - Newey-West produit des estimations TSLS avec
des covariances de coefficient et des erreurs standard HAC.
Notez qu'il est possible de choisir des combinaisons de poids d'estimation et de covariance
qui, bien que raisonnables, ne sont pas généralement employées. Vous pouvez, par exemple,
choisir d'utiliser des poids d'estimation de White avec des poids de covariance HAC, ou peut-
être des poids d'estimation HAC en utilisant un ensemble d'options HAC et des poids de
covariance HAC avec un ensemble d'options différent. Il est également possible, bien que cela
ne soit pas recommandé, de construire des paires plus impaires, comme des poids d'estimation
HAC avec des poids de covariance TSLS.
Estimateur Windmeijer
Diverses études de Monte Carlo (p. ex. Arellano et Bond, 1991) ont montré que les
estimateurs de covariance ci-dessus peuvent produire des erreurs types biaisées vers le bas
dans les petits échantillons. Windmeijer (2000, 2005) observe qu'une partie de ce biais vers le
bas est due à la variation supplémentaire causée par l'estimation initiale de la matrice de poids
qui est elle-même basée sur des estimations cohérentes des paramètres de l'équation.
En suivant cette idée, il est possible de calculer des estimations d'erreur standard corrigées du
biais qui prennent en compte la variation des estimations initiales des paramètres. Windmeijer
fournit deux formes d'erreurs standard corrigées du biais : l'une pour les modèles GMM
estimés selon une procédure en une étape (une matrice de pondération GMM optimale), et
l'autre pour les modèles GMM estimés à l'aide d'une procédure d'itération jusqu'à
convergence.
La matrice de variance-covariance corrigée de Windmeijer de l'estimateur à une étape est
donnée par :

où :
l'estimateur de covariance par défaut de l'estimation
la matrice de pondération mise à jour (aux estimations finales des paramètres)
l'estimateur de covariance mis à jour de l'estimation où
la matrice de pondération de l'estimation (aux estimations initiales des paramètres)
la matrice de pondération initiale

est une matrice dont la troisième colonne est donnée par :


La matrice de variance-covariance de Windmeijer de l'itération à la convergence est donnée
par :

où :
l'estimateur de covariance par défaut de l'estimation
la matrice de pondération GMM à l'estimation convergente des paramètres
GMM pondéré
Les pondérations peuvent également être utilisées dans l'estimation GMM. La fonction
objective pour le GMM pondéré est,

où est la covariance à long terme de où nous utilisons maintenant pour indiquer la matrice
diagonale avec les poids d'observation .
Les erreurs standard rapportées par défaut sont basées sur l'estimation de la matrice de
covariance donnée par :

où .
Estimation par GMM dans EViews
Pour estimer une équation par GMM, créez un nouvel objet équation en sélectionnant
Object/New Object.../Equation, ou appuyez sur le bouton Estimate dans la barre d'outils
d'une équation existante. Dans la boîte de dialogue Equation Specification, choisissez
Estimation Method : GMM. La boîte de dialogue de spécification d'estimation change
comme illustré ci-dessous.
Pour obtenir des estimations GMM dans EViews, vous devez écrire la condition de moment
comme une condition d'orthogonalité entre une expression comprenant les paramètres et un
ensemble de variables instrumentales. Il existe deux façons d'écrire la condition
d'orthogonalité : avec et sans variable dépendante.
Si vous spécifiez l'équation soit en énumérant les noms des variables, soit par une expression
avec un signe égal, EViews interprétera la condition de moment comme une condition
d'orthogonalité entre les instruments et les résidus définis par l'équation. Si vous spécifiez
l'équation par une expression sans signe égal, EViews orthogonalisera cette expression à
l'ensemble des instruments.
Vous devez également indiquer les noms des instruments dans la zone d'édition Liste des
instruments. Pour que l'estimateur GMM soit identifié, il doit y avoir au moins autant de
variables instrumentales que de paramètres à estimer. EViews ajoutera, par défaut, une
constante à la liste des instruments. Si vous ne souhaitez pas qu'une constante soit ajoutée à la
liste des instruments, la case à cocher Inclure une constante doit être décochée.
Par exemple, si vous tapez ,
Equation spec : y c x
Liste des instruments : c z w
les conditions d'orthogonalité sont données par :

Si vous entrez la spécification,


Equation spec : c(1)*log(y)+x^c(2)
Liste des instruments : c z z(-1)
les conditions d'orthogonalité sont :

Sous la zone de liste Instrument, il y a deux menus déroulants qui vous permettent de définir
la matrice de pondération de l'estimation et l'actualisation du poids.
La liste déroulante Matrice de poids d'estimation spécifie le type de matrice de pondération
GMM qui sera utilisé pendant l'estimation. Vous avez le choix entre les matrices suivantes :
Two-stage least squares, White, HAC (Newey-West) et User-specified. Si vous
sélectionnez HAC (Newey West), un bouton apparaît pour vous permettre de définir les
options de calcul de la matrice de pondération. Si vous sélectionnez Cluster-robust, vous
serez invité à choisir une série de clusters. Si vous sélectionnez User-specified, vous devez
entrer le nom d'une matrice symétrique dans le fichier de travail contenant une estimation de
la matrice de pondération (covariance à long terme) mise à l'échelle par le nombre
d'observations.) Notez que la matrice doit avoir autant de colonnes que le nombre
d'instruments spécifiés.
La matrice peut être récupérée à partir de toute équation estimée par GMM à l'aide du
membre de données @instwgt (voir "Membres de données d'équation"). @instwgt renvoie qui
est un estimateur implicite de la covariance à long terme mis à l'échelle par le nombre
d'observations.
Par exemple, pour les équations GMM estimées à l'aide de la matrice de pondération des
moindres carrés à deux étapes, contiendra (où l'estimateur de la variance utilisera ou
l'équivalent non corrigé de la d.f., selon vos options pour le calcul de la covariance des
coefficients). Les équations estimées avec une matrice de pondération de White donneront .
Stocker la matrice de pondération de l'utilisateur d'une équation, et l'utiliser pendant
l'estimation d'une seconde équation peut s'avérer utile lors du calcul de diagnostics qui
impliquent la comparaison des statistiques J entre deux équations différentes.
Le menu déroulant Mise à jour des poids vous permet de définir le type d'algorithme
d'estimation. Pour les équations linéaires, vous avez le choix entre l'itération à N étapes,
l'itération jusqu'à convergence et la mise à jour continue. Pour les équations non linéaires,
vous avez le choix entre l'itération séquentielle à N étapes, l'itération séquentielle jusqu'à
convergence, l'itération simultanée jusqu'à convergence, la pondération à 1 étape plus 1
itération et la mise à jour continue.
Pour illustrer l'estimation des modèles GMM dans EViews, nous estimons le même modèle de
Klein que celui présenté dans " Estimating LIML and K-Class in EViews ", tel que reproduit
par Greene 2008 (p. 385). Nous estimons à nouveau l'équation de consommation, où la
consommation (CONS) est régressée sur une constante, les bénéfices privés (Y), les bénéfices
privés retardés (Y(-1)) et les salaires (W) en utilisant les données de "Klein.WF1". Les
instruments sont une constante, les bénéfices des sociétés décalés (P(-1)), le stock de capital
décalé (K(-1)), le PNB décalé (X(-1)), une tendance temporelle (TM), les salaires du
gouvernement (WG), les dépenses du gouvernement (G) et les impôts (T). Greene utilise la
matrice de pondération de White, et une procédure de mise à jour itérative à N étapes, avec
N fixé à 2. Les résultats de cette estimation sont présentés ci-dessous :

L'en-tête de la sortie EViews présente un résumé du type d'estimation et des paramètres, ainsi
que la spécification de l'instrument. Notez que dans ce cas, l'en-tête indique que l'équation
était linéaire, avec une mise à jour de pondération itérative en deux étapes. Il montre
également que le type de matrice de pondération était White, et que cette matrice de
pondération a été utilisée pour la matrice de covariance, sans ajustement du degré de liberté.
Après l'en-tête, les estimations des coefficients standard, les erreurs standard, les statistiques t
et les valeurs p associées sont affichées. En dessous de ces informations sont affichées les
statistiques récapitulatives. Outre les statistiques standard indiquées dans une équation, le rang
de l'instrument (le nombre d'instruments linéairement indépendants utilisés dans l'estimation)
est également indiqué (8 dans ce cas), et la statistique J et la valeur p associée sont également
indiquées.
Comme deuxième exemple, nous estimons également l'équation pour l'investissement.
L'investissement (I) est régressé sur une constante, les bénéfices privés (Y), les bénéfices
privés décalés (Y(-1)) et le stock de capital décalé (K-1)). Les instruments sont à nouveau une
constante, les bénéfices des sociétés décalés (P(-1)), le stock de capital décalé (K(-1)), le PNB
décalé (X(-1)), une tendance temporelle (TM), les salaires du gouvernement (WG), les
dépenses du gouvernement (G) et les impôts (T).
Contrairement à Greene, nous utiliserons une matrice de pondération HAC, avec pré-
blanchiment (fixé à 1 lag), un noyau de Tukey-Hanning avec sélection automatique de la
largeur de bande d'Andrews. Nous utiliserons également la procédure de mise à jour de la
pondération à actualisation continue. Le résultat de cette équation est présenté ci-dessous :

Il convient de noter que les informations d'en-tête pour cette équation sont légèrement
différentes de celles de l'estimation précédente. L'inclusion de la matrice de pondération HAC
donne des informations sur le choix du préblanchiment (lags = 1), et sur la spécification du
noyau, y compris la largeur de bande qui a été choisie par la procédure d'Andrews (2.1803).
Comme la procédure CUE est utilisée, le nombre d'itérations d'optimisation qui ont eu lieu est
indiqué (39).

Vous aimerez peut-être aussi