Vous êtes sur la page 1sur 4

La metodología del profesor Hendry

I El proceso AER
Hay una diferencia en la enseñanza de la econometría entre Gran Bretaña y los Estados Unidos. El
documento busca dar una explicación simple del enfoque británico de la econometría. Para tal
propósito se levanta un hombre de paja cuyo nombre será el de regresión económica promedio (AER
por sus siglas en ingles), cuyo propósito será contraponerlo a las ideas de Hendry. ¿Cuáles son los
problemas de los econometristas? Él debe de preocuparse por la patología de los estimadores
(correlación serial, multicolinealidad, heteroscedasticidad, simultaneidad y etcétera. Los problemas
se manifiestan en trabajos aplicados en términos de estadísticos Durbin-Watson (DW) bajos, signos
incorrectos, coeficientes insignificantes y así. El término “incorrecto” indica agregar o restar
variables, cambiar la definición de variables, etc.
Uno de los principales problemas es que dos trabajos con el mismo conjunto de datos pueden
ofrecer teorías completamente opuestas, la pregunta es, ¿el consumidor a quien debe de creer? El
problema con el enfoque AER es que estamos utilizando la econometría para ilustrar teorías que
creemos independientes. La alternativa podría ser usar la econometría para descubrir que puntos
de vista de la economía son sostenibles y probar el punto de vista rival.
II. El proceso generado de datos y modelos
El enfoque de Hendry se basa en el concepto de proceso generador de datos (DGP), esto no es más
que la probabilidad conjunta de todos los datos de la muestra. La función de densidad conjunta es
no controversial, pero es tan general que es inútil. El modelado econométrico consiste en una
simplificación de este DGP. El econometrista lo hará de cuatro maneras usando la teoría económica
para los tres primeros (marginalización el DGP, condicionando las variables y representaciones
simples) y la teoría econométrica para un cuarto (reemplazando valores desconocidos por valores
estimados). Las economías son organizaciones complejas y esto se refleja en la complejidad de la
representación del DGP, por lo tanto, la cuestión se convierte en una cuestión de adecuación más
que de validez. Henry propone una caracterización de datos condicional tentativamente adecuada
o lo que llamamos un modelo que sea congruente con toda la evidencia. La respuesta AER a una
ecuación mal ajustada es agregar variables en un intento de arreglar el modelo. Podemos
representar este enfoque como de lo simple a lo general en contraposición de Hendry que aboga
por un enfoque de lo general a lo simple. La dificultad con este enfoque es que si dos investigadores
parten de diferentes hipótesis no hay razón para suponer que ellos convergerán en la misma
ecuación final e incluso con el mismo punto de partida. Al pasar de los general a lo simple, limitamos
nuestra atención a las especificaciones que son aceptables, utilizando la clásica F-test, como
simplificación de la especificación general. El procedimiento AER está abierto a la objeción de que
dado que la regresión publicada ha sido aceptada en parte porque sus coeficientes tienen los signos
correctos y son estadísticamente significativos, estos coeficientes significativos no pueden tomarse
como evidencia a favor o en contra de las hipótesis bajo investigación. Leamer sostiene que
debemos de usar el axioma de la correcta especificación: la validez o no de una particular
especificación no puede depender la estrategia de investigación que generó la especificación.
III. Criterios de aceptación del modelo
Hendry y Richard dan seis criterios para la selección del modelo: i) deben ser datos admisibles; ii)
deben de ser consistentes con la teoría; iii) los modelos satisfactorios deben tener regresores que
sean débilmente exógenos (la exogeneidad débil es suficiente para probar hipótesis, pero para
pronosticar uno en general se requiere exogeneidad fuerte, la cual es una exogeneidad débil más
ausencia de feedback); iv) los modelos satisfactorios deben mostrar constancia de parámetros; v)
un modelo satisfactorio debe ser coherente; y vi) Un modelo satisfactorio debe abarcar una amplia
gama de modelos rivales. Un modelo puede incluirse para abarcar un segundo modelo si puede
explicar los resultados del segundo modelo. Un buen modelo no solo debe explicar los datos, sino
que también debe explicar tanto los éxitos como los fracasos o los modelos rivales para tener en
cuenta los mismos datos.
Se dice que un modelo es congruente con la evidencia cuando satisface estos seis criterios. Es
interesante notar que el criterio de bondad de ajuste propio de la metodología AER este ausente en
estos seis, esto es porque en la metodología de Hendry la bondad de ajuste no es un criterio explicito
para aceptar un modelo como una buena representación de DGP.

IV. Diseño del modelo y descubrimiento del modelo.


El descubrimiento científico es necesariamente un proceso innovador e imaginativo y no se puede
automatizar. Sin embargo, la misma visión científica puede expresarse de varias maneras diferentes;
y habrá un elemento de elección en cuanto a cómo se incorpora una hipótesis particular en un
modelo econométrico. Este es el tema del diseño del modelo. El problema del diseño del modelo es
la elección de los elementos a incorporar de acuerdo a una hipótesis. Los modelos econométricos
se construyen para servir a propósitos particulares. La estructura econométrica descansa en lo
económico y la teoría econométrica. Los modelos econométricos deberían ser puesto a prueba
antes de ser empleados en el pronóstico o el análisis de políticas. En el proceso de diseño
econométrico, un problema vital es que el concepto de exogeneidad que depende del uso que se le
dé al modelo.
Si uno está involucrado en el pronóstico o el análisis de políticas, entonces el horizonte de tiempo
será importante.

Un segundo criterio que Henry aborda es la robustez. La robustez requiere que las estimaciones de
los parámetros, y por tanto el pronóstico y las prescripciones de política, son inafectadas si, en el
futuro, el mundo lanzara una diferente matriz de covarianza de datos. Esto se ve en los libros dentro
del capítulo de multicolinealidad. La colinealidad se ve a menudo como un problema relacionado
con los datos. Aun así, el econometrista es libre de definir su matriz regresora de X de cualquier
forma que él quiera en relación con los datos. La colinealidad refleja un mal diseño experimental y
en econometría de series de tiempo necesariamente no experimentales, la colinialidad implica una
falla en explorar eficientemente los datos disponibles. La ortogonalidad resultante del conjunto de
variables regresivas permite extraer inferencias válidas de parámetros estimados individuales
tomados de forma aislada. En relación con la ortogonalidad, podemos encontrar transformaciones
de datos que darán una completa ortogonalidad, pero no es garantía que los coeficientes sean
interpretables, y en general no lo será. Esto es importante por dos razones, la primera es que a pesar
de que los coeficientes de forma reducida puedan ser compatibles con la teoría, es difícil saber si
esto es verdad para un conjunto particular de coeficientes de forma reducida. Segundo, los
parámetros algunas veces cambian, y en efecto, en un contexto político, la política puede consistir
en parámetros cambiantes, con el propósito de aprovechar nuestro conocimiento de estos cambios,
debemos de parametrizar en términos los parámetros teóricos.

Un tercer criterio que adopta Hendry es el de parsimonia, la especificación parsimoniosa es la


aplicación econométrica de la navaja de Occam. Pero ¿Por qué la simplicidad debería ser una
característica deseable de un modelo congruente? Hay dos razones y ambas se relacionan con la
caracterización de los modelos econométricos como provisionalmente adecuados. En un nivel
practico la consideración de los grados de libertad obligan a la simplicidad. Segundo, el intelecto
humano esta limitado para comprender fenómenos complejos, la complejidad permite a algunos
investigadores defender sus opiniones creando un cinturón protector de hipótesis auxiliares, estas
pueden ser correctas, pero es plausible pensar que estas protejan a los intereses del investigador.
Por lo que la parsimonia obliga a la honestidad científica.

Por lo tanto, el modelador econométrico debe decidir qué es importante en relación con (i) la teoría,
(ii) las características de su muestra y (iii) el uso que se le dará al modelo. El modelo resultante debe
especificarse, de acuerdo con Hendry, en términos de un conjunto de variables regresivas
ortogonales cercanas, satisfacer suposiciones de exogeneidad suficientemente sólidas para los usos
a los que se aplicará el modelo, y tener coeficientes que son constantes e interpretables en términos
de teoría económica.

V. ¿Los modelos aceptables tienen una estructura en común?

Hendry ha adoptado sistemáticamente una especificación que se conoce como el modelo de


corrección de errores (ECM). La parametrización ECM puede ser útil porque la casi ortogonalidad de
los regresores facilita la representación parsimoniosa de los retrasos distribuidos generales. Esto se
debe a que las estadísticas t de las variables en la ecuación de ECM no restringida proporcionan una
buena guía sobre los efectos de la omisión de estas variables en una ecuación simplificada. Pero si
esto fuera todo, el ECM solo definiría una estrategia de regresión útil, como se discutió en la sección
anterior. En la estrategia ECM, se permite al investigador eliminar y restringir la influencia de las
variables diferenciadas a voluntad, pero no puede eliminar los términos de nivel rezagado ya que
son estos términos los que definen la solución de equilibrio del modelo.

La premisa del enfoque de ECM para el modelado econométrico aplicado es que las relaciones de
proporcionalidad a largo plazo de este tipo son características que debemos esperar. Si modelamos
completamente en términos de variables diferenciadas no podemos decir nada sobre relaciones a
largo plazo; y es probable que, si existen tales relaciones, nuestros modelos pronosticarán muy mal
a medida que se amplíe el horizonte de pronóstico. La afirmación de que generalmente existen
relaciones a largo plazo entre las variables puede ahora reconocerse como la afirmación de que las
variables económicas son cointegrales.

Se dice que una variable x es I(n) (integral de orden n) si su n diferencia es débilmente estacionaria
(es decir, si su media y varianza son constantes a lo largo del tiempo). En general, siempre que
trabajemos en logaritmos, las variables económicas son I(1) o I(0). Si dos variables x y y son ambas
I(1), entonces, en general, cualquier combinación de estas variables, digamos x-αy, también será
I(1). Sin embargo, puede existir una singularidad, digamos α*, tal que x - α* y es I(0). Si tal
singularidad existe, x e y son cointegrales. Esto implica que, a largo plazo, aunque x e y pueden ser
arbitrariamente altas o bajas, deben ser proporcionales entre sí con el factor de proporcionalidad
α*.
Además, se puede argumentar que gran parte de la teoría económica consiste en resultados
estáticos comparativos que permiten la comparación de posiciones o caminos de equilibrio
alternativos, y que tienen poca implicación para el ajuste dinámico. Desde este punto de vista, las
restricciones deben imponerse normalmente en las soluciones de equilibrio de las ecuaciones
econométricas, y esto se ve facilitado por la formulación de ECM.
El atractivo de la formulación ECM es que combina flexibilidad en la especificación dinámica con
propiedades (aparentemente) deseables a largo plazo. Engle y Granger han demostrado que, si dos
o más variables son cointegrales, debe existir un ECM que vincule estas variables. El trabajo reciente
sobre métodos para probar las raíces unitarias nos ha llevado a la posición en la que podemos probar
la cointegración antes de embarcarnos en el ejercicio de modelado. La generalidad del ECM se
aclarará una vez que tales pruebas se realicen de forma rutinaria. Esta cuenta del ECM deja abiertos
los mecanismos económicos que generan la cointegración. Una forma estándar de obtener modelos
de este tipo es invocar los costos de ajuste.

VI. CONCLUSIONES

Las opiniones de David Hendry sobre la econometría pueden resumirse de la siguiente manera:
1) El proceso de generación de datos que subyace a un conjunto de datos nunca se conoce. La
econometría aplicada es, por lo tanto, en parte un proceso de descubrimiento, y se debe suponer
que todos los modelos propuestos están mal especificados.
2) Los economistas aplicados deben tratar de proporcionar modelos estructurales que puedan
tomarse como aproximaciones al proceso de generación de datos desconocidos.
3) Las restricciones derivadas de la teoría económica se relacionarán típicamente con las soluciones
de equilibrio para estos modelos, en lugar de con la dinámica a corto plazo. Dichas restricciones se
pueden imponer y probar con frecuencia dentro de un marco de corrección de errores. La
generalidad de este modelo se deriva del hecho de que muchas series económicas importantes son
cointegrales.
4) Cualquier modelo propuesto debe ser probado dentro y fuera de la muestra. Uno debe preguntar
si el modelo caracteriza adecuadamente los datos, y también si esta caracterización es superior a la
proporcionada por las especificaciones rivales.
5) La especificación de la ecuación debe realizarse probando simplificaciones alternativas contra
una hipótesis común de anidamiento. Las pruebas pueden llevarse a cabo utilizando procedimientos
estadísticos clásicos estándar o generalizaciones directas de estos procedimientos.

En gran medida, estos puntos de vista son compartidos con otros economistas británicos
practicantes, y son parte de una tradición que se originó en la London School of Economics en los
años 1950 y 1960. En los Estados Unidos, por el contrario, estas dos tradiciones han tendido a
permanecer distintas, con el resultado de que los modelos estructurales compiten con las
formulaciones VAR (autorregresión vectorial) sin ningún término medio. Debido a que gran parte
de la econometría aplicada británica reciente, y en particular las contribuciones de Hendry difieren
considerablemente en estilo de los estudios estadounidenses sobre los mismos temas, hay una
tendencia a suponer que el enfoque británico es, en cierto sentido, extremo. El análisis anterior
sugiere que, por el contrario, la metodología econométrica de David Hendry constituye un punto
medio sensato. La metodología se basa en métodos estadísticos clásicos, pero, al mismo tiempo, da
sentido a la prevalencia de búsquedas de especificación correctamente realizadas en la práctica
econométrica. Racionaliza gran parte de lo que los econométricos siempre han hecho, pero también
proporciona orientación sobre cómo estas cosas se pueden hacer de manera más eficiente. La
prueba más importante de cualquier metodología es, sin embargo, la investigación aplicada que
genera. A este respecto, el cuerpo acumulado de artículos publicados que utilizan los métodos
discutidos en este documento establece esta metodología como uno de los enfoques más
poderosos de la economía aplicada.

Vous aimerez peut-être aussi