Vous êtes sur la page 1sur 110

UNIVERSIDAD NACIONAL DE PIURA FACULTAD DE ECONOMIA DEPARTAMENTO ACADEMICO DE ECONOMIA

CAPITULO I MODELOS DINMICOS

1. 1.1.

INTRODUCCIN JUSTIFICACIN
La necesidad de incluir la dinmica temporal en los modelos es:

Existencia de desfases en la disponibilidad de informacin que hacen que las decisiones se tomen en base a datos del pasado. Las decisiones se toman tras un proceso de evaluacin que genera un desfase entre la informacin evaluada y la accin final. Determinados procesos complejos necesitan de un periodo de ejecucin que, nuevamente desfasa la accin final de la informacin valorada. Existencia de medidas o acciones que tienen efecto en ms de un periodo. La consideracin explcita de la evolucin pasada como una expectativa de los valores presentes. Existencia de procesos progresivos de ajuste hasta niveles deseados u ptimos.

Sabemos que las variables econmicas tienen bastante inercia, lo que hace que una variable dependa de su propio pasado, adems de otras causas. As por ejemplo: para tratar de explicar el comportamiento de la inflacin , tendra sentido introducir como variables explicativas, junto con la tasa de crecimiento monetario inflacin: , retardo de la propia tasa de

Es importante observar que la existencia de una relacin dinmica entre variables, as como su mayor o menor persistencia (nmero de retardos precisos para representarla), dependen crucialmente de cual sea la frecuencia de observacin de los datos que se emplean en la estimacin. Por ejemplo, si una variable influye sobre otra no slo contemporneamente, sino tambin durante los dos meses siguientes, entonces la relacin sera dinmica si el investigador utiliza datos mensuales, pero resultar esttica si utilizase datos anuales.

1.2.

TIPOS DE MODELOS

Una tipologa de modelos uniecuacionales dinmicos (Basado en Hendry, Pagan y Sargan, 1984)), el modelo ADL(1,1) es:

Yt = 1 X t + 2 X t 1 + 3Yt 1 + t
donde

Zt es exgena dbil en relacin a los parmetros de inters ( 1 , 2 y 3 ) , y el

error es:

t ~ N 0, 2

).

An cuando todos los modelos tienen una varianza del error, el modelo anterior es denominado modelo de "tres parmetros". Pese a que es una ecuacin muy simple, el modelo ADL(1,1) incluye representaciones esquemticas de nueve distintos tipos de modelos dinmicos como casos especiales. La tabla siguiente presenta estos 9 tipos.

Tipo de modelo
1 Regresin esttica 2 Serie de tiempo univariante 3En diferencias / tasa de crecimiento

Ecuacin
Yt = 1 X t + t
Yt = 3Yt 1 + t

Restricciones en ADL(1,1)

2 = 3 = 0
1 = 2 = 0
3 = 1; 2 = 1

Yt = 1X t 1 + t

Tipo de modelo
4 Indicador adelantado (leading indicator) 5 Retardos distribuidos (distributed lags) 6 Ajuste parcial 7 Common factor (error autocorrelacionado) 8 Mecanismo de Correccin del Error 9 Forma reducida (dead start)

Ecuacin
Yt = 2 X t 1 + t

Restricciones en ADL(1,1)

1 = 3 = 0

Yt = 1 X t + 2 X t 1 + t
Yt = 1 X t + 3Yt 1 + t

3 = 0

2 = 0
2 = 1 3

Yt = 1 X t + ut ut = 3ut 1 + t

Yt = 1 X t + (1 3 )( X t 1 Yt 1 ) + t
Yt = 2 X t 1 + 3Yt 1 + t

i = 1
1 = 0

Los nueve modelos describen muy diferentes estilos de retardos y respuestas de largo plazo de y desde x, tiene diferentes ventajas y desventajas como descripciones de comportamientos de series de tiempo, estn diversamente afectados por varios problemas de mala especificacin, y finalmente, conducen a diferentes estrategias de modelizacin y estimacin. Los modelos 1 a 4 son claramente modelos de un parmetro, mientras 5 a 9 son de dos parmetros. Con los supuestos planteados, todos menos el modelos 7 son estimables por Mnimos Cuadrados Ordinarios (mientras 7 requiere un procedimiento iterativo por mnimos cuadrados). Cada modelo puede ser interpretado como un modelo "por derecho propio", o tambin como una derivacin (o una aproximacin) del modelo ADL(1,1). La generalizacin de cada "tipo" en trminos de un nmero mayor de lags y/o varios regresores naturalmente aproximan los casos entre s. En el cuadro se plantean los modelos ms simples para resaltar sus diferencias y sus propiedades especficas. De todas maneras, las restricciones necesarias para obtener los distintos casos (an suponiendo modelos con mayor nmero de lags y/u otros regresores) en general son difciles de justificar. An cuando pueden, en ocasiones, existir argumentos tericos relevantes para explicar una forma especfica, es siempre preferible testear el modelo seleccionado versus la forma general no restringida (el ADL(1,1)), lo que contribuye a evitar errores de especificacin importantes.

1.3.

CLASIFICACIN

1.3.1. MODELOS INGENUOS DE EXPECTATIVAS Los modelos ms antiguos de expectativas empleaban valores pasados de las variables relevantes, o bien sencillas extrapolaciones de los mismos, como medicin de las variables esperadas. Consideremos el modelo:

A menos que se especifique de otra manera, las expectativas se forman con base en los periodos anteriores de tiempo. Por lo tanto, el modelo sume:

es decir, la compaa cree que la utilidades del prximo periodo sern iguales a las de ste. Un modelo sencillo de extrapolacin indicara que los beneficios del siguiente periodo se elevarn en una cantidad igual a la del ltimo incremento. Es decir,

Otro modelo de extrapolacin sera indicar que las utilidades se elevarn en un porcentaje igual al del ltimo aumento. Esto da:

En todos los casos se sustituye en el modelo la utilidad esperada por su frmula de formacin de expectativas, quedando:

como la formacin de expectativas se deriva del exterior y son ajenas al modelo econmico, estas expectativas se consideran exgenas. Por lo tanto, el modelo se estima por mnimos cuadrados ordinarios.

Es necesario modificar de manera adecuada la formacin de expectativas, cuando se cuenta con datos trimestrales o mensuales; porque existen fluctuaciones estacionales. Por ejemplo, las ventas de diciembre de este ao seran comparables con las del mismo mes del ao pasado, debido a la temporada navidea. La formacin de expectativas quedara:

obsrvese que se comparan meses o trimestres correspondientes y que se toma como parmetro el ltimo aumento porcentual. No se recomiendan estos modelos, sin embargo, su uso es frecuente como puntos de referencia para juzgar los datos de cualquier encuesta sobre expectativas. 1.3.2. MODELOS ECONOMTRICOS DINMICOS Los planteamientos tericos que conducen a una especificacin dinmica son: Modelo de EXPECTATIVAS ADAPTABLES. Cagan (1956). Modelo de AJUSTE PARCIAL Nerlove (1956).

Modelo de EXPECTATIVAS RACIONALES. Munth (1960, 1961). A Modelo de Expectativas Adaptativas El nivel de la variable endgena expectativas de la exgena X t* , as:

Yt depende de un valor no observado de

Yt = 0 + 1 X t* + et
Las expectativas se revisan o actualizan en funcin de las desviaciones observadas en el pasado, as:

X t* X t*1 = ( X t 1 X t*1 )
Resolviendo la anterior ecuacin diferencial se obtiene:

X = (1 )i X t 1 i
* t i =0

Sustituyendo el valor de la expectativa en la 1 ecuacin:

Yt = 0 + 1 (1 ) i X t 1i + et
i =0

Transformado la expresin anterior, queda:

Yt = 0 + 1X t 1 + (1 )Yt 1 + et (1 )et 1
EJEMPLO: P. Cagan propuso un modelo analtico en el que la demanda de saldos monetarios reales se haca depender del valor esperado de la tasa de inflacin futura:

El mecanismo de expectativas adaptativas, utilizado por Cagan (as como M. Friedman en su Teora de Consumo), es:

que postula que los agentes modifican la expectativa a partir de las expectativas del periodo anterior y considerando el error de prediccin cometido. Si

las expectativas de inflacin son estticas y no se hacen depender del error de prediccin que se haya cometido.

Si

las expectativas de inflacin son totalmente adaptativas, ya que se adapta como valor esperado de la inflacin futura el valor que la tasa de inflacin ha tomado en este perodo. Se ignora la informacin que condujo a formar las expectativas pasadas.

Si en el mecanismo de expectativas se colocan todas las variables de expectativa en el primer miembro, nos queda:

t*+1 (1 ) t* = t
Si se incorporan las expectativas adaptativas al modelo, se tiene el siguiente procedimiento: 1 Se retarda el modelo un periodo, as:

Se multiplica el modelo retardo por ( 1 -

), nos da:

Restamos el modelo menos el modelo retardado, dando:

Simplificando y reemplazando por la formacin de expectativas, nos queda el modelo transformado siguiente:

Dado que el modelo transformado involucra una regresin de , esto se conoce como modelo autorregresivo.

sobre

Modelo de Ajuste Parcial de Nerlove Las variables exgenas endgena. Yt . Por ejemplo:
*

X t determinan el valor ptimo o deseado de la variable

Y t* =

+ 1X

+ et

Slo se alcanza una parte del valor ptimo en cada periodo, matemticamente:

Yt Yt 1 = (Yt * Yt 1 )
Sustituyendo la primera expresin en la segunda:

Yt Yt 1 = ( 0 + 1 X t + et Yt 1 )
Despejando el valor corriente de la endgena:

Yt = 0 + 1X t + (1 )Yt 1 + et
EJEMPLO: Supongamos que el nivel de capital deseado en la economa, Kt* , es una funcin del nivel de producto Yt :

Kt* = 1 + 2Yt + ut

(1)

Si un investigador quisiera proceder a estimar cmo vara el stock de capital deseado u ptimo, segn la economa transcurre a travs de una poca de recesin o de expansin, tendra el grave problema de no disponer de observaciones de Kt* . Aadimos al modelo anterior una ecuacin que describe el mecanismo por el que el stock de capital se ajusta a su nivel deseado. Supongamos:

Kt Kt 1 = ( Kt* Kt 1 )

0< <1

( 2)

postula que el stock de capital observado vara de un perodo a otro en una proporcin de su distancia con respecto al stock deseado. Si = 1

En cada perodo el stock de capital es igual a su valor deseado. (Economa donde el stock de capital no est sujeto a importantes costes de ajuste). El stock de capital no cambia.

=0

La ecuacin ( 2 ) se puede rescribir:

Kt = Kt* + (1 ) Kt 1 K (1 ) Kt 1 Kt* = t

donde el stock de capital es una combinacin lineal convexa del valor deseado y de su valor previo. Al reemplazar ( 1 ) en ( 2 ) tenemos:

Kt = 1 + 2Yt + (1 ) Kt 1 + ut

(3)

Una vez estimado el modelo, el parmetro se obtiene del coeficiente de Kt 1 , mientras que 2 se obtendra dividiendo el coeficiente de Yt por el valor de y 1 a partir del trmino independiente estimado.

La ecuacin ( 3 ) es la demanda de capital a corto plazo y la ecuacin ( 1 ) es la demanda de capital a largo plazo. C Modelo de Expectativas Racionales de Munth El nivel de la variable endgena formadas sobre el valor de la exgena

Yt depende de las expectativas racionales

X t* , as:

Yt = 0 + 1 X t* + et
Las expectativas racionales se forman con toda la informacin disponible hasta el periodo anterior:

X t* = E ( X t t 1 )
La esperanza condicional viene representada por un proceso ARMA:

X t = a1 * X t 1 + a2 * X t 2 + ... + t + b1 * t 1 + b2 * t 2 + ...
El modelo inicial se convierte en un modelo dinmico:

Yt = 0 + 1 * ( a1 * X t 1 + a2 * X t 2 + ... + t + b1 * t 1 + b2 * t 2 + ...) + et
2. VARIABLE ENDGENA REZAGADA
Si aparecen valores retardados de la variable endgena, dejara de cumplirse uno de los supuestos bajo los que desarrollamos las teoras de estimacin e inferencia del modelo economtrico, pues algunas de las variables explicativas seran variables aleatorias (ya que Yt lo es). El modelo:

Yt = Yt 1 + ut

<1

(1)

donde u es un proceso de ruido blanco y el estimador de mnimos cuadrados ordinarios es:

MCO =

YY
2

t t 1

Y
2

2 t 1

( Yt 1 + ut )Yt 1 = + Yt 2 1

Y
2 T 2

t 1 t

2 t 1

10

T Yt 1ut el estimador ser insesgado si y slo si se cumple: E 2 = 0. T 2 Yt 1 2


Si la distribucin de u fuera independiente de Ys para todo par (t,s), entonces se tendra para s = 2, ..., T

E (YS 1uS / Yt 2 1 ) = E (YS 1 / Yt 2 1 ) E (uS ) = 0


2 2

entonces, el estimador de mnimos cuadrados ordinarios sera insesgado. Sin embargo, (1) muestra que las distribuciones de Yt y us no son independientes, puesto que si el valor absoluto de es inferior a la unidad, entonces:

Yt = s ut s
s= 0

como Yt depende de ut y de valores retardados de ut ; por lo tanto, el estimador de mnimos cuadrados del modelo (1) ser, en general, sesgado. El problema se complica sustancialmente cuando aparecen valores retardados de la variable endgena como variables explicativas y, adems el trmino de error tiene autocorrelacin:

Yt = Yt 1 + ut ut = ut 1 + t

<1

la variable explicativa Yt 1 est correlacionada con ut 1 , y a su vez, est correlacionada con ut ; entonces una de las variables explicativas del modelo est correlacionada con el trmino de error, por lo que ya no se tiene E (Yt 1ut ) = 0 . No podemos garantizar la consistencia del estimador de mnimos cuadrados ordinarios. Por lo tanto, el estimador mnimo cuadrado de los coeficientes del modelo para que sea consistente es que se tenga E ( X t S ut ) = 0 para todo s 0 y para todas las variables explicativas del modelo se tiene:

Var.Pr e det er min ada E ( X t S ut ) = 0 Var. Exogena E ( X t S ut ) = 0

s 0 s

11

2.1. EL TRMINO DE ERROR NO TIENE AUTOCORRELACIN El modelo especificado es:

Yt = 1 + 2Yt 1 + 3 X t + ut

2 < 1

(1)

cuyas variables explicativas y trmino de error satisfacen las siguientes propiedades: 1 2 3


2 No existe autocorrelacin, es decir: E (u) = 0T , E (uu ) = u I T .

X t es determinista, es decir: E ( X t ut ) = 0, t . E (Yt 1ut ) = 0 aunque Yt 1 es estocstica, si 2 < 1 , Yt 1 depende de ut 1 , ut 2 , ..., pero no de ut , y si este proceso es un ruido blanco, entonces se tiene el resultado
citado.

X X p lim = XX matriz simtrica, definida positiva, donde: T

T 1 X X =

Yt 1 Yt21
2 2 T

Xt 2 T Yt 1 X t 2 T 2 Xt 2
T

Esta condicin se satisface bajo el supuesto 2 < 1 , siempre que existan las varianzas y covarianzas de las variables explicativas X t e Yt 1 . Sabemos que:

MCO = + ( X X ) 1 X u
aplicando probabilidad lmite nos da:
p lim MCO ~

( 2)

1 X X 1 X X X u X u = p lim + p lim = + p lim T T T T

12

segn el teorema de Mann-Wald1 nos queda:

~ p lim MCO = + 1 0 K = XX
por lo tanto, el estimador de mnimos cuadrados ordinarios es consistente. A veces no se est interesado en la distribucin de un estimador, sino en la de una funcin del mismo. De la ecuacin (2) deducimos:

( MCO

X X X u ) = T T
X X X u ) = T T
1

multiplicando por la raz de T nos da:

T ( MCO

aplicando el teorema de Mann-Wald2 tenemos:

~ D T ( MCO ) (

XX

2 N (0, u

XX

)=

2 N 0, u (

XX

Esta distribucin slo es rigurosamente vlida segn tienda el tamao muestral a infinito. En la prctica, se realiza la aproximacin siguiente: 1 Pasando

T y a la derecha, entonces:
2 u MCO N , ( T

XX

en muestras grandes. 2 Para muestras suficientemente grande, el lmite de XX es matriz XX puede sustituirse por

X X ; entonces, la T

X X . T

Si E (u) = 0, E ( uu ) = 2 I T , E ( X iu) = 0 y p lim u

X X = T

XX

< , entonces se

X u tiene que : p lim = 0K . T


2
2 Si E (u) = 0, E (uu ) = u I T , E ( X iu) = 0 y p lim

X X = T

XX

< , entonces se tiene

que:

X u D 2 N (0, u T

XX

13

Por lo tanto, la matriz de covarianzas se aproxima a:

~ 1 2 Var MCO = u ( X X )

En cuanto el trmino de error est libre de autocorrelacin, est justificado el uso de mnimos cuadrados en un modelo que incluye retardos de la variable endgena. Puede utilizarse la matriz de covarianzas habitual de dicho estimador, quien tiene adems una distribucin normal en muestras grandes, por lo que los resultados de inferencia estadstica son aproximadamente vlidas. Lo anterior es vlido con independencia del nmero de retardos de la variable endgena que aparecen como variables explicativas. EJEMPLO 1: Se tiene informacin trimestral para el periodo 1959 - 1996 de las variables siguientes: GCP IPD SYS R Gasto de consumo personal. Ingreso personal disponible. Sueldos y salarios. Tasa de inters activa promedio

especificamos la funcin consumo siguiente:


GCPt = 0 + 1 SYS t + 2 GCPt 1 + ut

se estima por mnimos cuadrados ordinarios y se obtiene el siguientes resultado: Dependent Variable: GCP Method: Least Squares Sample(adjusted): 1959:2 1996:1 Included observations: 148 after adjusting endpoints ========================================================== Variable Coefficient Std. Error t-Statistic Prob. ========================================================== C -9.587087 2.659345 -3.605055 0.0004 SYS 0.173464 0.020306 8.542600 0.0000 GCP(-1) 0.891955 0.014170 62.94613 0.0000 ========================================================== R-squared 0.999935 Mean dependent var 1854.654 Adjusted R-squared 0.999934 S.D. dependent var 1471.192 S.E. of regression 11.97949 Akaike info criteri 7.824331 Sum squared resid 20808.68 Schwarz criterion 7.885085 Log likelihood -576.0005 F-statistic 1108462. Durbin-Watson stat 1.992817 Prob(F-statistic) 0.000000 ==========================================================

14

para determinar si mnimos cuadrados ordinarios es el mtodo de estimacin adecuado debemos verificar autocorrelacin: h de Durbin:

H 0 : Ausencia de autocorrelacion 1 orden .


se estima el rho:

$ = 1

DW 1..99281692505 = 1 = 0.00359153747518 2 2

se calcula el estadstico h y se compara con el estadstico de la tabla normal, de la forma siguiente:


h = 0.00359153747518 148 = 0.0443569947499 1 148( 0.000200792518378) < 1645 .

Por lo tanto, se acepta la hiptesis nula Box Pierce:

H 0 : Ausencia de autocorrelacion orden m .


se obtiene del Eviews: Correlogram of Residuals ============================================================== Sample: 1959:2 1996:1 Included observations: 148 ============================================================== Autocorrelation Partial Correlation AC PAC Q-Stat Prob ============================================================== .|. | .|. | 1 0.001 0.001 0.0002 0.989 .|* | .|* | 2 0.083 0.083 1.0538 0.590 ============================================================== m=1 se calcula el estadstico q y se compara con el estadstico de la tabla chi cuadrado, de la forma siguiente:
QBP = 148(0.0012 ) = 0.000184 < 384 .

Por lo tanto, se acepta la hiptesis nula

15

m=2 se calcula el estadstico q y se compara con el estadstico de la tabla chi cuadrado, de la forma siguiente:
QBP = 148(0.0012 + 0.0832 ) = 1025685 . < 5.99

Por lo tanto, se acepta la hiptesis nula Breusch-Godfrey:

H 0 : Ausencia de autocorrelacion orden m .


m=1 se obtiene del Eviews: Breusch-Godfrey Serial Correlation LM Test: ===================================================== F-statistic 0.000181 Probability 0.989287 Obs*R-squared 0.000186 Probability 0.989120 ===================================================== se calcula el estadstico LM y se compara con el estadstico de la tabla chi cuadrado, de la forma siguiente:

LM = 0.000186
Por lo tanto, se acepta la hiptesis nula m=2 se obtiene del Eviews:

<

384 .

Breusch-Godfrey Serial Correlation LM Test: ===================================================== F-statistic 0.521517 Probability 0.594744 Obs*R-squared 1.071686 Probability 0.585176 ===================================================== se calcula el estadstico LM y se compara con el estadstico de la tabla chi cuadrado, de la forma siguiente:

LM = 1071686 .
Por lo tanto, se acepta la hiptesis nula.

<

5.99

Concluimos que el mtodo de estimacin de mnimos cuadrados ordinarios es el adecuado.

16

EJEMPLO 2: Especificamos la funcin consumo siguiente:

GCPt = 0 + 1SYSt + 2 Rt + 3GCPt 1 + ut


se estima por mnimos cuadrados ordinarios y se obtiene el siguientes resultado: Dependent Variable: GCP Method: Least Squares Sample(adjusted): 1959:2 1996:1 Included observations: 148 after adjusting endpoints ========================================================= Variable Coefficient Std. Error t-Statistic Prob. ========================================================= C -8.224413 2.632759 -3.123876 0.0022 SYS 0.256588 0.034484 7.440758 0.0000 R -1.823686 0.619578 -2.943434 0.0038 GCP(-1) 0.834550 0.023897 34.92267 0.0000 ========================================================= R-squared 0.999938 Mean dependent var 1854.654 Adjusted R-squared 0.999937 S.D. dependent var 1471.192 S.E. of regression 11.67493 Akaike info criteri 7.779419 Sum squared resid 19627.77 Schwarz criterion 7.860425 Log likelihood -571.6770 F-statistic 778035.5 Durbin-Watson stat 1.997412 Prob(F-statistic) 0.000000 ========================================================= para determinar si mnimos cuadrados ordinarios es el mtodo de estimacin adecuado debemos verificar autocorrelacin: h de Durbin:

H 0 : Ausencia de autocorrelacion 1 orden .


se estima el rho:

$ = 1

DW 1..9974120053 = 1 = 0.00129399735245 2 2

se calcula el estadstico h y se compara con el estadstico de la tabla normal, de la forma siguiente:


h = 0.00129399735245 148 = 0.0164527854599 1 148( 0.00057107024696) < 1645 .

Por lo tanto, se acepta la hiptesis nula

17

Box Pierce:

H 0 : Ausencia de autocorrelacion orden m .


se obtiene del Eviews: Correlogram of Residuals ============================================================== Sample: 1959:2 1996:1 Included observations: 148 ============================================================== Autocorrelation Partial Correlation AC PAC Q-Stat Prob ============================================================== .|. | .|. | 1 -0.002 -0.002 0.0008 0.977 .|* | .|* | 2 0.088 0.088 1.1739 0.556 ============================================================== m=1 se calcula el estadstico q y se compara con el estadstico de la tabla chi cuadrado, de la forma siguiente: 2 QBP = 148( 0.002) = 0.000793 < 384 . Por lo tanto, se acepta la hiptesis nula m=2 se calcula el estadstico q y se compara con el estadstico de la tabla chi cuadrado, de la forma siguiente:
QBP = 148 ( 0.002) + 0.088 2 = 1142607 .
2

<

5.99

Por lo tanto, se acepta la hiptesis nula Breusch-Godfrey:

H 0 : Ausencia de autocorrelacion orden m .


m=1 se obtiene del Eviews: Breusch-Godfrey Serial Correlation LM Test: ========================================================= F-statistic 0.000834 Probability 0.977003 Obs*R-squared 0.000863 Probability 0.976564 =========================================================

18

se calcula el estadstico LM y se compara con el estadstico de la tabla chi cuadrado, de la forma siguiente:

LM = 0.000863
Por lo tanto, se acepta la hiptesis nula m=2 se obtiene del Eviews:

<

384 .

Breusch-Godfrey Serial Correlation LM Test: ========================================================= F-statistic 0.600709 Probability 0.549810 Obs*R-squared 1.241676 Probability 0.537494 ========================================================= se calcula el estadstico LM y se compara con el estadstico de la tabla chi cuadrado, de la forma siguiente:

LM = 1241676 .
Por lo tanto, se acepta la hiptesis nula.

<

5.99

Concluimos que el mtodo de estimacin de mnimos cuadrados ordinarios es el adecuado. 2.2. EL TRMINO DE ERROR TIENE AUTOCORRELACIN El modelo especificado es:

Yt = 1 + 2Yt 1 + 3 X t + ut

2 < 1

(1)

y sigue un patrn de autocorrelacin de primer orden, es decir:

ut = ut 1 + t
donde t es ruido blanco. La existencia de autocorrelacin en el trmino de error hace que la propiedad del caso anterior no se satisfaga. E (Yt 1ut ) 0 . Por ejemplo: Asumamos en (1) que 1 = 3 = 0 , entonces el modelo queda:

Yt = 2 Yt 1 + ut
tenemos:

19

E (Yt 1ut ) = E ( 2 Yt 2 + ut 1 )ut = 2 E (Yt 2 ut ) + E (ut 1ut ) E (Yt 1ut ) = 2 E (Yt 2 ut ) + E ( ut 1 + )ut 1 E (Yt 1ut ) 2 E (Yt 2 ut ) = u2 E (Yt 1ut ) 2 E Yt 2 ( ut 1 + t ) = u2 E (Yt 1ut ) 2 E (Yt 2 ut 1 ) 2 E (Yt 2 t ) = u2 E (Yt 1ut ) 2 E (Yt 1ut ) = u2

E (Yt 1ut ) = 2 E (Yt 2 ut ) + E (ut21 ) + E ( t ut 1 )

(1 ) E (Y
2

t 1 t

u ) = u2

E (Yt 1ut ) =

u2

(1 )
2

como Yt 1 depende de ut 1 a travs del modelo, pero ut 1 y ut estn relacionados con la estructura autoregresiva del trmino de error. En consecuencia Yt 1 y ut estn correlacionados; por lo tanto, el estimador de mnimos cuadrados es sesgado. Sabemos que:

~ p lim 2 MCO = 2 +

T Yt 1ut p lim 2 T T 2 Yt 1 p lim 2 T

y si los momentos muestrales convergen en probabilidad a sus anlogos poblacionales, el numerador y el denominador son diferentes de cero; por lo tanto, el estimador de mnimos cuadrados no es consistente. Es decir, el sesgo no desaparece al aumentar el tamao muestral. El procedimiento para obtener estimaciones consistentes de un modelo de este tipo se conoce como estimador de variables instrumentales. Una variable instrumental es una variable Z t que satisface tres condiciones: 1 No est incluida en el modelo como variable explicativa.

20

2 3

Est incorrelacionada con el trmino de error E ( Z t ut ) = 0 . Est correlacionada con la variable para la cual hace de instrumento.

En cuanto a la correlacin que debe existir entre una variable instrumental y la variable explicativa para la que se utiliza, como instrumento, cabe observar lo siguiente: 1 Es importante que dicha correlacin exista, porque la variable instrumental sustituye parcialmente a la variable endgena rezagada en la estimacin del modelo economtrico. Dicha correlacin no puede ser muy importante, sino tambin existira una correlacin apreciable entre la variable instrumental y el trmino de error (esto motiv la necesidad de la variable instrumental). El primer retardo de la variable exgena

( X t 1 )

satisface estas tres condiciones,

tambin podra utilizarse el segundo retardo ( X t 2 ) como variable instrumental; la diferencia es que la relacin entre esta variable y Yt 1 se hace ms indirecta. En general, en el vector X tan slo habr unas variables que no satisfagan la condicin ( Xu) = 0 , y son estas variables las que necesitan de variables instrumentales. Es decir, los E vectores X y Z tendrn en comn aquellas variables que estn incorrelacionadas con el trmino de error. El estimador de variables instrumentales viene dado:

VI = ( Z X ) 1 Z Y
donde Z denota la matriz T x K de observaciones muestrales de las variables que componen el vector Z y suponemos que Z X es invertible. Para el ejemplo:

X = 1 Yt 1

Xt

]
Y
2 T T

Z = 1 X t 1

Xt

el estimador de variables instrumentales es:

~ 1 ~ 2 ~ 3 VI

T1 T = X t 1 2 T Xt 2

t 1

X
2 T 2

t 1 t 1

XY

t t 1

Xt 2 T X t X t 1 2 T 2 Xt 2

T Yt T 2 X Y t 1 t 2 T X t Yt 2

la matriz Z X dista de ser simtrica. El estimador de variables instrumentales del modelo, en general, es sesgado porque la variable Yt 1 aparece en la matriz Z X ; pero el estimador es consistente bajo las condiciones de la proposicin siguiente:

21

Sea Z una matriz T x K de observaciones de las variables Z1 , Z 2 ,..., Z K , quiz aleatorias. Sea Zt la fila t de Z y supongamos que se tiene:

E ( Z tu) = 0 K

Z X Z Z p lim = ZX , p lim = ZZ T T
ambas matrices son singulares y finitas, entonces tenemos:

p lim VI

( )

Z X 1 Z u = + p lim = + T T

Z X p lim T

Z u p lim T

reemplazando por los supuestos nos da:

~ p lim VI = + 1 0 K = ZX

( )

la consistencia de VI proviene de la ausencia de correlacin entre instrumentos y trmino de error, con independencia de que ste tenga o no autocorrelacin. En ausencia de autocorrelacin, podemos caracterizar la distribucin asinttica de VI de la forma siguiente: Dado el modelo Yt = X t + ut , donde X t es el vector de variables explicativas, que puede incluir algunos retardos de la variable endgena, y ut , el trmino de error es un ruido blanco, sea X la matriz T x K de observaciones de las variables Z1 , Z 2 ,..., Z K , y supongamos que:
~

E ( Z tu) = 0 K Z X p lim = ZX T Z Z p lim = ZZ T

t simetrica , definida positiva no sin gular

el teorema de Mann - Wald asegura que bajo los tres supuestos mencionados se tiene:

Z u p lim = 0K T
y como:

Z u N (0 K , u2 ZZ ) T

22

Z X Z u T VI = T T

converge en distribucin a:
1 ~ 2 T VI ( ZX ) N (0 K , u ZZ )

2 , u 1 ZZ ( 1 ) VI K ZX ZX 2 u 1 ~ VI N , ZX ZZ ( 1 ) ZX T
Por lo tanto, este resultado justifica que en muestras grandes se utilice como matriz de covarianzas del estimador de variables instrumentales:

( ~ T (

) ) N 0

Var VI =

( )

u2
T

1 ( ZX ) ZZ ( ZX )

y se utiliza las matrices de momentos muestrales respectivos de ZX , ZZ ; reemplazando nos da:

Z X Z Z , para aproximar sus lmites T T

Var VI

( )

2 u Z X 1 Z Z Z X 1 1 1 2 = = u ( Z X ) ( Z Z ) ( Z X ) T T T T

2 El parmetro u se estimara dividiendo la suma residual por el nmero de grados de libertad ( T-K ). Los residuos deben calcularse utilizando las variables originales del modelo, es decir:

~ u2

~ ~ (Y X ) (Y X ) =
VI VI

T K

Este resultado no puede generalizarse fcilmente al caso en que el trmino de error tiene autocorrelacin, por lo que suele utilizarse la matriz de covarianza anterior incluso en tal caso, aun a sabiendas que no es sino una aproximacin. Se ha presentado el estimador de variables instrumentales como si se dispusiese de un nmero de instrumentos igual al nmero de variables explicativas, entonces no existe diferencia

23

entre instrumentos y variables instrumentales. Generalmente, se dispondr de un nmero mayor de instrumentos que de variables instrumentales, situacin que se denomina " sobreidentificacin"; por lo tanto, habra muchas formas de construir las variables instrumentales que precisamos para obtener consistencia. La matriz de covarianzas del estimador de variables instrumentales depende de los valores de stas, por lo que el modo en que los instrumentos se combinan para generar variables instrumentales influye sobre la eficiencia de un estimador de variables instrumentales respecto a otro estimador de su misma clase. Consideremos el modelo siguiente:

en el que las variables

, supuestos deterministas, estn incorrelacionados con

el trmino de error, y son instrumentos vlidos. Pero slo necesitamos una variable instrumental para , y se tratara de buscar cul de todas las posibles minimiza la varianza del estimador resultante. Adems cualquier combinacin lineal instrumentos es asimismo un instrumento vlido. Una posibilidad consiste en generar la variable instrumental que presente mayor correlacin con Yt 1 , entonces estimamos una regresin auxiliar de esta variable sobre los tres instrumentos de que disponemos, para obtener la variable generada Yt 1 , que ser una combinacin lineal de X 1t 1 , X 2 t 1 y X 3t 1 y, como tal, una variable instrumental vlida. La utilizacin del vector Z t = (Yt 1 , X 1t , X 2 t , X 3t ) genera el denominado estimador de mnimos cuadrados en dos etapas MC 2 E . El estimador de mnimos cuadrados bietpicos es el estimador lineal de variables instrumentales eficiente, en el sentido de tener mnima matriz de covarianza entre los estimadores que utilizan como variables instrumentales combinaciones lineales de los instrumentos disponibles. La aplicacin del mtodo de mnimos cuadrados bietpicos requiere los siguientes pasos: 1 Estimar una regresin auxiliar de disponemos, para obtener la variable predicha de 2 sobre los tres instrumentos de que
~
~

de los

(~

~ Yt 1 , que ser una combinacin lineal

y, como tal, es una variable instrumental vlida. por

Se sustituye en el modelo original

~ Yt 1 y se estima el modelo transformado

24

por mnimos cuadrados ordinarios. EJEMPLO 3: Especificamos la funcin consumo siguiente:

GCPt = 0 + 1 IPDt + 2 GCPt 1 + ut


se estima por mnimos cuadrados ordinarios y se obtiene el siguientes resultado: Dependent Variable: GCP Method: Least Squares Sample(adjusted): 1959:2 1996:1 Included observations: 148 after adjusting endpoints ========================================================= Variable Coefficient Std. Error t-Statistic Prob. ========================================================= C 0.248943 1.870295 0.133104 0.8943 IPD 0.193060 0.022728 8.494528 0.0000 GCP(-1) 0.801910 0.024844 32.27830 0.0000 ========================================================= R-squared 0.999934 Mean dependent var 1854.654 Adjusted R-squared 0.999933 S.D. dependent var 1471.192 S.E. of regression 12.00206 Akaike info criteri 7.828095 Sum squared resid 20887.16 Schwarz criterion 7.888850 Log likelihood -576.2790 F-statistic 1104297. Durbin-Watson stat 1.709616 Prob(F-statistic) 0.000000 ========================================================= para determinar si mnimos cuadrados ordinarios es el mtodo de estimacin adecuado debemos verificar autocorrelacin: h de Durbin:

H 0 : Ausencia de autocorrelacion 1 orden .


se estima el rho:

$ = 1

17096162998 DW . = 1 = 0145191850101 . 2 2

se calcula el estadstico h y se compara con el estadstico de la tabla normal, de la forma siguiente:


h = 0145191850101 . 148 = 1852993577 . 1 148( 0.000617205200589) > 1645 .

Por lo tanto, se rechaza la hiptesis nula

25

Box Pierce:

H 0 : Ausencia de autocorrelacion orden m .


se obtiene del Eviews: Correlogram of Residuals ============================================================== Sample: 1959:2 1996:1 Included observations: 148 ============================================================== Autocorrelation Partial Correlation AC PAC Q-Stat Prob ============================================================== .|* | .|* | 1 0.145 0.145 3.1700 0.075 .|* | .|* | 2 0.168 0.150 7.4631 0.024 ============================================================== m=1 se calcula el estadstico q y se compara con el estadstico de la tabla chi cuadrado, de la forma siguiente:
QBP = 148(01452 ) = 3106615 . . < 384 .

Por lo tanto, se acepta la hiptesis nula m=2 se calcula el estadstico q y se compara con el estadstico de la tabla chi cuadrado, de la forma siguiente:
QBP = 148(01452 + 0168 2 ) = 7.285250 . . > 5.99

Por lo tanto, se rechaza la hiptesis nula Breusch-Godfrey:

H 0 : Ausencia de autocorrelacion orden m .


m=1 se obtiene del Eviews: Breusch-Godfrey Serial Correlation LM Test: ========================================================= F-statistic 3.191138 Probability 0.076143 Obs*R-squared 3.208674 Probability 0.073249 =========================================================

26

se calcula el estadstico LM y se compara con el estadstico de la tabla chi cuadrado, de la forma siguiente:

LM = 3.208674
Por lo tanto, se acepta la hiptesis nula m=2 se obtiene del Eviews:

<

384 .

Breusch-Godfrey Serial Correlation LM Test: ========================================================= F-statistic 3.412127 Probability 0.035678 Obs*R-squared 6.741162 Probability 0.034370 ========================================================= se calcula el estadstico LM y se compara con el estadstico de la tabla chi cuadrado, de la forma siguiente:

LM = 6.741162
Por lo tanto, se rechaza la hiptesis nula.

>

5.99

Concluimos que mnimos cuadrados ordinarios no es el mtodo de estimacin adecuado y debemos aplicar el mtodo de variables instrumentales de la siguiente forma: Primero creamos los grupos y a continuacin se convierten en matrices, tenemos los grupos siguientes: G1 = [ 1 IPD GCP(-1) ] G2 = [ GCP ] G3 = [ 1 IPD IPD(-1) ]

X Y Z

Obtenemos el estimador de los coeficientes de variables instrumentales, as:

~ 0 4.191603 ~ 1 ~ VI = 1 = ( Z X ) Z Y = 0.298547 ~ 2 0.686558


a continuacin se calcula el estimador de la varianza de la perturbacin, de la siguiente manera:

~ u2

~ ~ (Y X ) (Y X ) = 165.4665 =
VI VI

148 3

27

ahora se estima la varianza de los estimadores de variable intsrumental, as:


~ 6.861411 0.093411 0101153 . = 0.093411 0.002198 0.002403 0101153 0.002403 0.002628 .

1 1 ~ Var VI = u2 ( Z X ) ( Z Z )( Z X )

( )

con esta informacin podemos calcular el t estadstico para cada estimador de variable instrumental, de la forma siguiente:

t VI ~

t ~ 0 = t1 = ~ t ~ 2

~ i VAR( i )

- 1.60019686721 = 6.36810211651 13.3934789812

EJEMPLO 4: Especificamos la funcin consumo siguiente:

GCPt = 0 + 1 IPDt + 2 Rt + 3GCPt 1 + ut


se estima por mnimos cuadrados ordinarios y se obtiene el siguientes resultado: Dependent Variable: GCP Method: Least Squares Sample(adjusted): 1959:2 1996:1 Included observations: 148 after adjusting endpoints ========================================================= Variable Coefficient Std. Error t-Statistic Prob. ========================================================= C 2.046243 2.649849 0.772211 0.4413 IPD 0.214902 0.032202 6.673643 0.0000 R -0.495999 0.517889 -0.957733 0.3398 GCP(-1) 0.778189 0.035086 22.17975 0.0000 ========================================================= R-squared 0.999935 Mean dependent var 1854.654 Adjusted R-squared 0.999933 S.D. dependent var 1471.192 S.E. of regression 12.00548 Akaike info criteri 7.835259 Sum squared resid 20754.96 Schwarz criterion 7.916265 Log likelihood -575.8092 F-statistic 735778.3 Durbin-Watson stat 1.679188 Prob(F-statistic) 0.000000 ========================================================= para determinar si mnimos cuadrados ordinarios es el mtodo de estimacin adecuado debemos verificar autocorrelacin:

28

h de Durbin:

H 0 : Ausencia de autocorrelacion 1 orden .


se estima el rho:

$ = 1

DW 1..67918769606 = 1 = 0160406151972 . 2 2

se calcula el estadstico h y se compara con el estadstico de la tabla normal, de la forma siguiente:

148 = 2.15786848852 1 148( 0.00123099578102) Por lo tanto, se rechaza la hiptesis nula. h = 0160406151972 .
Box Pierce:

>

1645 .

H 0 : Ausencia de autocorrelacion orden m .


se obtiene del Eviews: Correlogram of Residuals =========================================================== Sample: 1959:2 1996:1 Included observations: 148 =========================================================== Autocorrelation Partial Correlation AC PAC Q-Stat Prob =========================================================== .|* | .|* | 1 0.160 0.160 3.8730 0.049 .|* | .|* | 2 0.180 0.158 8.8008 0.012 =========================================================== m=1 se calcula el estadstico q y se compara con el estadstico de la tabla chi cuadrado, de la forma siguiente:
QBP = 148(016) = 3.7888 .
2

<

384 .

Por lo tanto, se acepta la hiptesis nula m=2 se calcula el estadstico q y se compara con el estadstico de la tabla chi cuadrado, de la forma siguiente:
. . QBP = 148 ( 016) + 018 2 = 8.591901
2

>

5.99

Por lo tanto, se rechaza la hiptesis nula.

29

Breusch-Godfrey:

H 0 : Ausencia de autocorrelacion orden m .


m=1 se obtiene del Eviews: Breusch-Godfrey Serial Correlation LM Test: ========================================================= F-statistic 4.321373 Probability 0.039423 Obs*R-squared 4.341279 Probability 0.037199 ========================================================= se calcula el estadstico LM y se compara con el estadstico de la tabla chi cuadrado, de la forma siguiente:

LM = 4.341279
Por lo tanto, se rechaza la hiptesis nula m=2 se obtiene del Eviews:

>

384 .

Breusch-Godfrey Serial Correlation LM Test: ========================================================= F-statistic 4.734702 Probability 0.010219 Obs*R-squared 9.252508 Probability 0.009791 ========================================================= se calcula el estadstico LM y se compara con el estadstico de la tabla chi cuadrado, de la forma siguiente:

LM = 9.252508
Por lo tanto, se rechaza la hiptesis nula.

>

5.99

La estimacin de mnimos cuadrados ordinarios presenta autocorrelacin y el modelo tiene dos variables exgenas, entonces el mtodo adecuado es mnimos cuadrados en dos etapas. En el Eviews escribimos el comando siguiente: TSLS GCP C IPD R GCP(-1) @ C IPD IPD(-1) R R(-1) se obtiene del Eviews:

30

Dependent Variable: GCP Method: Two-Stage Least Squares Sample(adjusted): 1959:2 1996:1 Included observations: 148 after adjusting endpoints Instrument list: C IPD IPD(-1) R R(-1) ========================================================= Variable Coefficient Std. Error t-Statistic Prob. ========================================================= C 1.645073 2.834786 0.580316 0.5626 IPD 0.194944 0.059191 3.293451 0.0012 R -0.269375 0.765920 -0.351701 0.7256 GCP(-1) 0.799938 0.064501 12.40185 0.0000 ========================================================= R-squared 0.999935 Mean dependent var 1854.654 Adjusted R-squared 0.999933 S.D. dependent var 1471.192 S.E. of regression 12.02149 Sum squared resid 20810.34 F-statistic 733707.8 Durbin-Watson stat 1.711471 Prob(F-statistic) 0.000000 =========================================================

3.

VARIABLE EXGENA REZAGADA


Si el modelo es del tipo:

Yt = 1 + 2 X 2 t + 3 X 2 t 1 + ...+ S X 2 t S + ut
no se incumplen las hiptesis bsicas del modelo lineal general, porque las distintas variables explicativas del modelo de regresin son todas deterministas. En este modelo aparecen tan slo dos posibles dificultades: 1 Los retardos consecutivos de una variable econmica tienden a estar correlacionados entre s, tanto ms cuanto mayor sea la estructura de autocorrelacin de dicha variable. Cuanto mayor sea la correlacin entre los retardos de X t , ms importante ser la presencia de alto grado de multicolinealidad. Cuando la estructura de retardos es de orden infinito, entonces es imposible estimar directamente el modelo, porque no tendramos observaciones suficientes para ello. Para estimar este modelo es imprescindible imponer a priori algn tipo de restriccin entre los coeficientes, de modo que el modelo pueda transformarse en otro con un nmero reducido de variables explicativas.

En la formacin de expectativas, otros modelos utilizan el total de la historia, asignando pesos especficos que decrecen a los valores anteriores, a medida que se retrocede hacia el pasado distante. Estos se conocen como modelos de expectativas de rezagos distribuidos.

31

Las posibles soluciones al problema de estimacin en presencia de variables exgenas retardadas son los siguientes: 1 Utilizar estimadores adecuados en el caso de multicolinealidad severa (ESTIMADORES CRESTA).

( k ) = ( X ' X + kI ) 1 X ' Y
2 Elaborar una nica variable transformada, por ejemplo:
r

Z t = X t i
i =0

Z t = X t i /( r + 1)
i =0

Z t = pi X t i
i =0

p
i =0

Estimar con distribuciones de retardos.

Yt = * W ( L ) X t + et

Wt = 0 + 1 L + 2 L2 + 3 L3 + ... + r Lr
3.1. RETARDOS FINITOS Consideremos el siguiente modelo de Demanda de saldos reales:

el mecanismo de expectativas adaptativas es:

tambin se puede expresar de la siguiente forma:

* t +1

i=0

t i

Esto recibe el nombre de rezago distribuido finito, ya que el nmero de valores rezagados o pasados es finito. son los pesos especficos que se asignan a estos valores pasados. El modelo de rezago distribuido finito se obtiene sustituyendo la ecuacin de ajuste de expectativas en el modelo original, el resultado es el siguiente:

32

multiplicando y simplificando se obtiene:

en trminos de sumatoria sera:


K Mt = 1 + 2 i t i + ut = 1 + Pt i =o

2 i t i + ut = 1 + i* t i + ut
i =o i =o

Los retardos consecutivos de una variable econmica tienden a estar correlacionados entre s, tanto ms cuanto mayor sea la estructura de autocorrelacin de dicha variable; por lo tanto, cuanto mayor sea la correlacin entre los retardos de , ms importante ser la presencia de alto grado de multicolinealidad. Existen planteamientos alternativos de distribuciones de retardos finitos, por ejemplo: 1 Aritmtica:

W ( L ) = ( r + 1 i ) Li
i =0

V Invertida:

W ( L ) = (1 + i ) L + ( r + 1 i ) Li
i i =0 i=s

s 1

con s = r / 2

Almon:

W ( L ) = ( 0 + 1i + 2i 2 + ... + q i q ) Li
i =0

Shiller:
r

W ( L ) = ( 0 + 1i + 2i 2 + ... + q i q + i ) Li
i =0

con i N (0, 2 )

33

Armnicas:

q W ( L ) = + ( Ak sen kj + Bk cos kj ) Li k =0

con kj =

2 k. j n +1

Consideraremos a Almon que generaliz para el caso en que

sigue un polinomio

de grado r en i. Esto se conoce como rezago de Almon o polinomial. Se denota como PDL (K, r), donde PDL significa una distribucin polinomial de rezagos, K es la longitud de rezagos y r es el grado del polinomio. Por ejemplo, si r = 2, escribimos:

Sustituyendo el PDL en el modelo transformado, se obtiene:

definiendo:

reemplazando en el modelo anterior, nos queda:

se estima el modelo por mnimos cuadrados ordinarios y se obtiene los estimados de a partir del polinomio se calcula los valores de .

, luego

Al reducir el nmero de parmetros a estimar, se simplifica el modelo original y disminuye el riesgo de alto grado de multicolinealidad en el modelo auxiliar, aunque al ser ste ms restrictivo, cabe la posibilidad que el modelo resultante auxiliar no est bien especificado, lo que originara sesgos en las estimaciones de sus parmetros. Aunque todos los desarrollos se han realizado considerando una sola variable exgena X t con varios retardos, los polinomios anteriores se pueden aplicar a estructuras ms complejas de retardos distribuidos en distintas variables exgenas y en la endgena. Los rezagos polinomiales suponen tres tipos de problema: 1 Problemas de distribuciones de cola prolongada.- es difcil captar distribuciones de retardo de colas prolongadas, como la que se observa en el grfico.

34

Para resolver este problema puede utilizarse un polinomio por tramos, o bien un polinomio para la parte. 2 Problema en la eleccin de la longitud del retardo K.- Schmidt y Waud sugieren escoger K con base en la mxima: Frost efectu una simulacin experimental utilizando este criterio y descubri un importante sesgo hacia arriba en la longitud del rezago. Por lo tanto, para corregir el sesgo Frost sugiere utilizar relaciones F mayores que 1, es decir, F = 2. 3 Problemas para escoger r, el grado del polinomio.- Si se especifica en forma correcta la longitud K del rezago, entonces lo que se hace es iniciar con un polinomio de grado lo suficientemente alto (cuarto o quinto grado) e ir hacia atrs (forma secuencial) hasta rechazar la hiptesis nula (no significancia). inicial y un rezago de Koyck o geomtrico para la ltima

EJEMPLO 5: Especificamos la funcin consumo siguiente:

GCPt = +

i IPDt i + ut
i=0

primero se elige el retardo ptimo, estimando por mnimos cuadrados ordinarios la funcin consumo con cero retardos, un retardo, dos retardos y as sucesivamente; finalmente elegimos la mejor estimacin. mediante los criterios de informacin. En el Eviews se escribe los comandos siguientes: LS GCP C IPD LS GCP C IPD IPD(-1) LS GCP C IPD IPD(-1) IPD(2) LS GCP C IPD IPD(-1) IPD(2) IPD(-3)

35

LS GCP C IPD IPD(-1) IPD(2) IPD(-3) IPD(-4) ............................................................. De las estimaciones de Eviews construimos el siguiente cuadro: ================================================ M T AKAIKE SCHWARZ R ================================================ 0.000000 148.0000 0.999459 9.916938 9.957441 1.000000 148.0000 0.999550 9.739763 9.800517 2.000000 147.0000 0.999595 9.640053 9.721425 3.000000 146.0000 0.999625 9.568611 9.670790 4.000000 145.0000 0.999656 9.489712 9.612887 5.000000 144.0000 0.999687 9.399949 9.544315 6.000000 143.0000 0.999712 9.323912 9.489665 7.000000 142.0000 0.999728 9.270235 9.457576 8.000000 141.0000 0.999739 9.236198 9.445330 9.000000 140.0000 0.999744 9.221678 9.452807 10.00000 139.0000 0.999755 9.185458 9.438794 11.00000 138.0000 0.999768 9.136352 9.412107 12.00000 137.0000 0.999772 9.122193 9.420585 13.00000 136.0000 0.999779 9.097349 9.418598 14.00000 135.0000 0.999786 9.072103 9.416432 15.00000 134.0000 0.999789 9.063944 9.431580 16.00000 133.0000 0.9998067 8.978877 9.370052 17.00000 132.0000 0.9998066 8.984089 9.399037 18.00000 131.0000 0.999804 9.003127 9.442089 19.00000 130.0000 0.999801 9.023694 9.486911 20.00000 129.0000 0.999797 9.045514 9.533234 =============================================== elegimos el retardo 16 como el ptimo porque tiene el mayor coeficiente de determinacin ajustado, el menor Akaike y el menor Schwarz. Se aplica el polinomio de retardos distribuidos y se estima por mnimos cuadrados ordinarios, empezamos el proceso utilizando un polinomio de grado alto (sexto grado); y se verifica si el coeficiente correspondiente a este grado es significativo. Si no lo es, entonces disminuimos un grado el polinomio y se vuelve a verificar la significancia. Si lo es, entonces esa es la estimacin adecuada. El comando para estimar es: LS GCP C PDL(IPD, 16, 6) el eviews nos muestra el resultado siguiente:
2

36

Dependent Variable: GCP Method: Least Squares Sample(adjusted): 1963:1 1996:1 Included observations: 133 after adjusting endpoints ================================================== Variable Coefficient Std. Erro t-Statistic Prob. ================================================== C -6.339855 3.600894 -1.760634 0.0807 PDL01 -0.012270 0.030316 -0.404748 0.6864 PDL02 -0.005282 0.013266 -0.398128 0.6912 PDL03 0.009811 0.009862 0.994854 0.3217 PDL04 0.000367 0.000950 0.386271 0.7000 PDL05 -0.000659 0.000472 -1.396955 0.1649 PDL06 -9.23E-06 1.30E-05 -0.709186 0.4795 PDL07 9.78E-06 5.33E-06 1.832573 0.0692 ================================================== Verificamos si el coeficiente del sexto grado del polinomio es significativo, de la forma siguiente:

H0 : PDL 07 = 0

t PDL 07 = 1832573 < t( 0.95,125) = 1979124 . .


Por lo tanto, no es significativo. Entonces disminuimos un grado el polinomio y volvemos a verificar la significancia del coeficiente del grado cinco del polinomio. El comando para estimar es: LS GCP C PDL(IPD, 16, 5) el eviews nos muestra el resultado siguiente: Dependent Variable: GCP Method: Least Squares Sample(adjusted): 1963:1 1996:1 Included observations: 133 after adjusting endpoints ================================================== Variable Coefficient Std. Erro t-Statistic Prob. ================================================== C -6.050610 3.630943 -1.666402 0.0981 PDL01 0.034509 0.016505 2.090798 0.0386 PDL02 -0.008626 0.013262 -0.650385 0.5166 PDL03 -0.007747 0.002358 -3.286186 0.0013 PDL04 0.000644 0.000946 0.680622 0.4974 PDL05 0.000202 4.09E-05 4.943113 0.0000 PDL06 -1.32E-05 1.30E-05 -1.016531 0.3113 ==================================================

37

Verificamos si el coeficiente del quinto grado del polinomio es significativo, de la forma siguiente:

H0 : PDL 06 = 0

t PDL 06 = 1016531 < t( 0.95,126) = 19789706 . .


Por lo tanto, no es significativo. Entonces disminuimos un grado el polinomio y volvemos a verificar la significancia del coeficiente del grado cuarto del polinomio. El comando para estimar es: LS GCP C PDL(IPD, 16, 4) el eviews nos muestra el resultado siguiente: Dependent Variable: GCP Method: Least Squares Sample(adjusted): 1963:1 1996:1 Included observations: 133 after adjusting endpoints ========================================================= Variable Coefficient Std. Erro t-Statistic Prob. ========================================================= C -5.808098 3.623573 -1.602865 0.1114 PDL01 0.035690 0.016467 2.167386 0.0321 PDL02 0.003547 0.005701 0.622171 0.5349 PDL03 -0.007954 0.002349 -3.386001 0.0009 PDL04 -0.000308 0.000135 -2.278716 0.0244 PDL05 0.000206 4.08E-05 5.052374 0.0000 ========================================================= R-squared 0.999819 Mean dependent var 2025.369 Adjusted R-squared 0.999812 S.D. dependent var 1456.228 S.E. of regression 19.97692 Akaike info criterion 8.871096 Sum squared resid 50682.82 Schwarz criterion 9.001487 Log likelihood -583.9279 F-statistic 140257.9 Durbin-Watson stat 0.484322 Prob(F-statistic) 0.000000 ========================================================= Lag Distribution of IPD i Coefficie Std. Error T-Statistic ============================================================ . *| 0 0.49948 0.04026 12.4056 . * | 1 0.22122 0.01176 18.8102 .* | 2 0.06149 0.01836 3.34862 *. | 3 -0.01368 0.02152 -0.63571 *. | 4 -0.03333 0.01861 -1.79085

38

*. | 5 -0.02154 0.01451 -1.48436 * | 6 0.00254 0.01370 0.18539 * | 7 0.02470 0.01553 1.59095 .* | 8 0.03569 0.01647 2.16739 .* | 9 0.03118 0.01536 2.03015 * | 10 0.01180 0.01400 0.84292 *. | 11 -0.01689 0.01589 -1.06299 *. | 12 -0.04438 0.02046 -2.16924 *. | 13 -0.05523 0.02297 -2.40470 *. | 14 -0.02903 0.01876 -1.54705 .* | 15 0.05954 0.01324 4.49886 . * | 16 0.24077 0.04599 5.23524 ============================================================ Sum of Lags 0.97433 0.00304 320.727 ============================================================ Verificamos si el coeficiente del cuarto grado del polinomio es significativo, de la forma siguiente:

H0 : PDL 05 = 0

t PDL 05 = 5.052374 < t( 0.95,127 ) = 19788195347 .


Por lo tanto, es significativo. La estimacin adecuada de la funcin consumo es la siguiente:

GCPt = 5808098244 + 0.4994778688 IPDt + 0.221219823IPDt 1 . + 0.06149146821IPDt 2 0.01368081228 IPDt 3 0.0333281558 IPDt 4 0.02153941711IPDt 5 + 0.00253887094 IPDt 6 + 0.02470249744 IPDt 7 + 0.03568957339 IPDt 8 + 0.03118053171IPDt 9 + 0.01179812725IPDt 10 0.01689256324 IPDt 11 + 0.04438414106 IPDt 12 0.0552268856 IPDt 13 0.02902875434 IPDt 14 + 0.05954461717 IPDt 15 + 0.2407699153IPDt 16
EJEMPLO 6: Especificamos la funcin consumo siguiente:

GCPt = 0 + 1 Rt +

i IPDt i + ut
i =0

se sigue el mismo procedimiento del ejemplo anterior.

39

Determinamos el retardo ptimo: ================================================ M T AKAIKE SCHWARZ R ================================================ 0.000000 148.0000 0.999708 9.307039 9.367793 9.321438 1.000000 148.0000 0.999729 9.240432 2.000000 147.0000 0.999726 9.256498 9.358214 3.000000 146.0000 0.999724 9.270765 9.393379 4.000000 145.0000 0.999724 9.275053 9.418758 5.000000 144.0000 0.999730 9.258455 9.423444 6.000000 143.0000 0.999735 9.245726 9.432199 7.000000 142.0000 0.999739 9.236356 9.444513 8.000000 141.0000 0.999744 9.225159 9.455204 9.000000 140.0000 0.999746 9.222191 9.474332 10.00000 139.0000 0.999755 9.192085 9.466532 11.00000 138.0000 0.999767 9.147645 9.444613 12.00000 137.0000 0.999771 9.135508 9.455214 13.00000 136.0000 0.999777 9.111658 9.454324 14.00000 135.0000 0.999784 9.086885 9.452734 15.00000 134.0000 0.999787 9.078252 9.467514 16.00000 133.0000 0.9998052 8.993054 9.405961 17.00000 132.0000 0.9998051 8.998324 9.435112 18.00000 131.0000 0.999802 9.017919 9.478829 19.00000 130.0000 0.999799 9.038893 9.524168 20.00000 129.0000 0.999795 9.060936 9.570825 =============================================== elegimos el retardo 16 como el ptimo porque tiene el mayor coeficiente de determinacin ajustado y el menor Akaike; si se considerar el criterio Schwarz el ptimo sera 1. Eleccin del grado de polinomio ptimo: El comando para estimar es: LS GCP C R PDL(IPD, 16, 6) el eviews nos muestra el resultado siguiente: Dependent Variable: GCP Method: Least Squares Sample(adjusted): 1963:1 1996:1 Included observations: 133 after adjusting endpoints ================================================== Variable Coefficient Std. Erro t-Statistic Prob. ================================================== C -8.162016 5.836322 -1.398486 0.1645 R 0.499054 1.255326 0.397550 0.6916
2

40

PDL01 -0.010006 0.030947 -0.323329 0.7470 PDL02 -0.005299 0.013311 -0.398116 0.6912 PDL03 0.009571 0.009914 0.965390 0.3362 PDL04 0.000355 0.000954 0.372635 0.7101 PDL05 -0.000650 0.000474 -1.371854 0.1726 PDL06 -8.85E-06 1.31E-05 -0.676314 0.5001 PDL07 9.67E-06 5.36E-06 1.804222 0.0736 ================================================== Verificamos si el coeficiente del sexto grado del polinomio es significativo, de la forma siguiente:

H0 : PDL 07 = 0

t PDL 05 = 1804222 < t( 0.95,124 ) = 19792801166 . .


Por lo tanto, el coeficiente del grado sexto del polinomio no es significativo, entonces estimamos el modelo considerando un polinomio de quinto grado y los resultados del Eviews son: Dependent Variable: GCP Method: Least Squares Sample(adjusted): 1963:1 1996:1 Included observations: 133 after adjusting endpoints ================================================== Variable Coefficient Std. Erro t-Statistic Prob. ================================================== C -8.290242 5.888299 -1.407918 0.1616 R 0.612332 1.265014 0.484052 0.6292 PDL01 0.036662 0.017143 2.138648 0.0344 PDL02 -0.008603 0.013303 -0.646677 0.5190 PDL03 -0.007808 0.002368 -3.297102 0.0013 PDL04 0.000626 0.000950 0.659165 0.5110 PDL05 0.000202 4.11E-05 4.912057 0.0000 PDL06 -1.27E-05 1.30E-05 -0.970754 0.3335 ================================================== Verificamos si el coeficiente del quinto grado del polinomio es significativo, de la forma siguiente:

H0 : PDL 06 = 0

t PDL 06 = 0.970754 < t( 0.95,125) = 197912410942 .


Por lo tanto, no es significativo. El coeficiente del grado quinto del polinomio no es significativo, entonces estimamos el modelo considerando un polinomio de cuarto grado y los resultados del Eviews son:

41

Dependent Variable: GCP Method: Least Squares Sample(adjusted): 1963:1 1996:1 Included observations: 133 after adjusting endpoints ================================================== Variable Coefficient Std. Erro t-Statistic Prob. ================================================== C -8.423679 5.885348 -1.431297 0.1548 R 0.712117 1.260543 0.564929 0.5731 PDL01 0.038139 0.017071 2.234169 0.0272 PDL02 0.003023 0.005791 0.521900 0.6027 PDL03 -0.008015 0.002358 -3.399155 0.0009 PDL04 -0.000286 0.000141 -2.024389 0.0450 PDL05 0.000205 4.09E-05 5.015150 0.0000 ================================================== Verificamos si el coeficiente del cuarto grado del polinomio es significativo, de la forma siguiente:

H0 : PDL 05 = 0

t PDL 05 = 5.01515 < t ( 0.95,126) = 197897060199 .


Por lo tanto, es significativo. La estimacin adecuada de la funcin consumo es la siguiente:

GCPt = 8.423678855 + 0.7121166325Rt + 0.4874192342 IPDt + 0.214724703IPDt 1 + 0.05901103723IPDt 2 0.01343158555IPDt 3 0.03139067077 IPDt 4 0.01873140654 IPDt 5 + 0.005603336277 IPDt 6 + 0.02759300405IPDt 7 + 0.03813936043IPDt 8 + 0.03306648629 IPDt 9 + 0.01312077977 IPDt 10 0.01602904374 IPDt 11 0.04379195161IPDt 12 0.05465459393IPDt 13 0.02818130358 IPDt 14 + 0.06098590386 IPDt 15 + 0.24312733IPDt 16
3.2. RETARDOS INFINITOS Consideremos el modelo de Demanda de saldos reales:

el mecanismo de expectativas adaptativas es:

42

en forma de sumatoria se expresa:

* t +1

i=0

t i

cuando el nmero de retardos es infinito es imposible estimar directamente el modelo, porque no tendramos observaciones suficientes para ello. Esto recibe el nombre de rezago distribuido finito, ya que el nmero de valores rezagados o pasados es finito. son los pesos especficos que se asignan a estos valores pasados. Los modelos de rezago distribuido recibieron mayor atencin en la dcada de 1950, cuando Koyck, Cagan y Nerlove sugirieron utilizar una distribucin infinita de rezagos, con pesos especficos que se reducen en forma geomtrica. Para estimar este modelo es imprescindible imponer a priori algn tipo de restriccin entre los coeficientes, de modo que el modelo pueda transformarse en otro con un nmero reducido de variables. Algunos planteamientos alternativos de distribuciones de retardos infinitos son: 1 Geomtrica:

W ( L) =
2 Pascal:

1 1 L

(1 ) r W ( L) = (1 L) r
3 Racional:

con r entero y positivo

W ( L) =
4

U ( L) V ( L)

con U ( L ) y V ( L ) polinomios de gra do m y n

Gamma:

43

1 s 1 W ( L) = i exp( i) Li ( s ) i =0
5 Exponencial:

m W ( L) = exp pk i k con pm < 0 i =0 k =1

Si los

decrecen de manera geomtrica, es posible escribir:

entonces la suma de la serie infinita es . As,

, y si esta suma es igual a 1, se deber tener

Al sustituir esta expresin en el modelo original, nos da:

esto abarca una serie infinita y los valores infinitos anteriores de

no se observan , es

preciso resolver este problema de alguna forma. Lo que se hace es dividir la serie en dos partes : el pasado observado y el no observado. Las series infinitas se escriben:

La primera parte se observa y se denota por medio de escribirse:

, la segunda parte puede

sustituyendo en el modelo, queda:

44

en realidad el parmetro c no interesa,

dependen de

Aplicaremos el mtodo de estimacin de mxima verosimilitud al modelo:

Mt = 1 + 2 Z1t + t + ut Pt
suponemos:

ut N (0, u2 I T )
El logaritmo de la funcin de verosimilitud es:

Mt T T 1 ln L , Z1t 1 , 2 , , = ln 2 ln u2 2 2 2 u2 Pt

M 1 P t 1 2 Zt t t= t
T

se maximiza la funcin de verosimilitud con respecto a 1 , 2 , y es equivalente a minimizar la suma residual. Por lo tanto, el estimador de mxima verosimilitud coincide con el estimador de mnimos cuadrados ordinarios. Como el parmetro debe tomar valores en el intervalo (-1,1), entonces es posible hacer una particin de dicho intervalo, por ejemplo: -1, -0.9, ..., 0, 0.1, 0.2, ..., 1 y estimar el modelo por mnimos cuadrados ordinarios bajo cada uno de estos valores de , obteniendose:

~ T 1 ~ 2 = ~

Z1t
2 1t

Z
t =1

t =1 T

Z (1 )
t 1t t =1 2 2T

(1 T ) 1
T

1 2

Yt 1 t= T Z Y 1 1t t t= T t Yt t =1
T

45

En general, no tiene mucho sentido suponer que los coeficientes i del modelo original alternan en signo, por lo que se supone inferior a la unidad en valor absoluto, pero positivo; entonces, es el intervalo (0,1) el que se particiona. Tras estimar el modelo suponiendo los diferentes valores de , se escoge aquel valor de que gener una suma residual menor o un coeficiente de determinacin ms alto. Las estimaciones de 1 y 2 son las que se obtuvieron con dicho valor de . Si queremos afinar ms en los valores numricos estimados, puede hacerse una subdivisin de un intervalo alrededor del valor de inicialmente estimado, y repetir el proceso. La matriz de covarianzas apropiada es la inversa de la matriz de informacin, pues el estimador que se ha obtenido es, en realidad, el de mxima verosimilitud. Para ello, habra que obtener la matriz de segundas derivadas de la funcin de
2 verosimilitud con respecto al vector de parmetros 1 , 2 , , , u , puesto que ahora se estiman todos simultneamente. Dicha matriz de covarianzas es:

T ~ 1 ~ 2 1 ~ 2 I = u ~ ~ 2 u

Z
t =1 T t =1

1t

(1 T ) 1

Z12t

Z (1 )
t 1t t =1 2 2T

1 2

Z 1 2 1t + tt 1 t= T Z 1 2 1t + tt 1 Z1t t= T Z 1 2 1t + tt 1 t t= 2 T Z1t t 1 1 2 + t t=
T

0 0 0 0 T 2 2 u

algunas observaciones: 1 2
~ La varianza del estimador u2 es igual a

2 u2 ~ ~ ~ ~ , y es independiente de 1 , 2 , y . T

La submatriz superior de orden 3 x 3 coincide con la matriz que se utiliz para obtener el estimador de mnimos cuadrados ordinarios. Para la estimacin del modelo transformado se sigue el procedimiento siguiente:

Para cada valor de

en el rango ( 0 , 1 ) se construyen las variables:

46

es decir:

y as sucesivamente; y 2

Estimamos el modelo transformado por el mtodo de mnimos cuadrados ordinarios y obtenemos la suma de cuadrados residual. Se escoge el valor de para el que la suma residual es mnimo y obtenemos los valores correspondientes de como los estimados de mnimos cuadrados que se desean.

Si queremos afinar ms en los valores numricos estimados, puede hacerse una subdivisin de un intervalo alrededor del valor de inicialmente estimado, y repetir el proceso anterior. son funciones no lineales de , la estimacin del

Obsrvese que, dado que

modelo transformado involucra el mtodo de mnimos cuadrados no lineales. Sin embargo, para un valor dado de , tenemos un modelo lineal de mnimos cuadrados. As, utilizamos un procedimiento de bsqueda sobre . En la prctica, se elige en intervalos de 0.1 en el primer paso y de 0.01 en el segundo. EJEMPLO 7: Especificamos la funcin consumo siguiente:

GCPt = +
Si los

i IPDt i + ut
i =0

(1)

decrecen de manera geomtrica, es posible escribir:

entonces la suma de la serie infinita es . As,

, y si esta suma es igual a 1, se deber tener

GCPt = +

(1 )i IPDt i + ut
i =0

( 2)

47

rezagamos un periodo el modelo y multiplicamos por

GCPt 1 = +
restando (3) de (2):

(1 )i +1 IPDt i 1 + ut 1
i =0

(3)

GCPt = + (1 ) IPDt + GCPt 1 + (ut ut 1 )


o

GCPt = + * IPDt + GCPt 1 + ut*


el resultado es el modelo del ejemplo 3 y el proceso de estimacin ya se conoce.

4.

CONTRASTE DE EXOGENEIDAD DE HAUSMAN Y WU


Es aconsejable cuestionarse acerca de las propiedades de exogeneidad de las variables explicativas, pues, de no satisfacerse, obtendramos estimadores inconsistentes. Hausman (1978) y Wu (1973) sugieren escribir el modelo a estimar, distinguiendo entre las r variables explicativas Y1 que pueden estar coorrelacionadas con el trmino de error de aquellas K-r variables Z1 cuya ortogonalidad a ut no se cuestiona:

Y = X + u = Y1 + Z1 + u
y supongamos que se dispone de una lista de instrumentos para Y1 , en caso de que se necesitasen. El contraste consiste en: 1 2 Estimar el modelo por mnimos cuadrados ordinarios. Estimar el modelo por el mtodo de variables instrumentales o mnimos cuadrados en dos etapas. La hiptesis que se plantea es: H 0 : Todas las variables explicativas del modelo original son exgenas. El estadstico es:

( MCO VI ) Var(VI ) Var( MCO )

~ ] (
1

MCO

~ VI r2

Un valor elevado del estadstico rebatir tal supuesto y mostrara la necesidad de utilizar un procedimiento de estimacin de variables instrumentales.

48

EJEMPLO 8: Especificamos la funcin consumo siguiente:

GCPt = 0 + 1 IPDt + 2 GCPt 1 + ut se quiere verificar si la variable GCP 1 se puede tratar como exgena. Siguiendo el t
procedimiento, primero se estima el modelo por mnimos cuadrados ordinarios: Dependent Variable: GCP Method: Least Squares Sample(adjusted): 1959:2 1996:1 Included observations: 148 after adjusting endpoints ============================================================ Variable Coefficient Std. Error t-Statistic Prob. ============================================================ C 0.248943 1.870295 0.133104 0.8943 IPD 0.193060 0.022728 8.494528 0.0000 GCP(-1) 0.801910 0.024844 32.27830 0.0000 ============================================================ R-squared 0.999934 Mean dependent var 1854.654 Adjusted R-squared 0.999933 S.D. dependent var 1471.192 S.E. of regression 12.00206 Akaike info criteri 7.828095 Sum squared resid 20887.16 Schwarz criterion 7.888849 Log likelihood -576.2790 F-statistic 1104297. Durbin-Watson stat 1.709616 Prob(F-statistic) 0.000000 ============================================================ A continuacin se estima el modelo por el mtodo de variables instrumentales o mnimos cuadrados en dos etapas: Dependent Variable: GCP Method: Two-Stage Least Squares Sample(adjusted): 1959:2 1996:1 Included observations: 148 after adjusting endpoints Instrument list: C IPD IPD(-1) ============================================================ Variable Coefficient Std. Error t-Statistic Prob. ============================================================ C -4.191603 2.619429 -1.600197 0.1117 IPD 0.298547 0.046882 6.368102 0.0000 GCP(-1) 0.686558 0.051261 13.39348 0.0000 ============================================================ R-squared 0.999925 Mean dependent var 1854.654 Adjusted R-squared 0.999924 S.D. dependent var 1471.192 S.E. of regression 12.86338 Sum squared resid 23992.65 F-statistic 960998.7 Durbin-Watson stat 1.358172 Prob(F-statistic) 0.000000 ============================================================

49

La hiptesis que se plantea es: H 0 : Todas las variables explicativas del modelo original son exgenas.
~ (
MCO

~ ~ ~ VI Var VI Var MCO

)[ ( )

~ )] (
1

MCO

~ . VI = 6.61844563805 > 12 = 384

Por lo tanto, se rechaza la hiptesis nula.

5.

INTERPRETACIN DE LOS MODELOS DINMICOS


Un modelo dinmico ms general, representado por:

Yt = + 0 X t + 1 X t 1 + .....+ q + 1Yt 1 + 2Yt 2 + .....+ pYt p + t


aplicando el operador de retardos se tendr:

A( L)Yt = + B( L) X t + t
dividimos por A(L) el modelo y se obtiene:

Yt =

B( L ) + Xt + t A( L) A( L) A( L)

se puede expresar:

Yt = + D( L) X t + ut
Un modelo es estable cuando cumple alguna de las dos condiciones siguientes: 1 Ante una variacin puntual en el valor de una variable explicativa, la variable dependiente retorna a su valor de equilibrio. Ante una variacin permanente en el valor de una variable explicativa, la variable dependiente evoluciona hacia un nuevo valor de equilibrio.

Se demuestra que para que un modelo dinmico sea estable las races del polinomio A(L) deben ser en valor absoluto mayores que la unidad. Esta condicin de estabilidad nos asegura que la suma de los coeficientes del polinomio D(L) es finita, es decir, la serie es convergente. Por tanto el impacto sobre la variable endgena es finito, pasado un tiempo se retorna al equilibrio o bien, se tiende hacia un nuevo equilibrio. MULTIPLICADORES Y RETARDOS Estos conceptos son importantes al analizar el efecto que, sobre la variable explicada,

50

tiene una variacin unitaria de la variable explicativa. 1 Multiplicador de Impacto o Contemporneo: produce en la variable endgena el perodo actual

(m0 ) representa el cambio que se

(Yt ) ante una variacin unitaria de la exgena en


Yt = 0 X t

( Xt ).
m0 =

Multiplicador de Retardo j: endgena

( jm )

cuantifica el efecto que sobre la variable

(Yt ) tiene una variacin unitaria de la exgena en el perodo t-j ( X t j ) .


mj =

Yt j X t j

en este caso no coincide, porque existe una dependencia implcita de las variables dependientes retardadas. Considerando el polinomio D(L) se tendr que:

mj =
3 Multiplicador Total:

Yt =j X t j

(mT ) es la suma de todos los multiplicadores.


mT =

m
j=0

para que un modelo tenga sentido econmico el multiplicador total debe ser finito. Esto ocurrir siempre que el proceso sea estable y viceversa. 4 Retardo Medio: se define como la media ponderada, por el retardo, de todos los coeficientes del polinomio D(L) es decir,

j j
R. M .=
j =1

j
j =1

La idea del retardo medio es informarnos si el impacto, sobre la variable endgena de una variacin de la exgena, est muy concentrado o diluido en el

51

tiempo. 5 Retardo Mediano: se define como el instante en que se alcanza el 50 % del impacto total que se produce en Yt debido a una variacin en X t .

EJEMPLO 1: Se tena la funcin consumo siguiente:

GCPt = 0 + 1 SYS t + 2 GCPt 1 + ut


el modelo se puede transformar de la forma siguiente:

GCPt 2 GCPt 1 = 0 + 1 SYS t + ut GCPt 2 LGCPt = 0 + 1 SYS t + ut

(1 L)GCP
2

= 0 + 1 SYS t + ut

GCPt =

ut 0 1 + SYS t + (1 2 L) (1 2 L) (1 2 L)

deducimos los multiplicadores, a saber: M1MI = 1 = 0.173464. M1MD1 = 1 2 = c(2)*c(3) = 0.154722.


2 M1MD2 = 1 2 = c(2)*c(3)^2 = 0.138005.

.............. M1MLP =

1 = c(2)/(1-c(3)) = 1.605471. 1 2
2 2 B (1) A (1) 0 = c(3)/(1-c(3)) = 8.2554. = = B(1) A(1) 1 1 2 1 2

Retardo Medio = EJEMPLO 2:

Tenamos la funcin consumo siguiente:

GCPt = 0 + 1 SYS t + 2 Rt + 3 GCPt 1 + ut


el modelo se puede transformar de la forma siguiente:

52

GCPt 3 GCPt 1 = 0 + 1 SYS t + 2 Rt + ut GCPt 3 LGCPt = 0 + 1 SYS t + 2 Rt + ut

(1 L)GCP
3

= 0 + 1 SYS t + 2 Rt + ut

GCPt =

ut 0 1 2 + SYS t + Rt + (1 3 L) (1 3 L) (1 3 L) (1 3 L)

deducimos los multiplicadores, a saber: M2MISYS = 1 = 0.256588. M2MD1SYS = 1 3 = c(2)*c(4) = 0.214135. M2MD2SYS = 1 32 = c(2)*c(4)^2 = 0.178707. .............. M2MLPSYS =
1 = c(2)/(1-c(4)) = 1.550845. 1 3

M2MIR = 2 = -1.823686. M1MD1 = 2 3 = c(3)*c(4) = -1.521957. M1MD2 = 2 32 = c(3)*c(4)^2 = -1.270149. .............. M1MLP =
2 = c(3)/(1-c(4)) = -11.02256. 1 3

Retardo Medio =

3 3 B (1) A (1) 0 = c(4)/(1-c(4)) = 5.0441. = = B(1) A(1) 2 1 3 1 3

CAPITULO II

MODELOS NO LINEALES

1.

INTRODUCCIN
El modelo economtrico es del tipo:

Yt = f ( X t , ) + ut

t = 1,2,..., T

donde f X t , es una funcin no lineal de los componentes de los vectores X t y . Una especificacin no lineal de un modelo economtrico puede estar indicando la incertidumbre del investigador acerca de la verdadera relacin entre las variables del modelo. Por ejemplo:

Ct = 1 + 2 Yt 3 + ut
la estimacin del parmetro 3 permitira contrastar la hiptesis de dependencia lineal o propensin marginal a consumir constante 3 = 1 , frente a otras alternativas (la de una menor sensibilidad del gasto en consumo a variaciones en la renta disponible

< 1) ). Este modelo puede interpretarse como una primera especificacin, para pasar a estimar un modelo lineal si la hiptesis 3 = 1 se acepta en una primera estimacin del
3

modelo. Conviene distinguir entre varios tipos de no linealidades que pueden presentarse en la prctica. Por ejemplo: 1

Yt = 1 + 2 e X 2 t + 3 X 3t X 4 t + ut
La no linealidad del modelo afecta nicamente a sus variables, pero no a sus coeficientes. Asumimos que:

Z2t = e X 2t

Z 3t = X 3t X 4 t

remplazamos en el modelo, nos da:

Yt = 1 + 2 Z 2 t + 3 Z 3t + ut
Por lo tanto, siempre que la no linealidad del modelo afecte nicamente

54

a sus variables explicativas, entonces queda resuelto mediante una transformacin de datos. 2

Yt X t + 1 ln Yt = 2 X t + ut
La no linealidad del modelo afecta tambin a la variables endgena que haga imposible expresarla de modo explcito como funcin de los vectores X t y . La forma funcional de tales modelos es una funcin implcita:

g(Yt , X t , ) = ut

t = 1,2,..., T .

Yt = 1 + 2 e 3 X 2 t + ut
La no linealidad del modelo afecta tan slo a sus coeficientes pero no a sus variables. Podra el modelo expresarse de la siguiente forma:

Yt = 1 + 2* X 2 t + ut
pero no podran recuperarse estimaciones de los coeficientes 2 y 3 , a no ser que se contara con informacin adicional acerca de sus valores numricos (Ejemplo: suma o cociente fuesen conocidos). 4

Yt = 1 + (ln 2 ) X t + ut
La no linealidad del modelo es en los coeficientes sin que ello presente dificultades serias de estimacin; el modelo se expresa:

Yt = 1 + 2* X t + ut
luego se recupera el valor de

($

= e 2 . Pero el valor de 2 as obtenido

$*

no heredara las propiedades estadsticas que pudiera tener el estimador de 5

e 2 .

Yt = 1 + 2 X t 3 + ut
Este modelo es otro modelo no lineal que no puede tratarse por mtodos lineales.

A diferencia de los modelos lineales, en modelos no lineales el nmero de parmetros no coincide necesariamente con el nmero de variables explicativas, como ocurre en los modelos segundo, tercero y quinto.

55

2.

UNA APROXIMACIN LINEAL AL MODELO NO LINEAL


El modelo:

Yt = f ( X t , ) + ut

t = 1,2,..., T .

consistira en obtener la mejor aproximacin lineal (mediante un desarrollo en serie de Taylor) de la funcin f X t , alrededor de un estimador inicial $ y estimar el modelo lineal resultante mediante mnimos cuadrados ordinarios. Dicha aproximacin es:

$ + f ( X t , ) Y f Xt ,

$ =

( $) + u
)

t = 1,2,..., T .

desplazando lo conocido al primer miembro, nos queda: f X t , f Xt , = $ $ = $ + ut Y f X t , $ +

t = 1,2,..., T .

obtenindose el modelo lineal:

f ( X t , ) * Yt
donde,

$ =

+ ut

t = 1,2,..., T .

* $ + f ( X t , ) Yt = Yt f X t ,

$ =

denotamos por
f t $

( ) su valor en el punto = $ .

ft f ( Xt , ) el vector gradiente en cada perodo dimensin K x 1 y por

Yt * , as como las K variables que componen el valor del gradiente de la funcin f ( X t , )

Dada una primera aproximacin al estimador $ , se trata de construir la variable

56

f en el punto = $ t , i = 1,2,..., K . i

Las observaciones muestrales correspondientes a estas variables son funcin de las observaciones muestrales de Yt , X t y del vector $ . A continuacin se estima por mnimos cuadrados ordinarios el modelo lineal:
$ ~ f =

( )

f $

( )

f $

( )

$ $ f f Y* =

( )

( )

f $

( )

f $ Y f X , $ +

( )

remplazando y simplificando nos da:


$ ~ f =

( )

f $

( )
(

f $

( )

f $ u+ $

( )

f $ $ = $ +

( )

f $

( )

f $

( )

$ u

$ donde, u = Y f X , $ es el residuo obtenido con la estimacin inicial de $ . Asimismo tenemos que:

f1 1 $ f2 f f = = 1 ..... fT 1

()

f1 2 f2 2 ..... fT 2

f1 K f2 ..... K ..... ..... fT ..... K


.....

f ( X1, ) f ( X 2 , ) f ( X , ) = ..... f ( X T , )

~~ u u ~ ~ $ = donde u = Y f X , . T K
2 u

2 La estimacin del parmetro u se obtiene similar a un modelo lineal, es decir:

~ ~ f f , entonces la distribucin de Si existe la matriz inversa de probabilidad del estimador de mnimos cuadrados de esta aproximacin lineal es:

( )

( )

57

~ MCO

~ f N , u2

( )

1 ~ f

( )

( T K )$u2

2 u

2 TK

independiente de la distribucin normal del vector . Ejemplo 1: Consideremos la estimacin del modelo no lineal:

GCPt = f ( IPDt , 0 , 1 ) + ut = 0 e 1IPDt + ut


se tiene el vector gradiente:

f t f t = (e 1IPDt , 0 IPDt e 1IPDt ) , 0 1


si los valores iniciales son: 0 = GCP y 1 = 0 . El modelo puede aproximarse linealmente, as:

f t (0 , 1 ) f t (0 , 1 ) $ $ Yt f ( X t , 0 , 1 ) + 1 = 0 + 1 $ = = $ 0 f t (0 , 1 ) f t (0 , 1 ) 0 + +u 1 $ 1 t 0 $ = =
$ $ $ $ $ $ GCPt + 0 1 IPDt e 1IPDT 0 e 1IPDT + 1 0 IPDt e 1IPDT + ut

reemplazando los valores iniciales y aplicando mnimos cuadrados ordinarios nos da el resultado de la primera iteracin, stos parmetros estimados vienen a ser la condicin

58

inicial para la estimacin de la segunda iteracin, as sucesivamente. Para elegir la mejor estimacin tenemos: APROXIMACIN APLICANDO TAYLOR ================================================= I T R2 AJUSTADO AKAIKE SCHWARZ ================================================= 1 149.00 0.9994612 9.9134183 9.9537398 2 149.00 0.9266390 14.414373 14.454694 1.0000000 17.463923 17.504244 3 149.00 4 149.00 0.9999888 17.463906 17.504228 5 149.00 0.9999185 17.383859 17.424181 6 149.00 0.9983820 17.112626 17.152947 7 149.00 0.9439979 14.579590 14.619912 8 149.00 -1.3941428 18.374217 18.414538 ================================================= La mejor estimacin es la primera iteracin, cuyo resultado es: Dependent Variable: _Y+B01*B11*_X*EXP(B11*_X) Method: Least Squares Sample: 1959:1 1996:1 Included observations: 149 ======================================================= Variable Coefficient Std. Error t-Statistic Prob. ======================================================= EXP(B11*_X) -30.23673 4.542309 -6.656688 0.0000 B01*_X*EXP(B11*_X) 0.000502 9.59E-07 523.9418 0.0000 ======================================================= R-squared 0.999465 Mean dependent var 1844.290 Adjusted R-squared 0.999461 S.D. dependent var 1471.661 S.E. of regression 34.16168 Akaike info criteri 9.913418 Sum squared resid 171552.0 Schwarz criterion 9.953740 Log likelihood -736.5497 Durbin-Watson stat 0.351869 ======================================================= Este procedimiento slo dar buenos resultados si las condiciones iniciales estn prximos a los verdaderos valores de y . (a priori no tenemos mucha informacin). Ejemplo 2: Consideremos la estimacin del modelo no lineal:

GCPt = f ( IPDt , 0 , 1 , 2 ) + ut = 0 + 1 IPDt2 + ut

59

se tiene el vector gradiente:

f t f t f t = 1, IPDt2 , 1 IPDt2 ln( IPDt ) , , 0 1 2

se asume que 2 = 1 y estimamos por mnimos cuadrados ordinarios el modelo lineal y nos da:. Dependent Variable: _Y Method: Least Squares Sample: 1959:1 1996:1 Included observations: 149 ==================================================== Variable Coefficient Std. Error t-Statistic Prob. ==================================================== C -30.23673 4.542309 -6.656688 0.0000 _X 0.926281 0.001768 523.9418 0.0000 ==================================================== R-squared 0.999465 Mean dependent var 1844.290 Adjusted R-squared 0.999461 S.D. dependent var 1471.661 S.E. of regression 34.16168 Akaike info criteri 9.913418 Sum squared resid 171552.0 Schwarz criterion 9.953740 Log likelihood -736.5497 F-statistic 274515.0 Durbin-Watson stat 0.351869 Prob(F-statistic) 0.000000 ==================================================== Por lo tanto, los valores iniciales son: 0 = -30.2367319005 , 1 = 0.926280822995 y . 2 = 1 . El modelo puede aproximarse linealmente, as:
f t (0 , 1 , 2 ) f t ( 0 , 1 , 2 ) $ $ 1 + 0 + Yt f ( X t , 0 , 1 , 2 ) + 0 1 = $ = $ f t ( 0 , 1 , 2 ) f t ( 0 , 1 , 2 ) 1 + 0 + 1 0 = $ = $ f t ( 0 , 1 , 2 ) $ 2 2 = $

f t ( 0 , 1 , 2 ) $ 2 + ut 2 = $

$ $ $ $ $ $ GCPt + 1 2 IPDt2 ln( IPDt ) 0 + 1 IPDt2 + 2 1 IPDt2 ln( IPDt ) + ut

reemplazando los valores iniciales y aplicando mnimos cuadrados ordinarios nos da el resultado de la primera iteracin, stos parmetros estimados vienen a ser la condicin inicial para la estimacin de la segunda iteracin, as sucesivamente. Para elegir la mejor estimacin tenemos:

60

APROXIMACIN APLICANDO TAYLOR ================================================= I T R2 AJUSTADO AKAIKE SCHWARZ ================================================= 1 149.00 0.9999972 9.2161800 9.2766621 2 149.00 0.9999964 9.2114934 9.2719756 3 149.00 0.9999975 9.2114927 9.2719748 4 149.00 0.9999974 9.2114927 9.2719748 5 149.00 0.9999974 9.2114927 9.2719748 6 149.00 0.9999974 9.2114927 9.2719748 ================================================= La mejor estimacin es la tercera iteracin, cuyo resultado es: Dependent Variable: _Y+M2B13*M2B23*_X^M2B23*LOG(_X) Method: Least Squares Sample: 1959:1 1996:1 Included observations: 149 ========================================================== Variable Coefficient Std. Error t-Statistic Prob. ========================================================== C 51.69951 7.023200 7.361247 0.0000 _X^M2B23 0.556281 0.023068 24.11473 0.0000 M2B13*_X^M2B23*LOG(_X 1.058673 0.004776 221.6437 0.0000 ========================================================== R-squared 0.999997 Mean dependent var 16939.23 Adjusted R-squared 0.999997 S.D. dependent var 15017.00 S.E. of regression 23.97097 Akaike info criteri 9.211493 Sum squared resid 83892.67 Schwarz criterion 9.271975 Log likelihood -683.2562 F-statistic 29041974 Durbin-Watson stat 0.755780 Prob(F-statistic) 0.000000 ==========================================================

3.

MNIMOS CUADRADOS NO LINEALES


El procedimiento de mnimos cuadrados no depende en modo alguno de la linealidad del modelo, por lo que es aplicable en condiciones ms generales. La lgica del mtodo de mnimos cuadrados es escoger valores de los

$ SR =

( ) (
T t =1

$ Yt f X t ,

))

parmetros de modo que se minimice la suma residual:

61

Tomando derivadas con respecto a cada uno de los componentes del vector $ se tiene:

SR $ T $ ft = 0 $ = 21 Yt f X t , $ 1 1 t= SISTEMA T SR $ $ ft = 0 DE = 2 Yt f X t , $ $2 2 t =1 ECUACIONES NORMALES ............................................................. $ T SR $ ft = 0 = 2 Yt f X t , $ $ K t =1 K

() () ()

( ( (

( ( (

)) )) ))

siendo

ft $ $ y Yt f ( X t , ) escalares.

Este sistema se abrevia:

(
T t =1

Yt f X t , $

))

f t $

( )=0

en forma matricial:

f $

( )

f $ f X , $ Y=

( )

$ Como ut = Yt f X t , $ , entonces rescribimos:

f t $ i

( )

t =1

$ ut = 0

i = 1,2,..., K.

o matricialmente:

f t $

( )

t =1

f $ $ ut =

( )

u= 0 $ K

62

La solucin al sistema de ecuaciones normales es el estimador de mnimos cuadrados no lineales (MCNL). El estimador de mnimos cuadrados del modelo Yt = f ( X t , ) + ut para t = 1, 2, ..., T. es aquel vector de coeficientes $ que genera un vector de residuos ortogonal a cada uno de los componentes del vector gradiente de la funcin f ( X t , ) evaluado en $ . Una diferencia muy importante con el modelo lineal es que, en modelos en que la funcin f ( X t , ) no dependen linealmente del vector , sus derivadas parciales tampoco sern, en general, funciones lineales de los componentes del vector . Esta peculiaridad de los modelos no lineales genera, a su vez, una serie de dificultades: 1 El hecho de que el estimador de MCNL dependa del vector Y, y en consecuencia del vector u en forma no lineal; entonces, en general, ser sesgado. Las propiedades del estimador de MCNL vendrn de su posible relacin con el estimador de mxima verosimilitud. La solucin a un sistema de ecuaciones no lineales puede no ser nica y, por tanto, un modelo no lineal puede poseer varios estimadores mnimo cuadrticos. Pudiera ser que el estimador de mnimos cuadrados no existiese, pues un sistema de ecuaciones no lineales no siempre tiene solucin (diferente al caso lineal).

Hay que resolver el sistema de ecuaciones normales o el problema de optimizacin del que stas proceden por mtodos numricos (algoritmos), como por ejemplo: 1 De Bsqueda.Es aplicable cuando K, nmero de parmetros a estimar, es pequeo (uno o dos) y el rango de sus valores admisibles est acotado. El algoritmo consiste: Construir una particin de dicho intervalo.

i) ii) iii)

Evaluar la funcin F ( ) en cada uno de los puntos de la particin. Elegir como estimador aquel punto que proporciona un valor numrico

ms pequeo de la funcin F . 2 Del Descenso Ms Rpido.Una estrategia posible para tratar de minimizar el valor de la funcin F ( )

( )

63

consiste en desplazarnos de un vector inicial 0 a otro 1 , de acuerdo con la expresin:

$1 = $0 F ($0 )

>0

donde la eleccin del parmetro > 0 , que se conoce como longitud de paso, es crucial para reducir efectivamente el valor de F ( ) . En efecto, si el valor de

$ $ fuese excesivamente grande, entonces pudiera ser que F $1 > F $0 , lo cual


implicara que el algoritmo podra no converger. 3 Newton - Raphson.Supongamos que disponemos de una estimacin $n del mnimo $ de una funcin continuamente diferenciable. Si consideramos un entorno pequeo del punto $n el valor numrico de F en un punto de dicho entorno puede aproximarse mediante un desarrollo en serie de Taylor de orden 2. Este algoritmo se utiliza de un modo iterativo, utilizando la nueva estimacin como punto de partida en cada etapa del algoritmo y llevando a cabo iteraciones hasta que se satisfagan los criterios de convergencia que el investigador haya estipulado. Lo utilizan los mnimos cuadrados general y mxima verosimilitud. 4 De Scoring.Diseado para el caso en que se pretende obtener el estimador de mxima verosimilitud, este algoritmo se basa en la propiedad de que la esperanza matemtica de la matriz hessiana de la funcin de verosimilitud (matriz de informacin cambiada de signo) tiene una expresin analtica ms sencilla que la propia matriz de derivadas segundas. Como aproximacin, se ha sugerido sustituir la matriz de derivadas segundas por la matriz de informacin, tenindose el llamado algoritmo de scoring :

( )

( )

$n = $n 1 + I $n 1
i) ii)

[ ( )]

ln L $n 1

( )

Las ventajas son: Converge ms lentamente que el algoritmo de Newton - Raphson. La matriz de informacin es siempre definida positiva, entonces no hay problema en seguir una direccin inapropiada.

64

Una vez lograda la convergencia, el estimador alcanzado tiene como matriz de covarianzas la inversa de la matriz de informacin. 5 Gauss - Newton.Es una variante del algoritmo de Newton - Raphson, til cuando se trata de estimar por mnimos cuadrados un modelo no lineal, en el que la funcin objetivo es:

F ( ) = SR( ) =

[Y
T t =1

f (Xt , )

el algoritmo de Gauss - Newton consiste en ignorar el trmino que contiene la segunda derivada de f t en el hessiano (Porque su contribucin es muy pequea); entonces se sustituye el hessiano por la matriz simtrica, definida positiva:

T ft ft t =1
por lo que el algoritmo de Gauss - Newton resulta:

T ft ft T ft $ = $ + n u n 1 t =1 t =1 t n 1 n 1
Si se logra la convergencia del algoritmo, el estimador resultante tiene distribucin asinttica normal, con esperanza igual a , y matriz de covarianzas:

T ft ft Var ( ) = u2 t =1
donde el parmetro
2 u

se estima mediante $ =
2 u

SR $

T K

( ) , donde K denota el

nmero de coeficientes estimados. En el caso de un modelo de regresin lineal, la expresin anterior del algoritmo Gauss- Newton se reduce, como es lgico, a la que proporciona el estimador de mnimos cuadrados ordinarios:

65
T T $= X t X t X t Yt t =1 t =1 1

Cuando el tamao muestral crece, el estimador de mnimos cuadrados obtenido por alguno de los algoritmos numricos tiene una distribucin normal, con esperanza y matriz de covarianza:

$ T f Xt , Var $ = u2 t =1

( )

f X , $ t

2 donde el parmetro u se estima:

$u2 =

$ $ uu T K

donde

$ u = Y f X , $

Los habituales contrastes de hiptesis mediante estadsticos t o F son vlidos, sin ms que utilizar las expresiones anteriores en el clculo de la matriz de covarianzas. Las condiciones bajo las que los resultados anteriores son vlidas incluyen la existencia de un nico mnimo global de la funcin SR y la no singularidad de la matriz lmite.

( )

$ 1 f p lim T T
Ejercicio:

( )

f $

( )

Las condiciones de optimalidad para la obtencin del estimador MCNL seran:

SR $ , $ SR $ , $

( ) = 2 ( ) = 2

[(
T t =1 T t =1

Yt $e X t e X t = 0 $e X t X t e X t = 0
$

) ]
$

[(Y

que carecen de solucin explcita. Suponiendo que el sistema pudiera resolverse, la matriz de covarianzas estimada de las estimaciones sera:

66

T $ = 2 f $ , $ f $ , $ Var $ , u t t t =1

( )

( ) ( )

T 2 X t e t =1 2 = u T 2 X t X t e t =1

X t e 2 X t T 2 X t2 e 2 X t t =1

donde,

$u2 =
Ejemplo 2:

(
T t =1

Yt $e X t T2

Estimar el modelo siguiente:

GCPt = 0 + 1 IPDt2 + ut
si la condicin inicial es:

0 = 30.23673

1 = 0.926281

2 = 1

Aplicando mnimos cuadrados no lineales en el Eviews se obtiene el resultado siguiente: Dependent Variable: GCP Method: Least Squares Sample: 1959:1 1996:1 Included observations: 149 Convergence achieved after 24 iterations GCP=C(1)+C(2)*IPD^C(3) ============================================================ Coefficient Std. Error t-Statistic Prob. ============================================================ C(1) 51.69854 7.024917 7.359310 0.0000 C(2) 0.556285 0.023101 24.08103 0.0000 C(3) 1.058672 0.004783 221.3328 0.0000 ============================================================ R-squared 0.999738 Mean dependent var 1844.290 Adjusted R-squared 0.999735 S.D. dependent var 1471.661 S.E. of regression 23.97097 Akaike info criteri 9.211493 Sum squared resid 83892.66 Schwarz criterion 9.271975 Log likelihood -683.2562 Durbin-Watson stat 0.755779 ============================================================

67

Ejemplo 1: Estimar el modelo no lineal siguiente:

GCPt = 0 e 1IPDt + ut
si los valores iniciales son: 0 = GCP y 1 = 0 . Aplicando mnimos cuadrados no lineales en el Eviews se obtiene el resultado siguiente:
Dependent Variable: GCP Method: Least Squares Sample: 1959:1 1996:1 Included observations: 149 Convergence achieved after 4 iterations GCP=C(1)*EXP(C(2)*IPD) ============================================================ Coefficient Std. Error t-Statistic Prob. ============================================================ C(1) 1844.284 121.1642 15.22136 0.0000 C(2) 0.000156 1.96E-05 7.966532 0.0000 ============================================================ R-squared 0.446024 Mean dependent var 1844.290 Adjusted R-squared 0.442256 S.D. dependent var 1471.661 S.E. of regression 1099.070 Akaike info criteri 16.85565 Sum squared resid 1.78E+08 Schwarz criterion 16.89597 Log likelihood -1253.746 Durbin-Watson stat 0.000443 ============================================================

4.

EL ESTIMADOR DE MXIMA VEROSIMILITUD


La obtencin del estimador de mxima verosimilitud precisa de un determinado supuesto acerca de la distribucin de probabilidad del trmino de error. Supongamos que u N (0, u2 I T ) , la funcin de verosimilitud muestral es:

L( ,

2 u

1 = 2 e 2 u

T 2

1 2 2 u

(
t =1

2 Yt f ( X t , )

2 y su logaritmo, evaluado en $ , $u es:

68

$ , $ 2 = T ln 2 T ln $ 2 1 SR $ ln L u u 2 2 2$u2
donde,

( )

SR $ =

( ) (Y f ( X , $))
T t =1 t t

Por lo tanto,

2 Si el parmetro u no depende de ninguno de los parmetros , entonces escoger el

vector de parmetros $ que maximice la funcin de verosimilitud (o su logaritmo) es equivalente a escoger el vector $ que minimice la suma residual SR $ .

( )

Si el trmino de error sigue una distribucin de probabilidad Normal y si su varianza es independiente de los componentes del vector , entonces los estimadores de mxima verosimilitud y de mnimos cuadrados, si existen, coinciden. Las condiciones necesarias para la maximizacin de la funcin de verosimilitud son:

$ ln L $ , $u2 1 SR 1 = = 2 2 $u 2$u $

( (

) )

( )

(
T t =1

Yt f X t , $

))

f t $

( )=0

(K (1

ecuaciones) ecuacion)

ln L $ , $u2 T 1 = 2 2 + $u 2$u 2$u4

(
T t =1

Yt f X t , $

))

=0

cuyas soluciones proporcionan las estimaciones de mxima verosimilitud del vector y el


2 parmetro u bajo la hiptesis de normalidad. 2 La ltima ecuacin genera la estimacin de mxima verosimilitud de u :

$u2 =
despus de la estimacin del vector .

SR $ T

( )

La matriz de covarianzas del estimador de mxima verosimilitud puede aproximarse,

69

para muestras grandes, por la inversa de la matriz de informacin. Para calcular dicha matriz, se obtiene las derivadas de segundo orden del logaritmo de la funcin de verosimilitud y se calcula su esperanza matemtica. Es decir:
2 2 ln L 1 SR( ) = 2 u2 1 SR( ) 2 ln L = u2 2 u4 2 ln L T SR( ) = u2 u2 2 u4 u6

2 ln L 1 E = 2 u2

ft ft 1 t= i ji
T

2 ln L = 0K E u2 2 ln L T = E u2 u2 2 u4

donde,

SR( )

2 SR( ) y es el gradiente de la suma residual y su matriz hessiana,

formada por las derivadas de segundo orden. De la segunda esperanza se concluye, que las estimaciones de mxima verosimilitud 2 del vector y del parmetro u son independientes segn crece el tamao muestral. La matriz de informacin es:

1 2 2 I ( , u ) = u

$ f

()

f $

()

0K

0K T 2 u4
1

si invertimos y sustituimos los parmetros desconocidos por sus estimaciones, se obtiene:

Var $ , $u2

MV

f $ u2 =

( )

f $

( )

0K

0K 4 2 u T

70

si se cumple que: 1 2 3 el trmino de error siga una distribucin de probabilidad normal. el tamao de la muestra sea suficientemente grande.
f $ la matriz

( )

f $

( )

sea no singular.

En la prctica slo se dispone de muestras finitas, por lo que la matriz anterior es slo una aproximacin a dicha matriz de covariazas. Ejemplo 2: Estimar el modelo siguiente:

GCPt = 0 + 1 IPDt2 + ut
si la condicin inicial es:

0 = 30.23673

1 = 0.926281

2 = 1

Aplicando mxima verosimilitud en el Eviews se obtiene el resultado siguiente: System: SYS01 Estimation Method: Full Information Maximum Likelihood (Marquardt) Sample: 1959:1 1996:1 Included observations: 149 Total system (balanced) observations 149 Convergence achieved after 32 iterations ============================================================= Coefficient Std. Error t-Statistic Prob. ============================================================= C(1) 51.76558 16.63088 3.112619 0.0022 C(2) 0.556083 0.035386 15.71498 0.0000 C(3) 1.058713 0.007116 148.7785 0.0000 ============================================================= Log Likelihood -683.2562 Determinant residual covariance 563.0384 ============================================================= Equation: GCP=C(1)+C(2)*IPD^C(3) Observations: 149 R-squared 0.999738 Mean dependent var 1844.290 Adjusted R-squared 0.999735 S.D. dependent var 1471.661 S.E. of regression 23.97097 Sum squared resid 83892.72 Durbin-Watson stat 0.755801 =============================================================

71

Ejemplo 1: Estimar el modelo no lineal siguiente:

GCPt = 0 e 1IPDt + ut
si los valores iniciales son 0 = GCP = 1844. y 1 = 0 . Aplicando mnimos cuadrados no lineales en el Eviews se obtiene el resultado siguiente:
System: SYS02 Estimation Method: Full Information Maximum Likelihood (Marquardt) Sample: 1959:1 1996:1 Included observations: 149 Total system (balanced) observations 149 Convergence achieved after 15 iterations ============================================================ Coefficient Std. Error t-Statistic Prob. ============================================================ C(1) 1844.290 122.1742 15.09558 0.0000 C(2) 0.000156 2.69E-05 5.792957 0.0000 ============================================================ Log Likelihood -1253.746 Determinant residual covariance 1191749. ============================================================ Equation: GCP=C(1)*EXP(C(2)*IPD) Observations: 149 R-squared 0.446020 Mean dependent var 1844.290 Adjusted R-squared 0.442252 S.D. dependent var 1471.661 S.E. of regression 1099.074 Sum squared resid 1.78E+08 Durbin-Watson stat 0.000443 ============================================================

5.

TRANSFORMACIN DE BOX - COX


El modelo es:

Y = + X + u
que se encuentra en un gran nmero de estudios recientes es la transformacin Box - Cox,

X 1 X =

72

Si es conocido entonces es una regresin lineal que puede estimarse por mnimos cuadrados. Por ejemplo, si:

=0 =1 = 1

X = Log( X ) X = X X = 1 X

otros valores de dan lugar a otras muchas formas funcionales diferentes. Si se toma como un parmetro desconocido, la regresin se convierte en no lineal en los parmetros. Aunque ninguna transformacin la reducira a la linealidad, los mnimos cuadrados no lineales no plantean complicaciones. En la mayora de los casos, podemos esperar que el valor estimado por mnimos cuadrados de est entre -2 y 2. Por tanto, habitualmente se estima buscando en este rango con incrementos de 0.1. Cuando es igual a cero, la transformacin se efecta utilizando la regla de LHopital:

d ( X 1)d X 1 lim = lim = lim X ln X = ln X 0 0 0 1


Si se encuentra un mnimo de la suma de cuadrados y se desea mayor precisin, se pueden examinar las reas a derecha e izquierda del ptimo actual con incrementos de 0.01 y as sucesivamente. Una vez que se ha localizado el valor ptimo de las estimaciones de mnimos cuadrados, el residuo medio cuadrtico y este valor de constituyen las estimaciones por mnimos cuadrados no lineales de los parmetros (y, si se da normalidad en los errores, las de mxima verosimilitud). Una vez que se ha determinado el valor ptimo de , a veces es tratado como si fuese un valor conocido en los resultados de mnimos cuadrados. Pero $ es una estimacin de un parmetro desconocido; entonces los errores estndar de mnimos cuadrados siempre infraestimarn los errores estndar asintticos correctos. Ejemplo 2: Estimar el modelo siguiente:

GCPt = 0 + 1 IPDt2 + ut
aplicando el algoritmo de bsqueda tenemos el cuadro siguiente:

73

MODELO
GCPt = 0 + 1 ln IPDt + ut

0 0.1 0.2 0.3

S. R. 34267075 27992884 22300599 17235346 12827798 9093879. 6035293. 3640734. 1887626. 744174.1 171552.0 126052.1 561070.0
1428841.

IPDt 1 +u GCPt = 0 + 1 t

0.4 0.5 0.6 0.7 0.8 0.9

GCPt = 0 + 1 IPDt + ut
IPDt 1 + ut GCPt = 0 + 1

1 1.1 1.2 1.3

se elige la estimacin con menor suma residual siendo el resultado: Dependent Variable: GCP Method: Least Squares Sample: 1959:1 1996:1 Included observations: 149 ============================================================ Variable Coefficient Std. Error t-Statistic Prob. ============================================================ C 104.4731 3.722355 28.06639 0.0000 (IPD^1.1-1)/1.1 0.427658 0.000700 611.2752 0.0000 ============================================================ R-squared 0.999607 Mean dependent var 1844.290 Adjusted R-squared 0.999604 S.D. dependent var 1471.661 S.E. of regression 29.28306 Akaike info criteri 9.605227 Sum squared resid 126052.1 Schwarz criterion 9.645549 Log likelihood -713.5894 F-statistic 373657.4 Durbin-Watson stat 0.523119 Prob(F-statistic) 0.000000 ============================================================

74

Aplicando el algoritmo de bsqueda para el intervalo ]1.0,1.1[ tenemos los resultados siguientes: MODELO

1.01 1.02

S. R. 144034.0 121743.7 104635.3 92662.35 85778.41 83936.76 87090.47

IPDt 1 +u GCPt = 0 + 1 t

1.03 1.04 1.05 1.06 1.07

se elige la estimacin siguiente: Dependent Variable: GCP Method: Least Squares Sample: 1959:1 1996:1 Included observations: 149 ============================================================ Variable Coefficient Std. Error t-Statistic Prob. ============================================================ C 53.99643 3.089224 17.47896 0.0000 (IPD^1.06-1)/1.06 0.582905 0.000778 749.1422 0.0000 ============================================================ R-squared 0.999738 Mean dependent var 1844.290 Adjusted R-squared 0.999736 S.D. dependent var 1471.661 S.E. of regression 23.89557 Akaike info criteri 9.198595 Sum squared resid 83936.76 Schwarz criterion 9.238917 Log likelihood -683.2953 F-statistic 561214.1 Durbin-Watson stat 0.756293 Prob(F-statistic) 0.000000 ============================================================

6.
6.1.

CONTRASTE DE RESTRICCIONES
RESTRICCIONES LINEALES Si H 0 : d = R$ r ( elemento de holgura o discrepancia ) incluso si la hiptesis fuese cierta, no debe esperarse que el vector de discrepancia fuese exactamente igual a cero, al menos debido al error muestral. Por lo tanto, la tarea del investigador debe decidir si dicho

75

vector de discrepancia es suficientemente grande como para hacer imposible el mantenimiento de la hiptesis nula. El vector de discrepancia es una funcin lineal del estimador $ , que tiene una distribucin normal; entonces d tendr una distribucin normal, bajo la hiptesis nula. Si H 0 es cierta, se tiene:

E ( d ) = E R$ r = RE $ r = R r = 0 q
1 Var ( d ) = Var R$ r = RVar $ R = u2 R( X X ) R

( )

( )

Estos resultados sugieren la realizacin del contraste de H 0 utilizando el criterio de Wald:

W = d [Var ( d ) ] d q2
1
2 En la prctica se desconoce el valor de u , por lo que se divide W, que depende tan slo de la estimacin de mnimos cuadrados ordinarios del vector de coeficientes, por otra 2 forma cuadrtica que depende slo de la estimacin de u ; como ambas estimaciones son independientes entre s, el cociente de ambas formas cuadrticas se distribuyen como F.

6.2.

RESTRICCIONES NO LINEALES

Si H 0 : R

( ) = r y suponemos que la matriz R( )

de orden q x K, con q < K tiene

rango igual a q (menos restricciones que parmetros, y que las restricciones no son redundantes).

(d = R($) r ) , existiendo algunas diferencias:


1

El contraste se lleva a cabo en funcin del tamao del vector de discrepancia

R $ es funcin no lineal, entonces E R($) no es igual a RE ($) , pero por la


consistencia del estimador de mnimos cuadrados ordinarios, podemos afirmar:

( )

p lim R $ = R p lim $
2

( )

no se puede mantener la distribucin

en muestras finitas para la forma cuadrtica

76

utilizada en la construccin de los estadsticos t o F. (Debido a la no linealidad). 6.3. CONTRASTE F Si se estima el modelo por mnimos cuadrados mediante la aproximacin lineal vista (serie de Taylor) la distribucin del estadstico:

[ SR($ ) SR($)]
R

F=

SR $

()

F( q ,T K )

T K
no es conocida en muestras finitas. 6.4. CONTRASTE WALD La dificultad reside en el clculo de la varianza de la diferencia funcin no lineal del estimador

R $ r , que es

( )

$ . Para calcular, se obtiene una aproximacin lineal: R( ) $ R($ ) R( ) + ( )


$ R( ) Var $ R( ) Var R

( ( ))

siendo

matriz q x K y la varianza de

R $ se aproxima:

( )

El estadstico:

[ ( ) ][

R $ r VarR $

( )] [ ( ) ]
1

R $ r

q2

para cuyo clculo slo precisamos del estimador sin restringir, y que es asintticamente equivalente a q veces el estadstico F.

CAPITULO III VARIABLE DEPENDIENTE CUALITATIVA Y LIMITADA


1. MODELOS DE ELECCION DISCRETA
Los modelos de eleccin discreta consideran una variable indicadora dependiente. Esta variable indicadora podr tomar dos o ms valores, si toma slo dos valores (cero o uno) se trata de una variable dicotmica. Existen numerosos ejemplos de variables explicadas, a saber:

Existen tambin muchos mtodos de analizar los modelos de regresin en lo que el valor de la variable dependiente es cero o uno. Por ejemplo: el modelo de probabilidad lineal, la funcin discriminante, modelo probit y modelo logit. 1.1. MODELO DE PROBABILIDAD LINEAL Se utiliza para denotar un modelo de regresin en el que la variable dependiente Y es dicotmica, y toma el valor de uno o cero. Por simplicidad, asumiremos una sola variable explicativa (X). La variable Y es una variable indicadora que denota la ocurrencia o no ocurrencia de un evento. El modelo se describe como:

con

. La esperanza condicional , se interpreta como la . ) nos da

probabilidad de que ocurre el evento, dado

El valor calculado de Y a partir de la ecuacin de regresin (

la probabilidad estimada de que ocurre el evento, dado un valor especfico para X. En la prctica, estas probabilidades estimadas pueden encontrarse fuera del rango admisible (0, 1).

78

Las razones por las cuales no se puede aplicar mnimos cuadrados ordinarios son: 1 La no normalidad de las perturbaciones.Dado que toma los valores de 1 o 0 entonces los errores en la

regresin tomar los valores siguientes:

En realidad los

siguen una distribucin binomial. Aunque el mtodo de

mnimos cuadrados ordinarios no requiere esto, se asumen con fines de inferencia estadstica. Por lo tanto, existe un problema con la aplicacin de las pruebas usuales de significancia. El supuesto de normalidad no es tan crtico, porque las estimaciones puntuales de mnimos cuadrados ordinarios siguen siendo insesgados; adems, a medida que aumenta indefinidamente el tamao de la muestra los estimadores de mnimos cuadrados ordinarios tienden por lo general a tener una distribucin normal. Por lo tanto, para muestras grandes, la inferencia estadstica de los modelos de probabilidad lineal seguir el procedimiento usual de mnimos cuadrados ordinarios bajo el supuesto de normalidad. 2 La varianza de la perturbacin es heterocedstica.Las probabilidades respectivas de los eventos son:

se tiene que:

sacando factor comn (

) y simplificando nos da:

tambin se puede expresar de la siguiente forma:

79

La varianza de condicional de

es heterocedstica porque depende de la esperanza .

, que depende del valor que tome

Los estimados de mnimos cuadrados ordinarios de no sern eficientes. Es posible utilizar el procedimiento siguiente para estimar el modelo: I.Se estima el modelo (ecuacin 1) por mnimos cuadrados ordinarios y a continuacin se calcula . Se estima por mnimos cuadrados ponderados el modelo transformado siguiente:

II.-

se soluciona el problema heterocedstico, pero subsiste los otros. 3 La prediccin cae fuera de los limites ( 0 , 1 ).La crtica ms importante se refiere a la propia formulacin, que la esperanza condicional puede estar fuera de los lmites (0,1). El grfico de la siguiente pgina revela la acumulacin de puntos sobre y . Es fcil que los valores predichos se encuentren fuera del intervalo (0,1) y que los errores de prediccin sean muy grandes.

Existen dos mtodos para saber si los estimadores entre 0 y 1; son:

estn efectivamente

80

1.-

Estimar el modelo de probabilidad lineal por mnimos cuadrados ordinarios y ver si los se encuentran entre 0 y 1, si alguno de ellos es menor a cero entonces se supone que para estos casos mayores a 1, se suponen iguales a uno. es cero; si son

2.-

Disear una tcnica de estimacin que garantice que las probabilidades condicionales estimadas de estn entre 0 y 1. Los modelos Logit y Probit garantizarn que todas las probabilidades estimadas se encuentren entre los lmites lgicos 0 y 1.

La medida de bondad de ajuste.El coeficiente de determinacin considerado tiene un valor limitado en los modelos de respuesta dicotmica. El coeficiente de determinacin ser alto, nicamente cuando la dispersin especfica est muy cercana a los puntos A y B del grfico anterior, puesto que en este caso es fcil fijar la lnea recta uniendo los dos puntos. En este caso el predicho est muy cerca de 0 o 1. John Aldrich y Forrest Nelson plantean que el uso del coeficiente de determinacin como un estadstico resumen debe evitarse en aquellos modelos que contengan variables dependientes cualitativas.

1.2.

EJEMPLO El modelo especificado es:

Las variables se definen: NOMBRE CAPAGO CLIENTE EDAD GARANTA INTERS DEFINICIN CAPACIDAD DE PAGO CONDICIN DEL CLIENTE EDAD DEL CLIENTE MONTO DE LA GARANTA TASA DE INTERS EFECTIVA MENSUAL UNIDAD DE MEDIDA NUEVOS SOLES PUNTUAL = 1 MOROSO = 0 AOS NUEVOS SOLES PORCENTAJE

81

NOMBRE NUMCUOTA PERODO PRSTAMO SEXO VALCUOTA

DEFINICIN NMERO DE CUOTAS DURACIN DEL PRSTAMO MONTO DEL PRSTAMO SEXO VALOR DE LA CUOTA

UNIDAD DE MEDIDA

MESES NUEVOS SOLES MASCULINO = 1 FEMENINO = 0 NUEVOS SOLES

Para estimarlo se dispone de informacin estadstica recopilada de una institucin financiera del Departamento de Piura. El mtodo de estimacin es mnimos cuadrados ponderados y el procedimiento a seguir es el siguiente: 1 Estimar el modelo por mnimos cuadrados ordinarios Se escribe en el Eviews: LS CLIENTE C EDAD PRESTAMO SEXO PERIODO a continuacin se oprime ENTER y nos da el resultado siguiente: Dependent Variable: CLIENTE Method: Least Squares Sample: 1 60 Included observations: 60 =========================================================== Variable Coefficient Std. Error z-Statistic Prob. =========================================================== C -0.815473 0.306770 -2.658258 0.0103 EDAD 0.014550 0.005161 2.819315 0.0067 PRESTAMO 1.89E-05 9.95E-06 1.895651 0.0633 SEXO 0.159441 0.110854 1.438297 0.1560 PERIODO 0.064383 0.022997 2.799581 0.0070 =========================================================== R-squared 0.332861 Mean dependent var 0.516667 Adjusted R-squared 0.284341 S.D. dependent var 0.503939 S.E. of regression 0.426316 Akaike info criteri 1.212381 Sum squared resid 9.995971 Schwarz criterion 1.386910 Log likelihood -31.37144 F-statistic 6.860387 Durbin-Watson stat 1.511575 Prob(F- statistic) 0.000149 ===========================================================

82

Se realiza la estimacin de la probabilidad de la siguiente forma: Abrir la ecuacin Procs Forecast OK y se muestra un grfico y el software crea un icono con el nombre que se le coloc a la estimacin (CLIENTEF). Para observar los resultados de la variable CLIENTEF se da dos clic y paquete nos muestra lo siguiente:

CLIENTEF ========================================================== Modified: 1 60 // fit(f=actual) clientef 1 0.417364 1.104751 0.155492 0.803627 0.554091 6 0.814965 0.515421 0.486014 0.909758 0.899076 11 0.475652 0.765374 0.770710 1.321578 0.987106 16 0.536256 0.575847 1.014905 0.341672 0.405989 21 0.230938 0.643846 0.488985 0.437800 0.606510 26 0.259805 0.262450 0.206271 0.085420 0.620479 31 0.717948 -0.136817 0.397171 0.315820 0.243069 36 0.389929 0.804237 0.755200 0.045541 0.188897 41 0.618349 0.155769 0.417060 0.830059 0.278586 46 1.075758 0.486799 0.248942 0.408926 0.518848 51 0.317095 0.186445 0.067943 0.465541 0.483412 56 0.673622 0.643638 0.507839 0.651220 0.545000 ========================================================== 3 Estimamos la varianza generndola de la siguiente forma: GENR W = CLIENTEF * ( 1 - CLIENTEF ) y el Eviews nos da el siguiente resultado: W ===================================================== Modified: 1 60 // w=clientef*(1-clientef) 1 0.243171 -0.115724 0.131314 0.157811 0.247074 6 0.150797 0.249762 0.249804 0.082099 0.090738 11 0.249407 0.179577 0.176716 -0.424990 0.012728 16 0.248686 0.244247 -0.015127 0.224932 0.241162 21 0.177606 0.229308 0.249879 0.246131 0.238656 26 0.192306 0.193570 0.163723 0.078124 0.235485 31 0.202498 -0.155536 0.239426 0.216078 0.183987 36 0.237884 0.157440 0.184873 0.043467 0.153215 41 0.235993 0.131505 0.243121 0.141061 0.200976 46 -0.081498 0.249826 0.186970 0.241706 0.249645 51 0.216546 0.151683 0.063327 0.248813 0.249725 56 0.219855 0.229368 0.249939 0.227132 0.247975 =====================================================

83

Por ltimo, se estima el modelo transformado por mnimos cuadrados ordinarios, es decir, se aplica mnimos cuadrados ponderados. El comando que se aplica es el siguiente: Quick Estimate Equation escribir en la pantalla en blanco lo siguiente: CLIENTE C EDAD PRESTAMO SEXO PERIODO, luego clic en OPTIONS se marca WEIGHTED LS / TSLS y en Weight se escribe: 1 / SQR( W ) OK OK y se muestra el siguiente resultado:

Dependent Variable: CLIENTE Method: Least Squares Sample: 1 60 Included observations: 55 Excluded observations: 5 Weighting series: 1/SQR(W) ========================================================== Variable Coefficient Std. Error z-Statistic Prob. ========================================================== C -0.861520 0.236827 -3.637769 0.0007 EDAD 0.014138 0.005080 2.782852 0.0076 PRESTAMO 2.84E-05 1.09E-05 2.597112 0.0123 SEXO 0.187273 0.106147 1.764279 0.0838 PERIODO 0.064795 0.019214 3.372355 0.0014 ========================================================== Weighted Statistics ========================================================== R-squared 0.639966 Mean dependent var 0.496512 Adjusted R-squared 0.611163 S.D. dependent var 0.632757 S.E. of regression 0.394567 Akaike info criteri 1.064452 Sum squared resid 7.784153 Schwarz criterion 1.246937 Log likelihood -24.27243 F-statistic 13.15823 Durbin-Watson stat 1.394854 Prob(F- statistic) 0.000000 ========================================================== Unweighted Statistics ========================================================== R-squared 0.290121 Mean dependent var 0.490909 Adjusted R-squared 0.233330 S.D. dependent var 0.504525 S.E. of regression 0.441760 Sum squared resid 9.757613 Durbin-Watson stat 1.391563 ========================================================== Las variables edad, prstamo y periodo son significativas al 5% (Prob < 0.05) y la variable sexo es significativa al 10 % (Prob < 0.10) y el modelo es estadsticamente significativo al 5 % (Prob < 0.05).

84

Se predice dentro de la muestra con la instruccin siguiente: Abrir la ecuacin Procs Forecast OK y se muestra un grfico y el software crea un icono con el nombre que se le coloc a la estimacin (CLIENTEF1). Para observar los resultados de la variable CLIENTEF1 se da dos clic y paquete nos muestra lo siguiente: CLIENTEF1 ========================================================= Modified: 1 60 // modproblin.fit(f=actual) clientef1 1 0.453183 1.264643 0.135592 0.836835 0.598836 6 0.850146 0.519971 0.488047 1.081373 0.993891 11 0.530495 0.822073 0.907713 1.590984 0.994447 16 0.531559 0.572147 0.991846 0.311970 0.395700 21 0.185995 0.640793 0.466289 0.421358 0.568752 26 0.200522 0.216839 0.177498 0.057164 0.580712 31 0.705757 -0.186881 0.349757 0.259422 0.188732 36 0.333220 0.805080 0.713630 0.020425 0.178108 41 0.585508 0.103903 0.390143 0.822291 0.239000 46 1.073549 0.468637 0.223544 0.397997 0.464635 51 0.294014 0.161586 0.019346 0.446526 0.426291 56 0.618380 0.623329 0.494666 0.619459 0.525189 ========================================================= y los resultados se comparan con los valores observados de la variable endgena, obteniendose 42 predicciones correctas ( 20 para CLIENTE = 1 y 22 PARA CLIENTE = 0) y nos da un Coeficiente de Bondad de Conteo de 70 %. 1.3. MODELO LOGIT Y PROBIT Un enfoque alternativo es suponer un modelo de regresin:

no se observa ( se conoce como variable " latente " ). Lo que se observa es una variable indicadora definida por:

La diferencia entre la especificacin (2) y el modelo de probabilidad lineal es que en este ltimo se analizan las variables dicotmicas tal como son, en tanto que en (2) se supone la existencia de una variable latente subyacente para la que se observa una

85

evidencia dicotmica. Ejemplo: 1 la persona tiene o no empleo. la propensin o capacidad de encontrar empleo. 2 si la persona compra o no un automvil. el deseo o capacidad de adquirir un automvil. por lo tanto, las variables explicativas de (2) contendrn variables que expliquen ambos elementos. Supongamos que Combinando (2) y (3) obtenemos: , esto nos permite fijar la escala de .

donde F es la funcin de distribucin acumulada de u. Si la distribucin de u es simtrica, entonces anterior se puede escribir: , la expresin

Los

Observados son slo realizaciones de un proceso binomial cuyas

probabilidades estn dadas por (4) y que varan de un ensayo a otro (de pendiendo de ), entonces la funcin de verosimilitud se puede escribir:

La forma funcional para F en (4) depender de la suposicin en torno al trmino de error u. Se ha creado un problema de estimacin porque sino tambin en los es no lineal no solamente en

; entonces, no se puede estimar mediante mnimos cuadrados

ordinarios. En esta situacin, es preciso recurrir al mtodo de mxima verosimilitud para estimar los parmetros. El mtodo de mxima verosimilitud consiste en la maximizacin de la funcin de verosimilitud (ecuacin 5) para el modelo LOGIT y PROBIT y sto se logra por medio de mtodos no lineales de estimacin. La funcin de verosimilitud es cncava (no tiene

86

mltiples mximos) y, por lo tanto, cualquier valor inicial de los parmetros ser til. Es costumbre comenzar las iteraciones para el modelo logit y probit con los estimados del modelo de probabilidad lineal. Si la informacin disponible es sobre familias individuales, donde familia posee una casa y el mtodo de mxima verosimilitud. 1.3.1. CONSTRUCCIN DE UN MODELO LOGIT O PROBIT Los requisitos para la construccin de un modelo logit o probit son: 1 Contar con una muestra representativa de clientes cumplidos e incumplidos, cuyo tamao mnimo se establece va criterios estadsticos. Contar con suficiente informacin de los clientes contenida en sus solicitudes de crdito o expedientes. Seleccionar las posibles variables explicativas de la probabilidad de default de los clientes, en base al conocimiento o experiencia previa y a procedimientos estadsticos (test de significancia individual). Escoger el modelo ms apropiado en base a tests estadsticos sobre la "bondad de ajuste" o "calidad predictiva" del modelo. El procedimiento a seguir es: 1 2 El significado de las variables aparece en el tem 1.2. Buscar el mejor modelo explicativo de la probabilidad de default (cumplimiento) de los clientes, en base al siguiente procedimiento general: Realizacin de regresiones bivariables y seleccin de variables explicativas segn signo y significancia estadstica individual (escogemos las de probabilidad menor del 10 por ciento). Se estiman varias regresiones de la siguiente forma: si una

si no la posee; entonces el modelo a estimar es (5) por

2.1.

Clientei = + X i + ui
para seleccionar la variable se requiere analizar: el signo correcto, la significancia de (si es altamente significativo, significativo o relativamente significativo) y el 2.2.

R 2 (debe estar entre 0.2 y 0.6).

Comparacin de correlaciones entre variables a fin de eliminar el problema de

87

multicolinealidad. Entre las variables correlacionadas optamos por la de mayor R2 de Mc Fadden. Una vez identificadas las variables ms relevantes a partir de modelos bivariables, podemos descartar algunas de ellas en base a su correlaciones. Variables altamente correlacionadas (con coeficientes de correlacin mayores a 0.5) resultan redundantes, es decir, basta con que me quede con una de ellas en el modelo, ya que si las incluyo todas sus significancias estadsticas individuales tienden a ser bajas (no se puede distinguir el impacto de cada una de ellas sobre la variable dependiente). El criterio prctico es eliminar las variables correlacionadas con menor significancia estadstica individual en las regresiones bivariables, con menor R2 (Mc Fadden). Para obtener la Matriz de Correlaciones entre variables, aplico: Quick/Group Statistics/Correlations y se escribe el nombres de las variables seleccionadas en el tem anterior. 2.3. Construccin de modelos multivariables en sus versiones logit, probit y lineal incorporando las variables escogidas luego de los pasos 1 y 2. Los modelos se van perfilando para dejar slo las variables estadsticamente significativas (probabilidad menor del 10 por ciento). Con las variables explicativas escogidas, luego de los pasos 2.1. y 2.2. se estima el modelo en su versin logit, probit o lineal. El modelo se perfila para dejar slo las variables con signos adecuados y estadsticamente significativas (prob < 0.10). 2.4. Evaluacin de los modelos alternativos en base a siguientes criterios arrojados por el programa E-views: 1.2.3.4.Signo correcto de los coeficientes. Significancia estadstica individual de los parmetros de acuerdo al z-statistic y su probabilidad correspondiente. Significancia conjunta del modelo. Bondad de ajuste en base a R2 de Mc Fadden, Expectation-Prediction Table, Goodness-of-Fit Test (Hosmer-Lemeshow). A) Bondad de ajuste: La regla prctica nos dice que este valor debe encontrarse entre 0.2 y 0.6 para considerarse aceptable en el contexto de la modelacin de probabilidades.

Se han sugerido varias medidas de bondad de ajuste para este tipo de modelos, por ejemplo: 1.La correlacin entre CALF y CALFF al cuadrado:

88

2.-

Basada en la suma de cuadrados residual:

3.-

Amemiya:

4.-

Mc - Fadden:

= =

Funcin de Mxima Verosimilitud con respecto a todos los parmetros. Funcin de Mxima Verosimilitud cuando se hace con la restriccin

5.-

Cragg - Uhler:

6.-

R2 de conteo:

B) Expecation-Prediction Table: Esta prueba nos permite averiguar cul es el porcentaje de acierto en las predicciones que obtiene el modelo.

89

C) Goodness-of-Fit Test:

(test de Hosmer-Lemeshow). Esta prueba parte de agrupar las observaciones en quantiles y evala el desempeo del modelo en cada uno de ellos en trminos del nmero de observaciones que predice el modelo que deben ubicarse en cada quantil vs el nmero de observaciones real. Por defecto, me indica que la informacin se va a agrupar en 10 quantiles o grupos segn niveles. Lo ideal es que el nmero total de observaciones por quantil sea el ms grande posible (prueba para muestras grandes). Se recomienda hacer esta prueba con el mayor nmero posible de observaciones posible en cada quantil.

5.-

Criterio de Hannan Quinn (por ser una "funcin de prdida", conviene minimizarlo frente a los modelos alternativos). Este es un criterio para comparar modelos alternativos. La regla es escoger el modelo con menor H-Q (no se aplica al MLP).

6.-

Curva de Respuesta de Probabilidad de cada variable explicativa del modelo. Esta prueba es ratificatoria del test de significancia estadstica individual de las variables explicativas. Nos permite evidenciar mediante un grfico ad hoc si cada una de estas variables tiene poder para discriminar entre buenos y malos pagadores, partiendo de un valor "c" como parmetro de corte entre quienes se consideran dentro de ambas categoras; usualmente este valor se sita en 0.5, es decir, quienes tienen una probabilidad de cumplir menor o igual que 0.5 (50 por ciento), se asumen como malos clientes y los que tienen una mayor, buenos clientes.

2.5.

Seleccin del modelo final en base a la perfomance relativa de ste al comparar, entre modelos alternativos, los resultados de los test sugeridos en el tem anterior. Lo primero que cabe destacar es que, en el caso del MLP, los efectos marginales de las variables explicativas son constantes para todos los individuos, mientras que en los casos del logit y el probit, estos efectos son diferentes para cada individuo, dependiendo de los valores de las variables explicativas que lo caracterizan. Usualmente, en los modelos logit y probit se calculan los efectos

90

marginales de una variable o regresor para cada individuo, a fin de tener una idea del rango de variacin de dichos efectos y se asume que el promedio de estos efectos individuales es una buena aproximacin al "efecto marginal global" de la variable (si se quiere tener un nmero - resumen), lo cual, desde luego, parte de la premisa de que se cuenta con una muestra suficientemente representativa. Pese a que los parmetros j de cada regresor, en los modelos logit y probit, no nos miden, por s solos el, efecto marginal de dicho regresor, si nos indican la direccin (signo) del cambio inducido en la probabilidad por la variable explicativa. 2.6. Una vez elegido el modelo final, clculo de los efectos marginales respectivos Los efectos de los cambios en las variables explicativas sobre las probabilidades de que cualquier observacin pertenezca a uno de los dos grupos, son proporcionados por:

donde: estndar.

es la funcin de densidad normal

1.3.2. MODELO LOGIT PARA DATOS AGRUPADOS Si la distribucin acumulada de LOGIT, es decir: es logstica, se tiene el llamado modelo

donde

Las probabilidades son:

91

El cociente entre ambas probabilidades es:

aplicando logaritmo neperiano, nos da:

En el modelo de probabilidad lineal se supone

como funcin lineal de las

variables explicativas; aqu, la razn logartmica de momios o logit es una funcin lineal de las variables explicativas. Tiene las siguientes caractersticas: 1.Dado que P va de 0 a 1, es decir, a medida que Z vara entre y el logit est entre y . En otras palabras, aunque las probabilidades se encuentran entre 0 y 1, los logit no tienen estos lmites. Aunque el logit es lineal en X, las probabilidades mismas no lo son, en contraste con el modelo de probabilidad lineal, donde las probabilidades aumentan linealmente con X. La interpretacin del modelo logit es: mide el cambio en logit por un cambio unitario en X, es decir, nos muestra cmo vara la factibilidad del logit en favor de poseer una casa a medida que X cambia en una unidad. Si es relativamente grande y si cada observacin en una clase de , est

2.-

3.-

distribuida en forma independiente como una variable binomial, entonces:

por lo tanto, el trmino de perturbacin en el modelo logit es heterocedstico y el mtodo de estimacin adecuado es mnimos cuadrados ponderados. El procedimiento para estimar una regresin logit (7) es:

92

(1)

Para cada nivel de como .

, se calcula la probabilidad estimada de poseer una casa

(2)

Para cada valor de

, obtngase el logit como:

(3)

Para solucionar el problema de heterocedasticidad, se transforma as:

donde las ponderaciones con varianza igual a si

, porque

se distribuye normal

es suficientemente grande.

(4)

Estimar el modelo transformado utilizando mnimos cuadrados ordinarios (es un modelo sin intercepto). Establecer los intervalos de confianza y/o las pruebas de hiptesis en el marco usual de mnimos cuadrados ordinarios, pero manteniendo en mente que todas las conclusiones sern validas, si la muestra es razonablemente grande. Para pequeas muestras los resultados estimados deben interpretarse cuidadosamente.

(5)

1.3.3. MODELO PROBIT PARA DATOS AGRUPADOS Si los errores NORMIT), es decir: siguen una distribucin normal, se tiene un modelo PROBIT (o

donde

es un ndice de conveniencia no observable que est determinado por una o

varias variables explicativas, as:

y t es la variable normal estandarizada, es decir, t se distribuye

Es razonable suponer que para cada familia hay un nivel crtico o umbral del ndice, , tal que si excede a , ocurre el evento, de lo contrario no suceder. El

93

umbral

al igual que

no es observable, pero si se supone que esta distribuido

normalmente con la misma media y varianza. Por lo tanto, es posible estimar los parmetros y los valores del ndice no observable. Es decir, la probabilidad sera:

Como

representa la probabilidad de que un evento ocurra, P se mide por el hasta . Para obtener la informacin de y , tomamos el inverso de la funcin de distribucin

rea de la curva normal estndar desde , como tambin de probabilstica acumulada normal.

Se ha creado un problema de estimacin porque sino tambin en los ordinarios. Si

es no lineal no solamente en

; entonces, no se puede estimar mediante mnimos cuadrados

es relativamente grande y si cada observacin en una clase de

, est

distribuida en forma independiente como una variable binomial, entonces:

por lo tanto, el trmino de perturbacin en el modelo probit es heterocedstico y el mtodo de estimacin adecuado es mnimos cuadrados ponderados. El procedimiento para estimar una regresin probit es: (1) Para cada nivel de como . , se calcula la probabilidad estimada de poseer una casa

(2)

Dado

, obtngase el ndice de utilidad como:

(3)

Para solucionar el problema de heterocedasticidad, se transforma as:

94

donde las ponderaciones con varianza igual a si

, porque

se distribuye normal

es suficientemente grande.

(4)

Estimar el modelo transformado utilizando mnimos cuadrados ordinarios (es un modelo sin intercepto). Establecer los intervalos de confianza y/o las pruebas de hiptesis en el marco usual de mnimos cuadrados ordinarios, pero manteniendo en mente que todas las conclusiones sern validas, si la muestra es razonablemente grande. Para pequeas muestras los resultados estimados deben interpretarse cuidadosamente.

(5)

Si la informacin esta agrupada o replicada (observaciones repetidas), entonces se puede obtener informacin sobre la variable dependiente y el ndice de utilidad; por lo tanto, el modelo a estimar se aplica mnimos cuadrados ponderados. 1.3.4. MODELO LOGIT VERSUS MODELO PROBIT Desde el punto de vista terico, la diferencia entre ambos modelos es la distribucin de probabilidades (normal para el modelo probit y logstica para el modelo logit); ambas distribuciones estn muy prximas entre s, excepto en los extremos, la logstica tiene colas ligeramente ms planas, es decir, la curva normal o probit se acerca a los ejes ms rpidamente que la curva logstica. Por esta razn, no es probable obtener resultados muy diferentes, a menos que las muestras sean grandes. Sin embargo, los estimados de los parmetros de ambos mtodos no son y la

directamente comparables; porque la distribucin logstica tiene una varianza

distribucin normal tiene una varianza de 1. Entonces ambos coeficientes se relacionan de la siguiente forma:

Amemiya sugiere multiplicar los estimados LOGIT por 1/1.6 = 0.625 porque esta transformacin produce una aproximacin ms cercana entre la distribucin logstica y la funcin de distribucin normal estndar. Es decir, la relacin sera:

Tambin sugiere que los coeficientes del modelo de probabilidad lineal

95

y los coeficientes del modelo logit

se relacionan as:

Aplicando regla de tres simple logramos encontrar la relacin entre los coeficientes del modelo probit y el modelo de probabilidad lineal, que nos da:

Si se tiene muestras de tamaos desiguales, no se afectan la estimacin de los coeficientes de la variables explicativas del modelo logit, pero si se afecta el trmino constante. Este resultado no es valido para el modelo probit ni para el modelo de probabilidad lineal. Si el modelo estimado se utiliza para propsitos de prediccin, es necesario ajustar el trmino constante. Desde el punto de vista prctico, es generalmente utilizado con preferencia el modelo logit sobre el modelo probit. 2. MODELOS DE ELECCIN MLTIPLE Existen varias formas en que se pueden analizar este problema: 1 Con datos no ordenados: se utiliza cuando las alternativas que presenta la variable endgena no indican ningn orden. Pueden ser:

1.1.

Multinomial, se utiliza cuando los regresores del modelo hacen referencia a las observaciones muestrales, por lo que varan entre observaciones pero no entre alternativas. Condicional, se utiliza cuando los regresores del modelo hacen referencia a las alternativas, por lo que sus valores varan entre alternativas pudiendo hacerlo o no entre observaciones. Con datos ordenados: se utiliza cuando las alternativas de la variable endgena representan un orden entre ellas.

1.2.

Generalizaremos los resultados anteriores a casos en los que los individuos hacen elecciones entre tres o ms alternativas mutuamente excluyentes. Un modelo multinomial de respuesta cualitativa se define de la siguiente forma:

96

Asume que la variable dependiente Yi toma el modelo multinomial vendr dado:

mi + 1 valores {0, 1, 2, ..., mi }, entonces


y j = 1,2,..., mi .

P(Yi = j ) = FY X * , ;
*

i = 1,2,..., n

donde X y son vectores de variables independientes y parmetros respectivamente. De esta forma, mi depende de un i en particular cuando los individuos tienen diferentes conjuntos de eleccin. Para definir el estimador de en el modelo usualmente se definen

in = 1 (mi + 1)

variables binarias, de la forma:

= 1 Yij = 0

si si

Yi = j Yi j; i = 1,2..., n y j = 1,2,..., mi .

La funcin de verosimilitud viene definida como:

ln L =

Yij ln
i =1 j = 0

mi

Fij

$ donde el estimador insesgado de se define como una solucin a la ecuacin:

ln L = 0.
Los modelos multinomiales de respuestas cualitativas se pueden clasificar en modelos ordenados y no ordenados. 2.1. MODELOS ORDENADOS Un modelo ordenado se define como:

P(Y = j X , ) = p S j
sucesivos

( )
jS j

para alguna medida de probabilidad p, sobre X y , y una secuencia finita de intervalos

{S } que depende sobre X y tal queU


j

= .

En los modelos ordenados, los valores que Y toma, corresponden a una particin sobre la lnea real. A diferencia de modelo no ordenado, donde la particin correspondera a particiones no sucesivas sobre la lnea real o a particiones de dimensiones mayores sobre el espacio euclidiano. En la mayora de las aplicaciones, el modelo ordenado toma la forma:

97

P(Y = j X , , ) = F j +1 X F j X ; j = 0,1,..., m; 0 = ; j j +1 ; m+1 =

Para alguna distribucin F, se puede definir un modelo Logit ordenado o Probit ordenado. 2.1.1. MODELO LOGIT El modelo logit multinomial se define como:

mi P(Yi = j ) = exp X ij exp X ij ; i = 1,2,..., n y j = 0,1,..., mi k =0

Mc Fadden (1974) considera el siguiente modelo multiecuacional derivado del problema del consumidor. Considere a un individuo i cuyas utilidades estn asociadas con tres alternativas, de la forma siguiente:

U ij = ij + ij , con j = 0,1,2
donde U ij no es una funcin estocstica sino deterministica. Por otro lado, ij es el usual trmino aleatorio de error. De esta forma, el individuo elige aquella alternativa en la que obtiene la mayor utilidad. El multinomial logit se puede derivar del problema de maximizar la utilidad s y slo s los ij son independientes y la funcin de distribucin de ij viene dada por exp

[exp( ) ]. De esta manera, la probabilidad de que el i


ij

individuo elija una alternativa j, ser:

P(Yi = 2) = P(U i 2 > U i1 ,U i 2 > U i 0 ) P(Yi = 2) = P( 2 + 2 1 > 1 , 2 + 2 0 > 0 ) P(Yi = 2) = exp( i 2 ) exp( i 0 ) + exp( i1 ) + exp( i 2 )

y tomar una forma parecida a la definicin del modelo logit multinomial s hacemos i 2 i 0 = X i2 y i1 i 0 = X i1 . 2.2. MODELOS NO ORDENADOS Se enfocara el caso en que las alternativas no estn ordenadas.

98

2.2.1. MODELO LINEAL DE PROBABILIDAD Si asumimos que hay tres opciones j = 1, 2, 3, escribimos el modelo:

P i = 1 + 1 X i 1

P2i = 2 + 2 X i

P3i = 3 + 3 X i Xi

Pji

es la probabilidad de que el individuo i elegir la j sima opcin, mientras que

es el valor de X para el j simo individuo. Para estimar cada una de las tres ecuaciones en el modelo por mnimos cuadrados ordinarios, no es necesario ejecutar las tres regresiones lineales de probabilidad. Dado que las probabilidades estimadas estn restringidas para sumar 1, los interceptos estimados para sumar 1 y los parmetros de pendiente para sumar 0. Entonces, slo se necesita ejecutar dos de las tres regresiones de mnimos cuadrados. La solucin para los parmetros de la tercera ecuacin se deriva de las primeras dos. 2.2.2. MODELO LOGIT En este tipo de modelos las alternativas de la variable respuesta indican la pertenencia de las observaciones a un determinado grupo sin incorporar informacin ordinal. La formulacin de un Logit Multinomial queda recogida a travs de la siguiente ecuacin:

Pr ob(Yi = j ) = Pij =

e
j 1 j =0

Xi j Xi j

Donde para el caso sencillo de un modelo en el que la variable endgena presenta tres posibles alternativas de eleccin y slo existe una variable explicativa en la modelizacin, la probabilidad asociada a cada una de las alternativas posibles de eleccin tomaran las siguientes expresiones:

1 + e1 + 1 Xi + e2 + 2 Xi e1 + 1 Xi P0 = 1 + e1 + 1 Xi + e2 + 2 Xi
con

P0 =

e1 + 1 Xi P0 = 1 + e1 + 1 Xi + e2 + 2 Xi

P0 + P + P2 = 1 . 1

99

3.

MODELO CON VARIABLE DEPENDIENTE LIMITADA Existen un gran nmero de datos cuya observacin nos muestra que estn limitados o acotados de alguna forma. Este fenmeno lleva a dos tipos de efectos: el truncamiento y la censura. El efecto de truncamiento ocurre cuando la muestra de datos es extrada aleatoriamente de una poblacin de inters, por ejemplo, cuando se estudia el ingreso y la pobreza se establece un valor sobre el cual el ingreso se encuentra por encima o por debajo del mismo.. De esta forma, algunos individuos podrn no ser tenidos en cuenta. Por otro lado, censurar es un procedimiento en el cual los rangos de una variable son limitados a priori por el investigador; este procedimiento produce una distorsin estadstica similar al proceso de truncamiento.

3.1.

MODELO TRUNCADO Una distribucin truncada es la parte de una distribucin no truncada antes o despus de un valor especfico; imagnese por ejemplo que nosotros deseamos conocer la distribucin de los ingresos anteriores a 100,000 o el nmero de viajes a una zona mayores de 2, sta ser tan slo una parte de la distribucin total. Si una variable continua aleatoria X, tiene una funcin de densidad de probabilidades, y a es una constante, entonces:

f ( X X > a) =

f (X) Pr ob( X > a )

si X tiene una distribucin normal con media y desviacin estndar

, entonces:

a Pr ob( X > a ) = 1 = 1 ( )
donde

( )

es funcin de densidad acumulativa, entonces la

distribucin normal truncada ser:

f ( X X > a) =

2 f (X) = 1 ( ) 1 ( )

1 ( X ) 2 2 2 e 2

1 X = 1 ( )

donde ser la funcin de densidad de probabilidades normal estndar. La distribucin normal estndar truncada con

= 0 y = 1 para a igual a -0.5, 0 y 0.5, ser:

100

Si

X N , 2

] con constante, entonces la media vendr dada por:

E [ X truncamiento] = + ( )
y la varianza por:

var[ X truncamiento] = 2 (1 ( ))
donde

= (a ) /

. Por otro lado, nosotros observamos que:

( ) = ( ) =

( ) 1 ( )
( ) 1 ( )

si el truncamiento ocurre en X > a si el truncamiento ocurre en X < a

Tomando el logaritmo de la distribucin normal truncada, y al realizar la suma de los logaritmos de estas densidades, se obtiene:

n 1 ln L = ln( 2 ) + ln 2 2 2 2

(Yi X i )
i

ln1
i =1

a X i

Las condiciones necesarias para maximizar ln L sern:

101

ln L = ln L = 2

Yi X i i 2 Xi = 0 i =1
n

1 (Yi X i ) 2 X 2 2 + 2 4 2i 2i = 0 i =1
n

donde i

a i X i

i =

( i ) . 1 ( i )

3.2.

MODELO CENSURADO Un procedimiento normal con datos microeconmicos, consiste en censurar la variable dependiente. Cuando la variable dependiente es censurada, los valores en un determinado rango son todos transformados a un valor singular. De esta forma, si definimos una variable aleatoria y transformada de la variable original como:

Y = 0 si Y * 0

Y = Y * si Y * > 0

El grfico de la distribucin censurada es:

Pr ob(Y = 0) = Pr ob Y * 0 = = 1

La distribucin correspondiente a Y si

N , 2

) ser:

Y * > 0 y tiene la densidad de Y * , entonces la distribucin tiene partes discretas y

102

continuas, donde la probabilidad total ser de 1como se requiere. Para lograr esto, se asigna la probabilidad total en la regin censurada al punto de censuramiento. La media de una variable censurada vendr dada por:

E (Y ) = a + (1 )( + )
y la varianza:

Var (Y ) = 2 (1 ) (1 ) + ( )

]
= ; 1

d o n d e :

a = ( ) = Pr ob Y * a = ;

= 2 .
3.3. MODELO TOBIT El modelo Tobit se origin en el estudio de consumo de bienes no perecederos por parte de las economas domsticas; el importe dedicado al consumo de estos bienes se anula en el caso de familias que no pueden dedicar un mnimo de renta a la adquisicin de este tipo de productos. As, el modelo Tobit es de la forma:

+ 1 xi + ui yi = 0 mi

si y* mi i * si y i < mi

en el que el valor mi es el lmite mnimo por debajo del cual la variable endgena no puede caer. Este modelo puede considerarse como uno de eleccin binaria, en el que la variable endgena toma valores dependientes de las exgenas o bien un mnimo que no depende de stas. Supongamos que definir como: se observa si , y no si . Entonces, se

asume que

103

Se le llama modelo Tobit o probit de Tobin o modelo censurado de regresin normal, debido a que se censura (no se permite observar) algunas observaciones de (aquellas que ). El objetivo es estimar los parmetros y . Ejemplo 1.Se especifica la demanda de automviles de la siguiente forma:

donde Son los gastos en automviles y x el ingreso. En la muestra habra un gran nmero de observaciones para las cuales los gastos en automviles son cero. El modelo censurado de regresin se puede especificar como:

2.-

Si existen observaciones sobre varias personas, de las cuales slo algunas tienen empleo, podemos especificar el modelo:

Caso horas trabajadas,

Caso salarios,

Mtodo de estimacin La estimacin de y mediante mnimos cuadrados ordinarios no se puede utilizar con observaciones positivas , pues cuando se escribe el modelo:

el trmino de error

no tiene media cero. Dado que las observaciones con

se omiten, esto supone que slo se incluyen en la muestra las observaciones para las

104

cuales

. Por lo tanto, la distribucin de

es normal truncada y su media no

es cero. La Distribucin normal truncada es:

donde la funcin de densidad estndar normal es:

y la funcin de distribucin acumulada estndar normal es:

Un mtodo de estimacin que se sugiere comnmente es el de mxima verosimilitud, que es el siguiente:

si maximizamos la funcin de verosimilitud con respecto a estimados de mxima verosimilitud de estos parmetros.

, obtendremos los

Los modelos Tobit se refiere a modelos censurados o truncados donde el rango de la variable dependiente se restringe de alguna forma. Dado el creciente uso de los modelos tipo Tobit, Amemiya realiz la laboriosa tarea de clasificar, los modelos Tobit de acuerdo con similitudes en la funcin de verosimilitud. La caracterizacin de los tipos de modelos Tobit es la siguiente:

105

TIPO
Y1

VARIABLE DEPENDIENTE
Y2 Y3

1 2 3 4 5

CENSURADO BINARIO CENSURADO CENSURADO BINARIO

CENSURADO CENSURADO CENSURADO CENSURADO

CENSURADO CENSURADO

CAPITULO IV

MODELOS MULTIECUACIONALES

1.

INTRODUCCIN En el modelo bsico de regresin y para cualquier punto muestral t tenemos:

yt = 1 x1t + 2 x2 t +....+ k x kt + ut
expresndolo en matrices nos da:

yt = X t + ut
donde,

yt Xt

escalar del valor de la variable endgena en el punto t. vector fila 1 x K de los valores de todas las exgenas en el punto t. vector columna K x 1 de parmetros del modelo. escalar de la variable aleatoria en el punto t.

Para el conjunto de todos los valores muestrales ( t = 1, 2, ..., T), la correspondiente expresin matricial, es:

siendo, Y X

vector columna T x 1 de valores de la endgena. matriz T x K de valores de las exgenas. vector columna K x 1 de parmetros del modelo. vector columna T x 1 de las perturbaciones aleatorias.

En el contexto de un modelo multiecuacional con g variables endgenas y k exgenas (o predeterminadas), una ecuacin cualquiera que incluyese todas las variables y en la que la endgena cuyo comportamiento quisisemos explicar fuera (ecuacin h-sima) adopta la siguiente expresin:

considerando nulo el coeficiente de En forma matricial resulta:

en el segundo miembro, es decir,

108

donde,

vector fila de los valores de todas las endgenas en el punto t. vector columna de los valores de los parmetros de las variables endgenas del modelo. vector fila de los valores de todas las exgenas en el punto t. vector columna de los parmetros de las variables exgenas del modelo.

Para el conjunto de todos los valores muestrales ( t=1,2,...,T), puede expresarse la misma ecuacin matricialmente de la siguiente forma:

siendo,

vector columna de todos los valores muestrales de la variable endgena h. matriz de todos los valores muestrales de las variables endgenas del modelo, excepto la variable h. vector columna de los valores de los parmetros de las variables endgenas del modelo. matriz de todos los valores muestrales de las exgenas del modelo. vector columna de los parmetros de las variables exgenas del modelo. vector columna de las perturbaciones aleatorias.

Para el modelo en su conjunto, referido a todos los valores muestrales, la expresin matricial ser:

que viene a ser la FORMA ESTRUCTURAL del modelo, pasamos miembro y nos queda:

al primer

sacamos factor comn Y por la derecha, tenemos:

despejndose las g endgenas del sistema de g ecuaciones, da:

109

viene a ser la FORMA REDUCIDA del modelo. 1.1. TIPOS DE MODELOS MULTIECUACIONALES Los modelos multiecuacionales se clasifican: 1 Modelos Recursivos (o en cadena causal (Wold) o recurrente) Cada variable endgena depende, adems de las variables predeterminadas especficas de cada ecuacin, de otras endgenas, pero sin que existan relaciones recprocas de causalidad; as:

o sea, influye sobre , pero no se da la relacin de causalidad inversa, de sobre . Es adecuado el procedimiento de estimacin de los mnimos cuadrados ordinarios, porque los trminos de error de las ecuaciones estn incorrelacionadas entre s. 2 Modelos Bloque Recursivo o Bloque Recurrente Las ecuaciones pueden repartirse en grupos tales que entre ellas su relacin es de carcter recursivo; ejemplo:

la tercera ecuacin (un bloque) determina a partir de y (otro bloque), sobre las que no influye, aunque stas si lo hagan simultneamente entre s. Si el primer bloque est identificado, estas ecuaciones pueden estimarse utilizando la tcnica de los mnimos cuadrados en dos etapas y para el segundo bloque es preciso utilizar el procedimiento de los mnimos cuadrados ordinarios. 3 Modelos interdependientes o de ecuaciones simultneas Existen relaciones causales mltiples entre todas las variables endgenas del sistema. Ejemplo:

110

La simultaneidad de ecuaciones no permite un tratamiento aislado de cada una de las ecuaciones. En este caso, que existe correlacin entre los trminos de error de varias ecuaciones, es conveniente proceder a una estimacin conjunta de parmetros. El mtodo adecuado de estimacin depende de la identificacin de cada ecuacin del modelo. 4 Modelos de ecuaciones aparentemente no relacionadas Se trata tpicamente de ecuaciones similares referidas a diversas partes de un total (por ejemplo, tasas de actividad por grupos de sexo y edad, demanda de diferentes productos, etc.), que impide una independencia total entre las perturbaciones de cada ecuacin y las de las restantes del sistema. Ejemplo:

Los modelos de ecuaciones aparentemente no relacionadas (Seemingly unrelated equations) presentan correlacin entre los trminos de error de las ecuaciones del modelo; por lo tanto, el mtodo adecuado de estimacin es mnimos cuadrados trietpicos. Si las perturbaciones de cada ecuacin no estn relacionadas entre s (estn incorrelacionadas) no existir, evidentemente, ninguna relacin entre las tres ecuaciones; entonces la estimacin minimocuadrtica ordinaria es perfectamente apropiada.

2.

ESPECIFICACIN DE UN MODELO MULTIECUACIONAL En el proceso de construccin de un modelo multiecuacional es conveniente realizar un diagrama causal, esto es, un grafo en el que mediante flechas se indican cules son las variables causa y cules las efecto o explicadas (endgenas). Las perturbaciones aleatorias son variables latentes o no observables, de naturaleza aleatoria, que influyen sobre las variables endgenas y que se representan dentro de un crculo para indicar que no son medibles directamente. Las interrelaciones entre las variables predeterminadas, o entre las perturbaciones aleatorias se representan mediante lneas que unen las variables relacionadas. Las variables endgenas son aquellas a las que apunta alguna flecha en un diagrama causal, y las predeterminadas son aquellas variables medibles de las que parte alguna flecha pero a las que no apunta ninguna. El modelo se formula a partir del diagrama causal, y, si las relaciones son lineales,