Vous êtes sur la page 1sur 28

Multicolinealidad.

El trmino multicolinealidad se atribuye a Ragnar Frisch. Originalmente, designaba una


relacin lineal perfecta o exacta entre algunas o todas las variables explicativas de un
modelo de regresin. Para la regresin con k variables que incluye las variables
explicativas X1, X2, . . . , Xk (donde X1 para todas las observaciones de forma que den
cabida al trmino del intercepto), se dice que existe una relacin lineal exacta si se
satisface la siguiente condicin:
1X1 +2X2 ++kXk =0
donde 1, 2,. . . , k, son constantes tales que no todas son simultneamente iguales a
cero.
Consecuencias de la multicolinealidad:
En los casos de casi o alta multicolinealidad es probable que se presenten las siguientes
consecuencias:
1. Aunque los estimadores de MCO son MELI, presentan varianzas y covarianzas grandes
que dificultan la estimacin precisa.
2. Debido a la consecuencia 1, los intervalos de confianza tienden a ser mucho ms
amplios, lo cual propicia una aceptacin ms fcil de la hiptesis nula cero (es decir, que
el verdadero coeficiente poblacional es cero).
3. Tambin debido a la consecuencia 1, la razn t de uno o ms coeficientes tiende a ser
estadsticamente no significativa.
4. Aunque la razn t de uno o ms coeficientes sea estadsticamente no significativa, R2,
la medida global de bondad de ajuste, puede ser muy alta.
5. Los estimadores de MCO y sus errores estndar son sensibles a pequeos cambios en
los datos.
Deteccion de la la multicolinealidad:
Como la multicolinealidad es en esencia un fenmeno de tipo muestral que surge de
informacin sobre todo no experimental recopilada en la mayora de las ciencias sociales,
no hay un mtodo nico para detectarla o medir su fuerza. Lo que se tiene en realidad son
ciertas reglas prcticas, algunas informales y otras formales, pero todas reglas prcticas.
Consideremos algunas de ellas.
2
1. Una R elevada pero pocas razones t significativas. Como ya mencionamos, es un
2
sntoma clsico de multicolinealidad. Si R es alta, es decir, est por encima de 0.8, la
prueba F, en la mayora de los casos, rechazar la hiptesis de que los coeficientes
parciales de pendiente son simultneamente iguales a cero, pero las pruebas t
individuales mostrarn que ningn coeficiente parcial de pendiente, o muy pocos, son
estadsticamente diferentes de cero. Demostramos lo anterior con claridad en el ejemplo
de consumo-ingreso-riqueza.

Aunque este diagnstico es razonable, su desventaja es que

es demasiado fuerte, en el
sentido de que la multicolinealidad se considera daina nicamente cuando no se puede
separar la totalidad de las influencias de las variables explicativas sobre Y .
2. Altas correlaciones entre parejas de regresoras. Otra regla prctica recomendable
consiste en observar el coeficiente de correlacin de orden cero o entre dos regresoras. Si
ste es alto, digamos, superior a 0.8, la multicolinealidad es un problema grave. La
desventaja con este criterio es que, aunque las altas correlaciones de orden cero pueden
sugerir la presencia de colinealidad, no es necesario que dichas correlaciones sean altas
para tener colinealidad en un determinado caso especfico. En trminos un poco tcnicos:
las correlaciones de orden cero elevadas son una condicin suficiente pero no necesaria
para la existencia de multicolinealidad, debido a que puede existir a pesar de que las
correlaciones de orden cero o correlaciones simples sean comparativamente bajas (es
decir, inferiores a 0.50). Para apreciar esta relacin, suponga un modelo con cuatro
variables:
Yi =1 +2X2i +3X3i +4X4i +ui
y suponga que
X4i =2X2i +3X3i
donde 2 y 3 son constantes, sin ser las dos iguales a cero. Obvio, X4 es una
2
combinacin lineal exacta de X2 y X3, que da R4 .2 3 = 1, el coeficiente de determinacin
en la regresin de X4 sobre X2 y X3.
Ahora recordemos esta frmula para escribir

2
Pero, como R4 .2 3 = 1 por la existencia de colinealidad perfecta, obtenemos

No es difcil ver que se satisface con r4 2 = 0.5, r4 3 = 0.5 y r2 3 = 0.5, que no son
valores muy altos.

Por consiguiente, en los modelos donde hay ms de dos variables explicativas, la


correlacin simple o de orden cero no proporciona una gua infalible sobre la presencia de
multicolinealidad. Claro que si slo existen dos variables explicativas, bastarn las
correlaciones de orden cero.
3. Examen de las correlaciones parciales. Debido al problema recin descrito, que se
basa en correlaciones de orden cero, Farrar y Glauber sugieren que deben observarse, en
lugar de ellas, los coeficientes de correlacin parcial. De esta forma, en la regresin de Y
2
2
2
2
sobre X2, X3 y X , si se encuentra que R 1,2,3,4 es muy elevada pero r 1,2,3,4 , r 1,3,2,4 y r
bajas, esto puede sugerir que las variables X2, X3 y X4 estn muy
1,4,2,3
intercorrelacionadas y que por lo menos una de estas variables es superflua.
Si bien puede ser til un estudio de correlaciones parciales, nada garantiza que
2
proporcionen una gua infalible sobre multicolinealidad, pues puede suceder que tanto R
como todas las correlaciones parciales sean lo bastante altas. Sin embargo, y tal vez ms
importante, C. Robert Wichers mostr que la prueba de correlacin parcial de FarrarGlauber es ineficaz en el sentido de que una determinada correlacin parcial puede ser
compatible con diferentes patrones de multicolinealidad. La prueba de Farrar-Glauber
tambin recibi fuertes crticas de T. Krishna Kumar, John OHagan y Brendan McCabe.
4. Regresiones auxiliares. Como la multicolinealidad surge porque una o ms de las
regresoras son combinaciones lineales exactas o aproximadas de las dems regresoras,
una forma de determinar cul variable X est relacionada con las dems variables X es
2
efectuar la regresin de cada Xi sobre las variables X restantes y calcular la R
2
correspondiente, que se designa R i ; cada una de estas regresiones se denomina
regresin auxiliar, auxiliar a la regresin principal de Y sobre las X. As, conforme a la
2
relacin entre F y R , la variable

sigue la distribucin F con k 2 y n k + 1 gl. En la anterior ecuacin, n representa el


tamao de la muestra, k representa el nmero de variables explicativas incluyendo el
2
intercepto y R x x x x es el coeficiente de determinacin en la regresin de la
i 2 3 k
variable Xi sobre las variables X restantes.
Si la F calculada excede a la Fi crtica en el nivel de significancia seleccionado, se dice
que la Xi particular es colineal con las dems X; si no excede a la Fi crtica, se dice que
sta no es colineal con las dems X, en cuyo caso se puede mantener la variable en el
modelo. Si Fi es estadsticamente significativa, an hay que decidir si la Xi en

consideracin debe eliminarse del modelo.


Sin embargo, este mtodo no carece de desventajas, pues
. . . si la multicolinealidad comprende slo unas cuantas variables, de forma que las
regresiones auxiliares no sufran de multicolinealidad extensa, los coeficientes estimados
pueden revelar la naturaleza de la dependencia lineal entre las regresoras. Por desgracia,
si existen diversas asociaciones lineales complejas, este ejercicio de ajuste de curva
puede no tener gran valor, pues ser difcil identificar las interrelaciones separadas.
2
En lugar de probar formalmente todos los valores R auxiliares, se puede adoptar la regla
prctica de Klein, que sugiere que la multicolinealidad puede ser un problema
2
2
complicado solamente si la R obtenida de una regresin auxiliar es mayor que la R
global, es decir, si se obtiene de la regresin de Y sobre todas las regresoras. Por cierto,
al igual que todas las dems reglas prcticas, sta debe utilizarse con buen criterio.
5. Valores propios e ndice de condicin. Mediante EViews y Stata podemos calcular
los valores propios y el ndice de condicin para diagnosticar la multicolinealidad. No
analizaremos aqu el tema de los valores propios, pues implicara abordar temas de
lgebra matricial, fuera del alcance de este libro. Sin embargo, a partir de estos valores
propios puede derivarse lo que se conoce como nmero de condicin k, definido como

y el ndice de condicin (IC), definido como

Entonces tenemos esta regla prctica: Si k est entre l00 y 1 000, existe una
multicolinealidad que va de moderada a fuerte, mientras que si excede de 1 000, existe
multicolinealidad grave. De otro modo, si el IC ( = k) est entre 10 y 30, hay
multicolinealidad entre moderada y fuerte, y si excede de 30, una multicolinealidad grave.
Algunos autores consideran que e1 ndice de condicin es el mejor diagnstico de
multicolinealidad disponible. Sin embargo, esta opinin no es muy aceptada. As, el IC es
slo una regla prctica, quiz un poco ms compleja. Para mayores detalles, el lector
puede consultar las referencias.
2
6. Tolerancia y factor de inflacin de la varianza. Conforme R j , el coeficiente de
determinacin en la regresin de la regresora Xj sobre las regresoras restantes del

modelo se aproxima a la unidad, es decir, conforme se incrementa la colinealidad de Xj


con las dems regresoras, FIV tambin aumenta, y en el lmite puede ser infinito.
Algunos autores utilizan, por consiguiente, el FIV como indicador de la multicolinealidad:
entre mayor es el valor del FIVj, mayor problema o colinealidad tiene la variable Xj.
Pero, cunto debe ascender el FIV antes de que una regresora se convierta en un
problema? Como regla prctica, si el FIV de una variable es superior a 10 (esto sucede
2
si R j excede de 0.90), se dice que esa variable es muy colineal.
Desde luego, puede utilizarse TOLj como medida de la multicolinealidad, en vista de su
estrecha conexin con FIVj. Mientras ms cerca est TOLj de cero, mayor ser el grado
de colinealidad de esa variable respecto de las dems regresoras. Por otra parte,
mientras ms cerca est TOLj de 1, mayor ser la evidencia de que Xj no es colineal con
las dems regresoras.
El FIV (o tolerancia) como medida de colinealidad no est libre de crtica. Var ( j )
2
2
2
depende de tres factores: , x y FIVj. Un FIV alto se contrarresta por una baja o
2
una x alta. De otra forma: un FIV alto no es condicin necesaria ni suficiente j para
obtener varianzas y errores estndar altos. Por consiguiente, la alta multicolinealidad,
como la mide un FIV alto, puede no necesariamente ocasionar errores estndar altos. En
todo este anlisis, los trminos alto y bajo son relativos.
7. Diagrama de dispersin. Es una buena prctica usar un diagrama de dispersin para
ver cmo se relacionan las diversas variables de un modelo de regresin. La siguiente
figura presenta un

diagrama de dispersin de un ejemplo de consumo. Se trata de un diagrama de cuatro por

cuatro cuadros porque hay cuatro variables en el modelo, una variable dependiente (C) y
tres variables explicativas: ingreso personal disponible real (Yd), riqueza real (W) y tasa
de inters real (I).
Primero considere la diagonal principal, de la esquina superior izquierda a la esquina
inferior derecha. No hay puntos de dispersin en estos cuadros en la diagonal principal. Si
los hubiera, tendran un coeficiente de correlacin de 1, pues las grficas seran de una
variable dada sobre s misma. Los cuadros fuera de la diagonal muestran
intercorrelaciones entre las variables. Por ejemplo, el cuadro de riqueza (W) muestra que
la riqueza y el ingreso estn muy correlacionados (el coeficiente de correlacin entre los
dos es 0.97), pero no de manera perfecta. Si tuvieran correlacin perfecta (es decir, si
tuvieran un coeficiente de correlacin de 1), no habramos podido estimar la regresin
porque habra una relacin lineal exacta entre riqueza e ingreso. El diagrama de
dispersin tambin muestra que la tasa de inters no est muy correlacionada con las
otras tres variables.
Como la funcin de diagrama de dispersin se incluye ahora en varios programas
estadsticos, este diagnstico debe tomarse en consideracin junto con los que
estudiamos antes. No obstante, hay que recordar que las correlaciones simples entre
parejas de variables pueden no ser un indicador definitivo de colinealidad, como ya
sealamos.

Medidas correctivas

No hacer nada

Blanchard expresa de la siguiente manera la corriente de pensamiento que aboga por no


hacer nada:
Cuando los estudiantes efectan por primera vez la regresin de mnimos cuadrados
ordinarios (MCO), el primer problema que suelen afrontar es el de la multicolinealidad.
Muchos concluyen que hay algo malo con los MCO; otros recurren a nuevas y con
frecuencia creativas tcnicas a fin de darle la vuelta al problema. Pero eso est mal. La
multicolinealidad es la voluntad de Dios, no un problema con los MCO ni con la tcnica
estadstica en general.
Lo que Blanchard afirma es que la multicolinealidad es en esencia un problema de
deficiencia de datos (de nuevo, micronumerosidad), y en algunas ocasiones no hay
opcin respecto de los datos disponibles para el anlisis emprico.
Asimismo, no es que todos los coeficientes en un modelo de regresin sean
estadsticamente insignificantes. Al contrario, aunque no se puedan estimar uno o ms
coeficientes de regresin con gran precisin, es posible calcular una combinacin lineal
de ellos (es decir, una funcin estimable) con relativa eficiencia.

Procedimientos de reglas prcticas

Se pueden intentar las siguientes reglas prcticas para abordar el problema de la

multicolineali- dad; el xito depende de la gravedad de la multicolinealidad.


1. Informacin a priori. Suponga que consideramos el modelo
Yi =1 +2X2i +3X3i +ui
donde Y = consumo, X2 = ingreso y X3 = riqueza. Como ya mencionamos, las variables
ingreso y riqueza tienden a ser muy colineales. Pero suponga que, a priori, creemos que
3 = 0.102; es decir, la tasa de cambio del consumo respecto de la riqueza es una
dcima parte de la correspondiente respecto del ingreso. Podemos entonces efectuar la
siguiente regresin:
Yi =1 +2X2i +0.102X3i +ui
=1 +2Xi +ui
donde Xi = X2i + 0.1X3i. Una vez obtenido 2 podemos estimar 3 a partir de la relacin
postulada entre 2 y 3.
Cmo obtener informacin a priori? Puede provenir de un trabajo emprico anterior, en
donde el problema de colinealidad result ser menos grave o de la teora relevante que
soporta el campo de estudio. Por ejemplo, en la funcin de produccin tipo Cobb-Douglas,
si esperamos que prevalezcan los rendimientos constantes a escala, entonces ( 2 + 3) =
1, con la regresin de la razn producto-trabajo sobre la razn capital-trabajo. Si existe
colinealidad entre el trabajo y el capital, como suele ser el caso en la mayor parte de la
informacin muestral, dicha transformacin puede reducir o eliminar el problema de
colinealidad. Pero es preciso hacer una advertencia aqu respecto de la imposicin de
esas restricciones a priori, . . . pues en general se desean probar las predicciones a priori
de la teora econmica en lugar de imponerlas simplemente sobre los datos para los
cuales pueden no ser vlidas.
2. Combinacin de informacin de corte transversal y de series de tiempo. Una
variante de la tcnica de informacin externa o a priori es la combinacin de datos de
corte transversal y de series de tiempo, conocida como mezcla de datos. Suponga que
deseamos estudiar la demanda de automviles en Estados Unidos y que tenemos
informacin de series de tiempo sobre el nmero de automviles vendidos, su precio
promedio y el ingreso del consumidor. Adems, suponga que
ln Yt = 1 + 2 ln Pt + 3 ln It + ut
donde Y = nmero de automviles vendidos, P = precio promedio, I = ingreso y t = tiempo.
El objetivo es estimar la elasticidad precio 2 y la elasticidad ingreso 3.
En la informacin de series de tiempo, las variables precio e ingreso tienden a ser muy
colineales. Por consiguiente, si deseamos efectuar la anterior regresin, debemos
enfrentar el problema usual de multicolinealidad. Tobin sugiere una salida a esto.
Sostiene que si hay informacin de corte transversal (por ejemplo, informacin generada a
travs de paneles de consumidores o estudios sindicados realizados por varias agencias
privadas y estatales), puede obtenerse una estimacin relativamente confiable de la
elasticidad ingreso 3, pues, con tal informacin, que est en un punto en el tiempo, los

precios no varan mucho. Sea 3 la elasticidad ingreso estimada a partir de los datos de
corte transversal. Con esta estimacin, la anterior regresin de series de tiempo se
escribe como
Yt

= 1 + 2 ln Pt + ut

donde Y = ln Y 3 ln I, es decir, Y representa ese valor de Y despus de eliminarle


el efecto del ingreso. Ahora se puede obtener una estimacin de la elasticidad precio 2
de la regresin anterior.
Aunque es una tcnica atractiva, la mezcla de datos de series de tiempo y de corte
transversal de esta forma puede crear problemas de interpretacin porque se supone
implcitamente que la elasticidad ingreso estimada a partir de datos de corte transversal
es igual a la que se habra obtenido a partir de un anlisis puro de series de tiempo. Sin
embargo, se ha empleado esta tcnica en muchas aplicaciones y es en particular valiosa
en situaciones en donde las estimaciones de corte transversal no varan sustancialmente
de una seccin transversal a otra.
3. Eliminacin de una(s) variable(s) y el sesgo de especificacin. Al enfrentar el
problema de multicolinealidad grave, una de las soluciones ms simples consiste en
omitir del modelo una de las variables colineales. As, en el ejemplo consumo-ingresoriqueza, al omitir la variable riqueza, la cual muestra que mientras en el modelo original la
variable ingreso no era estadsticamente significativa, ahora se vuelve altamente
significativa.
Sin embargo, al eliminar una variable del modelo se puede incurrir en un sesgo de
especificacin o error de especificacin. El sesgo de especificacin surge de la
especificacin incorrecta del modelo utilizado en el anlisis. As, si la teora econmica
afirma que tanto el ingreso como la riqueza deben incluirse en el modelo que explica el
gasto de consumo, al eliminar la variable riqueza se incurrira en un sesgo de
especificacin.
Si el modelo verdadero es
Yi =1 +2X2i +3X3i +ui
pero se ajusta de manera errnea el modelo
Yi =b1 +b12X2i +ui
se demuestra que
E(b12)=2 +3b32
donde b3 2 = coeficiente de la pendiente en la regresin de X3 sobre X2. Por
consiguiente, es obvio que b12 ser una estimacin sesgada de 2 en la medida en que
b32 sea diferente de cero (se supone que 3 es diferente de cero; en caso contrario, no
tendra sentido incluir X3 en el modelo original). Claro est que si b32 fuera cero, para

empezar no habra problema de multicolinealidad. Tambin es claro que si b3 2 y 3 son


positivas (o ambas negativas), E(b1 2) ser mayor que 2; por tanto, en promedio, b12
sobreestimar a 2, para ocasionar un sesgo positivo. De la misma forma, si el producto
b3 23 es negativo, en promedio, b12 subestimar a 2, para ocasionar un sesgo
negativo.
Del anlisis anterior, es claro que eliminar una variable del modelo para resolver el
problema de la multicolinealidad puede producir un sesgo de especificacin. Por tanto, el
remedio suele ser peor que la enfermedad en algunas situaciones porque, mientras que la
multicolinealidad puede obstaculizar la estimacin precisa de los parmetros del modelo,
la omisin de una variable generara graves equivocaciones respecto de los verdaderos
valores de los parmetros. Recuerde que los estimadores de MCO son MELI a pesar de
la presencia de multicolinealidad perfecta.

4. Transformacin de variables. Suponga que tenemos informacin de series de tiempo


sobre el gasto de consumo, el ingreso y la riqueza. Una razn de la alta multicolinealidad
entre el ingreso y la riqueza en tal informacin es que, con el tiempo, las dos variables
tienden a moverse en la misma direccin. Una forma de reducir esta dependencia es
proceder de la siguiente manera.
Si la relacin
Yt =1 +2X2t +3X3t +ut (1)
se cumple en el periodo t, tambin debe cumplirse en el periodo t 1, pues el origen del
tiempo es, de todas formas, arbitrario. Por consiguiente, tenemos que:
Yt1 = 1 + 2 X2,t1 + 3 X3,t1 + ut1) (2)
Si restamos (1) de (2) obtenemos
Yt Yt1 = 2(X2t X2,t1) + 3(X3t X3,t1) + vt
donde vt = ut ut1. La anterior ecuacin se conoce como la forma en primeras
diferencias porque no se hace la regresin sobre las variables originales, sino sobre las
diferencias de los valores sucesivos de dichas variables.
El modelo de regresin que utiliza primeras diferencias a menudo reduce la gravedad de
la multicolinealidad porque, aunque los niveles de X2 y X3 estn muy correlacionados, no
hay razn a priori para pensar que sus diferencias tambin lo estn.
Otra transformacin comn en la prctica es la transformacin de razn. Considere el
siguiente modelo:
Yt =1 +2X2t +3X3t +ut
donde Y es el gasto de consumo en dlares reales, X2 es el PIB y X3 es la poblacin

total. Como el PIB y la poblacin aumentan con el tiempo, es muy probable que estn
correlacionados. Una solucin a este problema consiste en expresar el modelo mediante
una base per cpita; es decir, dividir la anterior ecuacin entre X3 para obtener:

Dicha transformacin tal vez reduzca la colinealidad en las variables originales. Sin
embargo, la transformacin que utiliza primeras diferencias o las transformaciones de
razn crean otros problemas.
5. Datos nuevos o adicionales. Como la multicolinealidad es una caracterstica de la
muestra, es posible que en otra muestra con las mismas variables la colinealidad no sea
tan grave como en la primera. A veces, con slo aumentar el tamao de la muestra (si
esto es posible) se atena el problema de colinealidad. Por ejemplo, en el modelo de tres
variables aparece que:

2
Ahora, a medida que aumenta el tamao de la muestra, x 2i por lo general aumenta.
(Por qu?) Por consiguiente, para cualquier r2 3 dado, la varianza de 2 disminuir,
para reducir el error estndar, lo cual permite estimar 2 de manera ms precisa.
Como ejemplo, considere la siguiente regresin del gasto de consumo Y sobre el ingreso
X2 y la riqueza X3 basada en 10 observaciones.
Yi = 24.377 + 0.8716X2i 0.0349X3i
t = (3.875) (2.7726) (1.1595)

2
R = 0.9682

El coeficiente de la riqueza en esta regresin no slo tiene el signo equivocado, sino que
estadsticamente no es significativo en el nivel de 5%. Pero cuando el tamao de la
muestra se increment a 40 observaciones (micronumerosidad?) se obtuvieron los
siguientes resultados:
Yi = 2.0907 + 0.7299X2i + 0.0605X3i
t = (0.8713) (6.0014) (2.0014)

2
R = 0.9672

Ahora el coeficiente de la riqueza no slo tiene el signo correcto, sino que es


estadsticamente significativo en el nivel de 5%. La obtencin de datos adicionales o

mejores no siempre es tan sencilla, pues, como mencionan Judge et al.:


Por desgracia, muy pocas veces pueden los economistas obtener informacin adicional
sin incurrir en altos costos, y mucho menos pueden seleccionar los valores de las
variables explicativas que desean. Adems, al agregar variables en situaciones no
controladas, se debe tener cuidado de no agregar observaciones generadas en un
proceso diferente del asociado al conjunto original de datos; es decir, se debe estar
seguro de que la estructura econmica asociada a las nuevas observaciones sea igual a
la estructura original.
6. Reduccin de la colinealidad en las regresiones polinomiales.. Una caracterstica
especial de estos modelos es que la(s) variable(s) explicativa(s) aparece(n) elevada(s) a
diversas potencias. Por tanto, en la funcin cbica de costos totales que implica la
regresin del costo total sobre la produccin, la (produccin) y la (produccin), los
diversos trminos de la produccin van a estar correlacionados, lo que dificulta la
estimacin precisa de los diversos coeficientes de pendiente. No obstante, en la prctica
se ha visto que si la(s) variable(s) explicativa(s) est(n) expresada(s) en forma de
desviacin (es decir, desviaciones del valor medio), la multicolinealidad se reduce
sustancialmente. Pero, aun entonces, el problema puede persistir, en cuyo caso tal vez
convenga considerar tcnicas como la de los polinomios ortogonales.
7. Otros mtodos de remediar la multicolinealidad. Las tcnicas estadsticas
multivariadas como el anlisis de factores y el de componentes principales, o como la
regresin en cadena, son comunes para resolver el problema de la multicolinealidad.
Desafortunadamente, estas tcnicas estn fuera del alcance de este libro, pues no
pueden analizarse en forma competente sin recurrir al lgebra matricial.

Heteroscedasticidad
homoscedasticidad, o igual (homo) dispersin (cedasticidad), es decir, igual varianza.
Simblicamente,
2 2
Eui =

i=1,2,...,n

Grficamente, en la homoscedasticidad la varianza condicional de Yi (la cual es igual a la


de ui), condicional a las Xi dadas, permanece igual sin importar los valores que tome la
variable X.
Consecuencias:
Qu sucede con los intervalos de confianza, las pruebas de hiptesis y con otros
procedimientos si continuamos utilizando el estimador de MCO, 2? Se distinguen dos
situaciones.
Estimacin por MCO con heteroscedasticidad
Suponga que utilizamos 2, la cual considera explcitamente la heteroscedasticidad. Con

2
esta varianza y la suposicin de que se conocen las i , es posible establecer intervalos
de confianza y probar hiptesis con las pruebas t y F usuales? La respuesta suele ser no,

5
pues puede demostrarse que var (2 ) var (2), lo cual significa que los intervalos de
confianza basados en estos ltimos sern innecesariamente grandes. Como resultado, es
probable que las pruebas t y F den resultados imprecisos en el sentido de que la var ( 2)
es demasiado grande, y lo que parece un coeficiente estadsticamente no significativo
(pues el valor t es ms bajo de lo apropiado), de hecho puede resultar significativo si se
establecen inter- valos de confianza correctos con base en el procedimiento de MCG.
Estimacin por MCO sin heteroscedasticidad
La situacin se torna muy grave si, adems de 2, tambin se sigue utilizando la frmula
habitual de varianza (homoscedstica) dada, aunque exista heteroscedasticidad o se
sospeche su existencia: observe que ste es el caso ms probable de los dos que aqu se
analizan, pues al hacer una regresin estndar por MCO e ignorar (o no conocer) la
existencia de la heteroscedasticidad se producir una varianza de 2. En resumen, si
insistimos en los procedimientos de prueba usuales a pesar de la presencia de
heteroscedasticidad, las conclusiones o inferencias que obtengamos pueden ser muy
equivocadas.

Deteccin
Mtodos informales
Naturaleza del problema
Con mucha frecuencia la naturaleza del problema en consideracin sugiere la posibilidad
de heteroscedasticidad. Por ejemplo, a partir del trabajo pionero de Prais y Houthakker
sobre estudios de presupuesto familiar, en el cual hallaron que la varianza residual
correspondiente a la regresin del consumo sobre el ingreso aumentaba con el ingreso,
hoy en da generalmente se supone que en encuestas similares se pueden esperar
varianzas desiguales entre las perturbaciones. De hecho, en la informacin de corte
transversal que comprende unidades heterogneas, la heteroscedasticidad puede ser la
regla y no la excepcin. As, en el anlisis de corte transversal que relaciona el gasto de
inversin con las ventas, la tasa de inters, etc., suele esperarse la presencia de
heteroscedasticidad si se agrupan empresas pequeas, medianas y grandes.
Mtodo grfico
Si no hay informacin a priori o emprica sobre la naturaleza de la heteroscedasticidad, en
la prctica se puede llevar a cabo un anlisis de regresin con el supuesto de que no hay
heteroscedasticidad y luego hacer un examen post mortem de los residuos elevados al
2
2
cuadrado, ui , para ver si exhiben algn patrn sistemtico. Aunque los ui no son lo
2
mismo que los ui , los primeros sirven como representantes de los ltimos sobre todo si el
tamao de la muestra es lo bastante grande.

Mtodos formales
Prueba de Park
2
Park formaliza el mtodo grfico con la sugerencia de que i es algn tipo de funcin de
la variable explicativa Xi. La forma funcional fue
2 2 vi
i = Xi e
o
2
2
ln =ln +lnXi +vi

donde vi es el trmino de perturbacin estocstico.


2
2
Como i por lo general no se conoce, Park sugiere utilizar ui como aproximacin y
correr la siguiente regresin:
2
2
lnui =ln +lnXi +vi
=+lnXi +vi
Si resulta estadsticamente significativo, esto sugerir heteroscedasticidad en los datos.
Si resulta no significativo, podemos aceptar el supuesto de homoscedasticidad. La prueba
de Park es, por tanto, un procedimiento de dos etapas. En la primera se efecta la
regresin MCO ignorando el interrogante de la heteroscedasticidad. Se obtiene i de esta
regresin y luego, en la segunda etapa, se efecta la regresin.
Aunque empricamente la prueba de Park es atractiva, presenta algunos problemas.
Goldfeld y Quandt argumentan que el trmino de error vi puede no satisfacer los
supuestos de MCO y en s mismo ser heteroscedstico. No obstante, es posible utilizar la
prueba de Park como mtodo estrictamente exploratorio.

Prueba de Glejser
La prueba de Glejser en esencia es similar a la de Park. Despus de obtener los residuos
u i de la regresin MCO, Glejser sugiere una regresin sobre los valores absolutos de u i
2
sobre la variable X que se cree muy asociada con i . En sus experimentos, Glejser
utiliz las siguientes formas funcionales:

| u i | = 1 + 2 X i + v i
| u i | = 1 + 2 X i + v i
| u i | = 1 + 2 1/X i + v i
| u i | = 1 + 2 1/X i + v i
| u i | = ( 1 + 2 X2 i )+ v i

donde vi es el trmino de error.


De nuevo, como un asunto emprico o prctico, se puede utilizar el mtodo de Glejser. Sin
embargo, Goldfeld y Quandt sealan que el trmino de error vi tiene algunos problemas,
pues su valor esperado es diferente de cero, est serialmente correlacionado e
irnicamente es heteroscedstico. Otra dificultad del mtodo Glejser es que los modelos
como
| u i | = ( 1 + 2 X i )+ v i
| u i | = ( 1 + 2 X2 i )+ v i

no son lineales en los parmetros y, por consiguiente, no pueden estimarse mediante el


procedimiento de MCO habitual.
Glejser descubri que para muestras grandes, los cuatro primeros modelos suelen dar
resultados satisfactorios en la deteccin de la heteroscedasticidad. En la prctica, por
consiguiente, la tcnica de Glejser es til para muestras grandes, y en muestras
pequeas sirve estrictamente como herramienta cualitativa para obtener una nocin sobre
la heteroscedasticidad.
Prueba de correlacin de orden de Spearman
Definimos el coeficiente de correlacin de orden de Spearman como

donde di = la diferencia en las posiciones o lugares asignados al i-simo individuo o


fenmeno respecto de dos caractersticas y n = nmero de individuos o fenmenos
ordenados. Con el coeficiente de correlacin de orden anterior se detecta
heteroscedasticidad de la siguiente manera: Suponga que Yi = 0 + 1Xi + ui.
Paso 1. Ajuste la regresin a los datos sobre Y y X, y obtenga los residuos u i.

Paso 2. Ignore el signo de u i, es decir, tome su valor absoluto |u i|, y ordene los valores
|u i| y Xi (o Yi) de acuerdo con un orden ascendente o descendente, y calcule el
coeficiente de correlacin de orden de Spearman dado antes.
Paso 3. Si supone que el coeficiente poblacional de correlacin de orden s es cero y n >
8, la significancia del rs muestral se prueba mediante la prueba t de la siguiente manera
con gl = n 2 :

Si el valor t calculado excede el valor t crtico, podemos aceptar la hiptesis de


heteroscedasticidad; de lo contrario, podemos rechazarla. Si el modelo de regresin
considera ms de una variable X, rs se calcula entre |u i| y cada variable X por separado,
y la significancia estadstica se somete a la prueba t dada en la anterior ecuacin.
Prueba de Goldfeld-Quandt
2
Este popular mtodo es aplicable si se supone que la varianza heteroscedstica, i , est
relacionada positivamente con una de las variables explicativas en el modelo de
regresin. Por simplicidad, considere el modelo usual con dos variables:
Yi =1 +2Xi +ui
2
Suponga que i est relacionado positivamente con Xi, en la forma
2 2 2
i = Xi
donde

es una constante.

2
El supuesto enterior postula que i es proporcional al cuadrado de la variable X. En su
estudio de presupuestos familiares, Prais y Houthakker encontraron muy til ese
2
supuesto. Si es la relacin apropiada, significara que i sera mayor mientras mayores
fueran los valores de Xi. Si ste resulta ser el caso, es muy probable que haya
heteroscedasticidad en el modelo. Para probar esto explcitamente, Goldfeld y Quandt
sugieren los siguientes pasos:
Paso 1. Ordene las observaciones de acuerdo con los valores de Xi, a partir del valor ms
bajo de X.
Paso 2. Omita las c observaciones centrales, donde c se especific a priori, y divida las
observaciones restantes (n c) en dos grupos, cada uno de (n c)/2 observaciones.

Paso 3. Ajuste regresiones MCO separadas a las primeras (n c)/2 observaciones y a las
ltimas (n c)/2 observaciones, y obtenga las respectivas sumas de cuadrados residuales
SCR1 y SCR2; SCR1 representa la SCR de la regresin correspondiente a los valores
ms bajos de Xi (el grupo de varianza pequea), y SCR2, a los valores ms grandes de
Xi (el grupo de varianza grande). Cada SCR tiene

donde k es el nmero de parmetros que deben estimarse, inclusive el intercepto. (Por


qu?) Sin duda, para el caso de dos variables, k es 2.
Paso 4. Calcule la razn

Si supusimos que las ui estn normalmente distribuidas (lo cual suele hacerse), y si el
supuesto de homoscedasticidad es vlido, entonces se demuestra que de sigue la
distribucin F con un nmero de gl en el numerador y uno en el denominador iguales a (n
c 2k)/2.
Si en una aplicacin ( =F ) calculada es superior al F crtico en el nivel de significancia
seleccionado, podemos rechazar la hiptesis de homoscedasticidad, es decir, podemos
afirmar que la heteroscedasticidad es muy probable.
Antes de ilustrar la prueba, conviene explicar la omisin de las observaciones centrales c.
Estas observaciones se omiten para agudizar o acentuar la diferencia entre el grupo de
varianza pequea (es decir, SCR1) y el grupo de varianza grande (es decir, SCR2). Pero
la capacidad de la prueba Goldfeld-Quandt para lograrlo depende de la forma de
seleccionar c. Para el modelo con dos variables, los experimentos Monte Carlo realizados
por Goldfeld y Quandt sugieren que c sea alrededor de 8 si el tamao de la muestra es
alrededor de 30, y alrededor de 16 si el tamao de la muestra es alrededor de 60. Sin
embargo, Judge et al., encontraron satisfactorios en la prctica los niveles de c = 4 si n =
30 y c = 10 si n es alrededor de 60.
Antes de proseguir, cabe notar que, en caso de que haya ms de una variable X en el
modelo, el ordenamiento de las observaciones, que es el primer paso en la prueba, puede
hacerse de acuerdo con cualquiera de ellas. Por tanto, en el modelo: Yi = 1 + 2X2i +
3X3i + 4X4i + ui se pueden ordenar los datos de acuerdo con cualquiera de estas X. Si,
a priori, no hay seguridad sobre cul variable X es la adecuada, realice la prueba sobre
cada variable X o aplique la prueba de Park, por turnos, sobre cada X.
Prueba Breusch-Pagan-Godfrey

El xito de la prueba de Goldfeld-Quandt depende no slo del valor de c (el nmero de


observaciones centrales que se van a omitir), sino tambin de la identificacin de la
variable X correcta que servir de referencia para ordenar las observaciones. Esta
limitacin de la prueba se evita si consideramos la prueba Breusch-Pagan-Godfrey (BPG).
Para ilustrar esta prueba, considere el modelo de regresin lineal con k variables
Yi =1 +2X2i ++kXki +ui
2
Suponga que la varianza del error i se describe como
2
i = f(1 +2Z2i ++mZmi)
2
es decir, i es algn tipo de funcin de las variables Z no estocsticas; alguna de las X o
todas ellas pueden servir como Z. Especficamente, suponga que
2
i =1 +2Z2i ++mZmi
2
2
es decir, i es una funcin lineal de las Z. Si 2 = 3 = = m = 0, i = 1, que es
2
una constante. Por consiguiente, para probar si i es homoscedstica, se puede probar
la hiptesis de que 2 = 3 = = m = 0. sta es la idea bsica de la prueba BreuschPagan. El procedimiento es el siguiente.
Paso 1. Estime mediante MCO y obtenga los residuos u1, u2, . . . , un.
ui2/n. Recuerde, que ste es el estimador de mxima
2
2
verosimilitud (MV) de . [Nota: El estimador de MCO es ui /[n k].]
Paso 2. Obtenga

2 =

2 2
Paso 3. Construya las variables pi definidas como pi=ui que es simplemente cada
2
residuo elevado al cuadrado dividido entre .
Paso 4. Haga la regresin de los pi as construidos sobre las Z como pi =1 +2Z2i
++mZmi +vi donde vi es el trmino de residuo para esta regresin.
Paso 5. Obtenga la SCE (suma de cuadrados explicada) y defina

Si suponemos que los ui estn normalmente distribuidos, se demuestra que s hay

homoscedasticidad, y si el tamao n de la muestra aumenta indefinidamente, entonces

es decir, sigue una distribucin ji cuadrada con (m 1) grados de libertad. (Nota: asin
significa asintticamente.)
2
2
Por consiguiente, si en una aplicacin el (-) = calculado excede al valor crtico en el
nivel de significancia seleccionado, se rechaza la hiptesis de homoscedasticidad; de lo
contrario, no se rechaza.

Prueba general de heteroscedasticidad de White


A diferencia de la prueba de Goldfeld-Quandt, que requiere reordenar las observaciones
respecto de la variable X que supuestamente ocasiona la heteroscedasticidad, o de la
prueba BGP, sensible al supuesto de normalidad, la prueba general de
heteroscedasticidad propuesta por White no se apoya en el supuesto de normalidad y es
fcil aplicarla. Como ilustracin de la idea bsica, considere el siguiente modelo de
regresin con tres variables (la generalizacin al modelo con k variables es sencilla):
Yi =1 +2X2i +3X3i +ui
Para realizar la prueba de White se procede de la siguiente forma:
Paso 1. Dada la informacin, estime la anterior ecuacin y obtenga los residuos i. Paso
2. Efecte la siguiente regresin (auxiliar):
u

=1 + 2 X2i + 3 X3i + 4 X2i

+ 5 X3i

+ 6 X2i X3i + v i

Es decir, con el cuadrado de los residuos de la regresin original se hace la regresin


sobre las variables o regresoras X originales, sobre sus valores al cuadrado y sobre el
(los) producto(s) cruzado(s) de las regresoras. Tambin pueden introducirse potencias
ms altas de las regresoras. Observe que hay un trmino constante en esta ecuacin,
2
aunque la regresin original puede o no contenerlo. Obtenga R de esta regresin
(auxiliar).
Paso 3. Segn la hiptesis nula de que no hay heteroscedasticidad, puede demostrarse
2
que el tamao de la muestra (n) multiplicado por R obtenido de la regresin auxiliar
asinttica- mente sigue la distribucin ji cuadrada con gl igual al nmero de regresoras
(sin el trmino constante) en la regresin auxiliar. Es decir,

donde los gl son iguales a los definidos antes.


Paso 4. Si el valor ji cuadrada obtenido excede al valor ji cuadrada crtico en el nivel de
significancia seleccionado, la conclusin es que hay heteroscedasticidad. Si ste no
excede el valor ji cuadrada crtico, no hay heteroscedasticidad, lo cual quiere decir que en
la regresin auxiliar, 2 = 3 = 4 = 5 = 6 = 0

Otras pruebas de heteroscedasticidad


Hay muchas otras pruebas de heteroscedasticidad, cada una con supuestos
determinados. Mencionamos slo una de estas pruebas debido a su simplicidad. Es la
prueba de Koenker-Basset (KB). Al igual que las pruebas Park, Breusch-Pagan-Godfrey
2
y la de White, la prueba KB se basa en los residuos al cuadrado, ui , pero en vez de
hacer la regresin sobre una o ms regresoras, se efecta la regresin de los residuos al
cuadrado sobre los valores estimados de la regresora al cuadrado. De manera especfica,
si el modelo original es:
Yi =1 +2X2i +3X3i ++kXki +ui
se estima este modelo, se obtiene u i de dicho modelo y luego se calcula
2
2
ui =1 +2(Yi) +vi
donde Yi son los valores estimados del modelo. La hiptesis nula es que 2 = 0. Si no se
rechaza, se puede concluir que no existe heteroscedasticidad. La hiptesis nula se prueba
2
con las pruebas t o F usuales. (Observe que F1,k = tk .) Si el modelo es doble logaritmo,
2
se lleva a cabo la regresin de los residuos al cuadrado sobre (log Yi ) . Otra ventaja de
la prueba KB es que es aplicable aunque el trmino de error en el modelo original no est
normalmente distribuido.
Medidas correctivas
2
Cuando se conoce i : mtodo de los mnimos cuadrados ponderados
2
Si se conoce i , el mtodo ms directo de corregir la heteroscedasticidad es con los
mnimos cuadrados ponderados, pues los estimadores obtenidos mediante este mtodo
son MELI.

Cuando no se conoce i

2
Si se conocen las verdaderas i , podemos utilizar el mtodo de MCP para obtener
2
estimadores MELI. Como pocas veces se conocen las verdaderas i , existe alguna
forma de obtener estimaciones consistentes (en el sentido estadstico) de las varianzas y
covarianzas de los estimadores de MCO aunque haya heteroscedasticidad? La respuesta
es s.
Varianzas y errores estndar consistentes con heteroscedasticidad de White
White demostr que esta estimacin puede realizarse de forma que las inferencias
estadsticas sean asintticamente vlidas (es decir, para muestras grandes) sobre los
verdaderos valores de los parmetros. Sin embargo, en la actualidad hay diversos
paquetes de computacin que presentan varianzas y errores estndar con la correccin
de heteroscedasticidad de White en forma simultnea con las varianzas y los errores
estndar de MCO usuales. A propsito, los errores estndar de White corregidos
mediante heteroscedasticidad tambin se conocen como errores estndar robustos.
Supuestos razonables sobre el patrn de heteroscedasticidad
Una desventaja del procedimiento de White, adems de ser de muestras grandes, es que
los estimadores obtenidos por este medio pueden no ser tan eficientes como los
obtenidos por mtodos que transforman la informacin para reflejar tipos especficos de
heteroscedasticidad.

Supuesto 1: La varianza del error es proporcional a Xj 2 :


Eu 2 =2X 2
i
i

Supuesto 2: La varianza del error es proporcional a Xi. La transformacin de raz


cuadrada:
2 2
E ui = Xi

Supuesto 3: La varianza del error es proporcional al cuadrado del valor medio de


Y.
E ui2 =2[E(Yi)]2

Supuesto 4: Una transformacin logartmica como


lnYi =1+2lnXi +ui

con gran frecuencia reduce la heteroscedasticidad cuando se compara con la regresin

Yi =1 +2Xi +ui.

Autocorrelacin:
El trmino autocorrelacin se define como la correlacin entre miembros de series de
observaciones ordenadas en el tiempo [como en datos de series de tiempo] o en el
espacio [como en datos de corte transversal]. En el contexto de regresin, el modelo
clsico de regresin lineal supone que no existe tal autocorrelacin en las perturbaciones
ui. Simblicamente,
cov(ui, uj|xi, xj) = E(uiuj) = 0

i j

Consecuencias:
Se distinguen dos casos.
Estimacin por MCO tomando en cuenta la autocorrelacin
Como se mencion, 2 no es MELI, y aunque se fuera a usar var( 2)AR1, es probable
que los intervalos de confianza derivados de all sean ms amplios que los basados en el
procedimiento MCG. Como seala Kmenta, es probable que ste sea el resultado aunque
el tamao de la muestra se incremente indefinidamente. Es decir, 2 no es
asintticamente eficiente. La implicacin de este hallazgo para pruebas de hiptesis es
clara: es probable que se declare un coeficiente estadsticamente no significativo (es
decir, no diferente de cero) aunque en realidad pueda serlo (es decir, si se basa en el
procedimiento MCG correcto).
Estimacin por MCO ignorando la autocorrelacin
La situacin es potencialmente muy grave si no slo utilizamos 2 sino tambin var (2)
2
2
= / xt , con lo cual se ignora por completo el problema de autocorrelacin; es decir,
creemos errneamente que los supuestos usuales del modelo clsico se mantienen.
Surgirn errores por las siguientes razones:
1. Es probable que la varianza de los residuos

2
= u t /(n 2) subestime la verdadera

2
.
2
2. Como resultado, es probable que se sobreestime R .
3. Aunque 2 no est subestimada, var(2) puede subestimar var(2) AR1 su varianza
con autocorrelacin (de primer orden), pese a que esta ltima sea ineficiente comparada
con var(2)MCG.

4. Por consiguiente, las pruebas de significancia t y F usuales dejan de ser vlidas y, de


aplicarse, es probable que conduzcan a conclusiones errneas sobre la significancia
estadstica de los coeficientes de regresin estimados.

Deteccin:
I. Mtodo grfico
Recuerde que el supuesto de no autocorrelacin del modelo clsico se relaciona con las
perturbaciones poblacionales ut, las cuales no pueden observarse directamente. En su
lugar disponemos de valores sustitutos, los residuos ut, a partir del procedimiento usual
MCO. Aunque las ut no son

lo mismo que las ut, con mucha frecuencia un examen visual de las da algunas claves
sobre la posible presencia de autocorrelacin en las u. En realidad, un examen visual de
2
ut o (u t ) proporciona informacin til no slo sobre la autocorrelacin, sino tambin
sobre heteroscedasticidad. Como afirma un autor:
No se puede exagerar la importancia de producir y analizar grficos [de residuos] como
parte habitual del anlisis estadstico. Adems de proporcionar en ocasiones un resumen
accesible para entender un problema complejo, permiten el examen simultneo de los
datos, considerados en su conjunto, mientras que a la vez ilustran con claridad el
comportamiento de los casos individuales.
II. Prueba de las rachas

Definimos ahora una racha como una sucesin ininterrumpida de un smbolo o atributo,
como + o . Definimos adems la longitud de una racha como el nmero de elementos
que contiene. En la anterior sucesin , hay 5 rachas: una racha de 8 signos menos (es
decir, de longitud 8), una racha de 21 signos ms (es decir, de longitud 21), una racha de
11 signos menos (es decir, de longitud 11), una racha de 3 signos ms (es decir, de
longitud 3) y una racha de 3 signos menos (es decir, de longitud 3). Para un mejor efecto
visual, presentamos las rachas entre parntesis.
Al examinar el comportamiento de las rachas en una sucesin de observaciones
estrictamen- te aleatoria, es posible derivar una prueba de aleatoriedad de las rachas.
Nos planteamos la si- guiente pregunta: son muchas o muy pocas las 5 rachas
observadas en el ejemplo ilustrativo consistente en 46 observaciones en comparacin con
el nmero de rachas esperadas en una su- cesin de 46 observaciones estrictamente
aleatoria? Si hay muchas rachas, significa que en el ejemplo los residuos cambian de
signo frecuentemente, y se indica con esto una correlacin serial negativa (compare esto
con la figura 12.3b). En forma similar, si hay muy pocas rachas, pueden indicar
autocorrelacin positiva, como en la figura 12.3a). Entonces, a priori, la figura indicara
una correlacin positiva en los residuos.
Ahora, sea:
N = nmero total de observaciones = N1 + N2
N1 = nmero de smbolos + (es decir, residuos +)

N2 = nmero de smbolos (es decir, residuos )


R = nmero de rachas
Entonces, segn la hiptesis nula de que los resultados sucesivos (en este caso,
residuos) son in- dependientes, y si suponemos que N1 > 10 y N2 > 10, el nmero de
rachas est (asintticamente) normalmente distribuido con

Nota: N=N1 +N2.Si la hiptesis nula de aleatoriedad es sostenible, y segn las


propiedades de la distribucin normal, debemos esperar que Prob [E(R) 1.96R R
E(R) + 1.96R] = 0.95) Es decir, la probabilidad de que el intervalo anterior incluya a R
es de 95%. Por tanto, tenemos
la siguiente regla:
No rechace la hiptesis nula de aleatoriedad a 95% de confianza si R, el nmero de
rachas, est en el intervalo de confianza anterior; rechace la hiptesis nula si la R
estimada se encuentra fuera de estos lmites. (Nota: Puede elegir cualquier nivel de
confianza que desee.)

III. Prueba d de Durbin-Watson


Se le conoce como estadstico d de Durbin-Watson, que se define como

que es simplemente la razn de la suma de las diferencias al cuadrado de residuos


sucesivos sobre la SCR. Observe que, en el numerador del estadstico d, el nmero de
observaciones es n 1 porque se pierde una observacin al obtener las diferencias
consecutivas.
Una gran ventaja del estadstico d es que se basa en los residuos estimados, que se
calculan de manera rutinaria en los anlisis de regresin. Debido a esta ventaja, es
frecuente incluir el estadstico d de Durbin-Watson en los informes de anlisis de
2 2
regresin, junto con otros estadsticos de resumen, como R , R ajustada, t y F. Aunque
el estadstico d se utiliza ahora en forma rutinaria, es importante observar los supuestos

en los cuales se basa:


1. El modelo de regresin incluye el trmino del intercepto. Si dicho trmino no est
presente, como en la regresin a travs del origen, es esencial efectuar de nuevo la
regresin con dicho trmino para obtener la SCR.
2. Las variables explicativas, X, son no estocsticas, es decir, son fijas en muestreo
repetido.
3. Las perturbaciones ut se generan mediante el esquema autorregresivo de primer orden:
ut = ut1 + t. Por tanto, no se pueden utilizar para detectar esquemas autorregresivos
de orden superior.
4. Se supone que el trmino de error ut est normalmente distribuido.
5. El modelo de regresin no incluye valor(es) rezagado(s) de la variable dependiente
como una variable explicativa. Por tanto, la prueba es inaplicable a modelos del siguiente
tipo:
Yt =1 +2X2t +3X3t ++kXkt +Yt1 +ut
donde Yt1 es el valor de Y rezagada un periodo. Tales modelos se conocen como
modelos autorregresivos.
6. No hay observaciones faltantes en los datos. Por tanto, en la regresin de salariosproductividad de 1960 a 2005, si por alguna razn faltaran observaciones, por ejemplo, de
1978 y 1982, el estadstico d no permitira la ausencia de tales observaciones.

El procedimiento de prueba aplicado se explica mejor con ayuda de la figura anterior, la


cual muestra que los lmites de d son 0 y 4. stos obtiene:

Se puede utilizar el siguiente procedimiento de prueba d modificada. Con el nivel de


significancia ,
1.

H0: = 0 frente a H1: > 0. Si el valor estimado d < dU, rechace H0 en el nivel . Es decir,
hay correlacin positiva estadsticamente significativa.

2.

H0: = 0 frente a H1: < 0. Si el valor estimado (4 d) < dU, rechace H0 en el nivel ; es
decir, hay evidencia estadsticamente significativa de autocorrelacin negativa.

3.

H0: = 0 frente a H1: 0. RechaceH0 en el nivel 2 si d < dU o (4 d) < dU, es decir,


hay evidencia estadsticamente significativa de autocorrelacin, positiva o negativa.
4. IV. Una prueba general de autocorrelacin:la prueba de Breusch-Godfrey
(BG)
32
La prueba BG, que tambin se conoce como prueba ML,
procede de la siguiente
manera: utilizamos el modelo de regresin de dos variables para ilustrar la prueba,
aunque se pueden aadir al modelo muchas regresoras. Asimismo, se pueden incluir en
l valores rezagados de la regresada. Sea
Yt =1 +2Xt +ut
Suponga que el trmino de error ut sigue el esquema autorregresivo de orden p, AR(p),
del siguiente modo:
ut =1ut1 +2ut2 ++putp +t
donde t es un trmino de error de ruido blanco, como ya examinamos. Lo anterior es una
simple extensin del esquema AR(1), como el lector ya habr reconocido.
La hiptesis nula H0 por demostrar es
H0:1 =2 =p =0
Es decir, no existe correlacin serial de ningn orden. La prueba BG implica los siguientes

pasos:
1. Estime (12.6.14) mediante MCO y obtenga los residuos ut.
2. Haga la regresin ut sobre la Xt original (si hay ms de una variable X en el modelo
original, inclyalas tambin) y u t 1 , u t 2 , . . . , u t p, donde estas ltimas son los
valores rezagados de los residuos estimados en el paso 1. Por tanto, si p = 4,
introduciremos en el modelo cuatro valores rezagados de los residuos como regresoras
adicionales. Observe que para hacer esta regresin slo hay (n p) observaciones (por
qu?). En resumen, realice la siguiente regresin:
ut =1 +2Xt +1ut1 +2ut2 ++putp +t
2
33
y obtenga R de esta regresin (auxiliar).
3. Si el tamao de la muestra es grande, Breusch y Godfrey demostraron que
2
2
(n p)R p
2
Es decir, asintticamente, n p veces el valor de R obtenido en la regresin auxiliar
2
sigue la distribucin ji cuadrada con p gl. Si en una aplicacin (n p)R excede el valor
crtico ji cuadrada en el nivel de significancia seleccionado, podemos rechazar la hiptesis
nula, en cuyo caso, por lo menos una es significativamente diferente de cero.
Pueden mencionarse los siguientes puntos prcticos sobre la prueba BG:
1. Las regresoras incluidas en el modelo de regresin pueden contener valores rezagados
de la variable regresada Y; es decir, Yt1, Yt2, etc., pueden aparecer como variables
explicativas. Contraste este modelo con la restriccin de la prueba de Durbin-Watson, que
no permite valores rezagados de la variable regresada entre las variables explicativas.
2. Como ya sealamos, la prueba BG es aplicable aunque las perturbaciones sigan un
proceso de promedios mviles (PM) de orden p, es decir, aunque las ui se generen como
sigue:
ut =t +1t1 +2t2 ++ptp donde t es un trmino de error de ruido blanco; es
decir, el trmino de error que satisface todos los supuestos clsicos.
3. Si p = 1, que significa autorregresin de primer orden, la prueba BG se conoce como
prueba m de Durbin.
4. Una desventaja de la prueba BG es que el valor de p, la longitud del rezago, no puede
especificarse a priori. Es inevitable algn grado de experimentacin con el valor de p. A
veces se pueden utilizar los llamados criterios de informacin Akaike y Schwarz para
seleccionar la longitud del rezago.
5. Con los valores de las variables X y los valores rezagados de u, la prueba supone que
la varianza de u en la ecuacin anterior es homoscedstica.

Medidas correctivas
Si despus de aplicar una o ms pruebas de diagnstico para la autocorrelacin de las
analizadas en la seccin previa encontramos autocorrelacin, qu hacer? Hay cuatro
opciones:
1. Trate de averiguar si se trata de autocorrelacin pura y no el resultado de una mala
especificacin del modelo. A veces se observan patrones en los residuos porque el
modelo est mal especificado es decir, se excluyeron variables importantes o porque su
forma funcional no es correcta.
2. Si se trata de autocorrelacin pura, se puede utilizar una transformacin apropiada del
modelo original de manera que en el modelo transformado no se presente el problema de
la autocorrelacin (pura). Como en la heteroscedasticidad, habr que emplear algn
mtodo generalizado de mnimos cuadrados (MCG).
3. En muestras grandes se puede utilizar el mtodo Newey-West para obtener los errores
estndar de los estimadores de MCO corregidos para autocorrelacin. Este mtodo en
realidad es una extensin del mtodo de errores estndar consistentes con
heteroscedasticidad de White, que analizamos en el captulo anterior.
4. En algunas situaciones se puede conservar el mtodo MCO.Debido a la importancia de
cada uno de estos temas, les dedicamos una seccin.

Vous aimerez peut-être aussi