Académique Documents
Professionnel Documents
Culture Documents
Apuntes preparados para la clase de Econometra para la carrera de Licenciado en Economa Agrcola y Agronegocios de
la DCSE de la UAAAN.
2
Maestro titular del curso, del Departamento de Economa Agrcola de la DCSE - UAAAN. Saltillo, Coah. Mx.
1
X2
10
15
18
24
30
X3
50
75
90
120
150
X*3
52
75
97
129
152
La tercera columna se increment con nmeros que se obtuvieron de una tabla aleatoria.
Note que x3 = 5x2, el coeficiente de correlacin entre x 2 y x3 es igual a + 1 (colinealidad
perfecta), y la correlacin entre x2 y x3 es de 0.9959 "casi perfecta3".
Ejemplo 2: Sea el siguiente modelo de regresin
Y = 1x1 + 2x2 +
Si a priori determinamos que x2 = 2x1
Y = 1 x1 + 2 (2x1 ) +
Y = (1 + 22 ) x1 +
Entonces solo 1 + 22 ser estimable. No es posible obtener estimadores separados de 1 y
2 en este caso se dice que existe una multicolinelidad perfecta ya que x 1 y x2
correlacionadas r2 12 = 1, en la practica r2 no es 1,
pero tiene un valor muy prximo. Sean los siguientes datos hipotticos.
S11 = 200
S12 = 150
S22 = 113
S1y = 350
S2y = 263
S1y = 347.5
S1y = 261.5
Ahora ya no hay colinealidad entre estas variables sin embargo las dos variables estn altamente correlacionadas.
R2 = 0.9959
2
Si se satisfacen los supuestos de la regresin lineal (RL) y los mnimos cuadrados ordinarios
(MCO), y los coeficientes de los estimadores de regresin lineal (MELI). Entonces la
multicolinealidad no viola los supuestos bsicos de la regresin. Los efectos tienen que ver
con la dificultad de obtener los coeficientes estimados con errores estndares pequeos. Sin
embargo el mismo problema se observa cuando se tiene pocas observaciones o al obtener
variables independientes con varianzas pequeas. Cualquier estimacin es imposible
cuando se tiene una poblacin de n = 0. De esto se tiene:
1. Los estimadores de MCO son insesgados.
2. La colinealidad no distribuye la propiedad de varianzas pequeas.
3. La multicolinealidad es esencialmente un fenmeno ( de regresin muestral). Que s
la variable x no esta relacionada en la poblacin, lo puede estar en la muestra. Por
ejemplo; El consumo que esta en funcin del ingreso y la riqueza, el ingreso y la
riqueza estn correlacionadas no en forma perfecta. Generalmente el que tiene
riqueza tiende a tener mayores ingresos. En las muestras puede ser un problema
difcil de distinguir las influencias por separado.
3. CONSECUENCIAS PRCTICAS
En los casos de casi o alta multicolinealidad es posible que se presenten las siguientes
consecuencias.
1. Aun cuando los estimadores MCO y MELI estn presentes varianzas y covarianzas
grandes, que hacen difcil la estimacin precisa.
2. Debido a la consecuencia 1, los intervalos de confianza tienden a ser mucho ms
amplios conduciendo a una aceptacin ms fcil de la hiptesis nula de cero, (es decir
que el verdadero coeficiente de probabilidad es cero).
3. Tambin debido a la consecuencia 1, la razn t de uno o ms coeficientes tiende a ser
estadsticamente no significativo.
4. Aun cuando la razn t de uno o ms coeficientes sea estadsticamente no
significativos, el R2, la media global de bondad de ajuste puede ser muy alto.
5. Los estimadores MCO y sus errores estndar pueden ser sensibles a pequeos
cambios en la informacin.
Ejemplo No. 3
Se quiere explicar el consumo de un cierto bien en funcin del ingreso y de la riqueza y se
tienen los siguientes datos.
4
Consumo Ingreso X1
Y
70
80
65
100
90
120
95
140
110
160
115
180
120
200
140
220
155
240
150
260
Riqueza
X2
810
1009
1273
1425
1633
1876
2052
2201
2435
2686
SC
8 565.5541
324.4459
gl
2
7
CM
4282. 777
46.3494
F
92.40
Algunos mtodos:
Habindose estudiado la naturaleza y las consecuencias de la multicolinealidad, el
interrogante natural es: Cmo puede conocerse la presencia de colinealidad en
cualquier situacin dada, especialmente en modelos que contienen mas de dos
variables explicativas? Aqu es til tener en mente la advertencia siguiente:
1. La multicolinealidad es un problema de grado y no de clase. La distincin importante no es
entre la presencia y la ausencia de multicolinealidad, sino entre sus diferentes grados.
2. Puesto que la multicolinealidad se refiere a la condicin de las variables explicativas las
cuales no son estocsticas por supuestos, esta es una caracterstica de la muestra y no de
la poblacin. Por consiguiente, no es necesario <<llevar a cabo pruebas sobre
multicolinealidad>> pero se puede, si se desea, medir su grado en cualquier muestra
determinada.
Puesto que la multicolinealidad es esencialmente un fenmeno de tipo muestral que surge
de informacin principalmente no experimental, recopilada en la mayora de las ciencias
sociales, no se tiene un mtodo nico de detectarla o de medir su fuerza. Lo que se tiene en
realidad son ciertas reglas prcticas, algunas informales y algunas formales, pero todas las
reglas prcticas. Considrense a continuacin algunas de estas.
1. Un R2 elevado pero pocas razones t significativas. Como se mencion anteriormente,
este es un sntoma <clsico> de multicolinealidad. Si el R 2 es alto, es decir, esta por encima
de 0.8, la prueba F, en la mayora de los casos, rechazara la hiptesis de que los
coeficientes parciales de pendiente son simultneamente iguales a cero, pero las pruebas t
individuales mostraran que ningn coeficiente parcial de pendiente, o muy pocos de ellos
son estadsticamente diferentes de cero. Lo anterior se demostr claramente en el ejemplo
de consumo ingreso-riqueza. Aunque este diagnstico es razonable, su desventaja es que
Aunque puede ser til un estudio de correlaciones parciales, no hay garanta de que estas
proporcionen una gua infalible sobre multicolinealidad, ya que puede suceder que tanto el
R2 como todas las correlaciones parciales sean suficientemente altas. Sin embargo y tal vez
ms importante, se ha mostrado que la prueba de correlacin parcial ineficaz en el sentido
de que una determinada correlacin parcial puede ser compatible con diferentes patrones de
multicolinealidad.
4. Regresiones auxiliares. Puesto que la multicolinealidad surge debido a que uno o mas
de los Regresores son combinaciones lineales exactas o aproximadas de los otros
regresores, una forma de encontrar cual variable x esta relacionada con las otras variables x
es efectuar la regresin de cada x i sobre las variables x restantes y calcular el R 2
correspondiente, que se designa R 2; cada una de estas regresiones se denomina regresin
auxiliar, auxiliar a la regresin principal de Y sobre las x. Entonces, siguiendo la relacin
entre F y R2, la variable
(R2x1x2x3 .. xk ) / (k - 2)
Ra = ------------------------------------------------(1 -R2X1X2X3.. xk) / (n-k+ 1)
sigue la distribucin F con k - 2 y n - k + 1 gl. En la ecuacin anterior n representa el tamao
de la muestra, k representa el numero de variables explicativas incluyendo el trmino
intercepto y R2X2j 12x3 xk es el coeficiente de determinacin en la regresin de la variable, Y
sobre las variables x restantes.
Si el F calculado excede al F crtico al nivel de significancia seleccionado, se dice entonces
que la x particular es colineal con las dems x si no excede al F critico, se dice que esta no
es colineal con las dems x, en cuyo caso podemos mantener la variable en el modelo. Si Fi
es estadsticamente significativo, aun tendremos que decidir si la x que s esta considerando
debe eliminarse del modelo.
Sin embargo, este mtodo no deja de tener sus desventajas ya que ... si la multicolinealidad
comprende solamente unas pocas variables, de tal forma que las regresiones auxiliares no
sufren de multicolinealidad extensa, los coeficientes estimados pueden revelar la naturaleza
de la dependencia lineal entre los regresores. Desafortunadamente, si existen diversas
asociaciones lineales complejas, ste ejercicio de ajuste de curva puede no tener gran valor
puesto que ser difcil identificar las interrelaciones separadas .
En lugar de probar formalmente todos los valores R 2 auxiliares, se puede adoptar la regla
prctica que sugiere que la multicolinealidad puede ser un problema complicado solamente
s el R2 obtenido de una regresin auxiliar es mayor que el R 2 global, es decir, aquel obtenido
de la regresin de Y sobre todos los regresores. Por cierto, al igual que todas las dems
reglas prcticas, sta debe ser utilizada con buen criterio.
5. Valores propios e ndice de condicin. Si se examina el listado SAS 4 de la funcin de
produccin Cobb-Douglas. Se vera que SAS utiliza los valores propios y el ndice de
condicin para diagnosticar multicolinealidad. No se analizar aqu el tema de los valores
4
Es un paquete estadstico uno de los mejores que hay en el mercado <<el mejor>>.
8
propios puesto que llevara a involucrarse en temas de lgebra matricial que estn por fuera
del alcance de estos apuntes, sin embargo, partiendo de estos valores propios, se puede
derivar lo que se conoce como nmero de condicin k definido.
K = mximo valor propio / mnimo valor propio
Y = el ndice de condicin (IC) definido como IC = (mximo valor propio) / mnimo valor
propio) = k
Entonces se tiene esta regla prctica. Si k esta entre 100 y 1000, existe una multicolinealidad
que va desde moderada a fuerte, mientras que s este excede a 1000, existe
multicolinealidad severa. Alternativamente, s el IC (= k) esta entre 10 y 30, existe
multicolinealidad entre moderada y fuerte y s excede 30, existe una multicolinealidad
severa. Para el ejemplo ilustrativo, k = 3.0 / 0.00002422 o alrededor de 123,864 e IC =
123864 = alrededor de 352; en consecuencia, tanto k como IC sugieren multicolinealidad
severa. Claro esta que k e IC pueden calcularse entre el mximo valor propio y cualquier otro
valor propio, como se hace en el listado. ( Nota: En el listado no se calcula explcitamente k,
pero este es simplemente IC elevado al cuadrado, a propsito, obsrvese que un valor
propio bajo [en relacin con el mximo valor propio] es generalmente una indicacin de
dependencias casi lineales en los datos).
Algunos autores consideran que el ndice de condicin es el mejor diagnostico de
multicolinealidad disponible. Sin embargo, esta opinin no es ampliamente aceptada.
Entonces, el IC es solamente una regla prctica, quiz un poco mas sofisticada.
6. Factores de tolerancia y de inflacin de varianza. Para el modelo de regresin con k
variables [Y, el intercepto y los (k- 1) regresores], como se ha visto la varianza de un
coeficiente de regresin parcial puede ser expresada como var (j) = (2 / x2j ) (1/1 - R2j) =
(2 / x2j) ( FlVj )
donde j es el coeficiente de regresin (parcial del regresor x j R2J es el R2 en la regresin
(auxiliar de xj sobre los restantes (k - 2) Regresores y FlV j es el primer factor de inflacin de
varianza, a medida que R2, aumenta hacia la unidad, es decir, a medida que aumenta la
colinealidad de xj con los dems regresores, el FIV tambin aumenta y en el limite puede ser
infinito. Algunos autores utilizan, por consiguiente, el FIV como indicador de la
multicolinealidad: Entre mayor es el valor del FlV j mayor <<problema>> o colinealidad tiene
la variable xj. Pero, que tan alto debe ser el FIV antes de que un regresor se convierta en
un problema?, Como regla prctica, s el FIV de una variable es superior a 10 (esto suceder
si R2J excede 0.90), se dice que esa variable es altamente colineal.
5. MEDIDAS REMEDIALES
9
10
11
dependencias lineales casi exactas de la matriz x [de datos] de diseo original. Por tanto,
entonces, en una muestra futura utilizada para pronosticar Y, x 2, tambin debe ser
aproximadamente igual a 2x3, una condicin difcil de cumplir en la prctica, en cuyo caso la
prediccin se har cada vez mas incierta. Adicionalmente, si el objetivo del anlisis no es
solamente la prediccin sino tambin la estimacin confiable de los parmetros, la presencia
de alta multicolinealidad puede ser un problema porque, como se ha visto, conduce a
grandes errores estndar en los estimadores.
Sin embargo, existen situaciones en las cuales la multicolinealidad puede no representar un
problema grave. Es el caso en el cual se tiene un R 2 elevado y los coeficientes de regresin
son significativos individualmente como lo demuestran los altos valores t.
Esto puede surgir si los coeficientes individuales resultan estar numricamente por encima
del valor verdadero, de tal forma que el efecto siga visible, a pesar de estar inflados los
errores estndar y/o debido a que el valor verdadero mismo es tan grande que aun cuando
se obtenga una estimacin bastante subestimada, esta continua siendo significativa.
6. CONCLUSIONES GENERALES
Uno de los supuestos del modelo clsico de regresin lineal es que no haya multicolinealidad
entre las variables explicativas, las x. Interpretado en trminos generales, la multicolinealidad
se refiere a una situacin en la cual existe una relacin lineal exacta o aproximadamente
exacta entre las variables x.
1. Las consecuencias de la multicolinealidad son las siguientes: Si existe colinealidad
perfecta entre las X, sus coeficientes de regresin son indeterminados y sus errores
estndar no estn definidos. Si la colinealidad es alta pero no es perfecta, la
estimacin de los coeficientes de regresin es posible pero sus errores estndar
tienden a ser grandes. Como resultado, los valores poblacionales de los coeficientes
no pueden ser estimados en forma precisa. Sin embargo, si el objetivo es estimar
combinaciones lineales de estos coeficientes, las funciones estimables, esto puede
lograrse aun en presencia de multicolinealidad perfecta.
2. Aunque no hay mtodos seguros para detectar la colinealidad, existen diversos
indicadores de esta, como los siguientes:
A) El signo mas claro de multicolinealidad es cuando el R 2 es muy alto, pero ninguno
de los coeficientes de regresin es estadsticamente significativo con base en la
prueba t convencional. Por supuesto, este caso es extremo.
B) En los modelos que contienen apenas dos variables explicativas, puede tenerse
una idea de colinealidad relativamente buena mediante el examen del coeficiente
de correlacin de orden cero, o simple, entre las dos variables. Si esta correlacin
es alta, la multicolinealidad es generalmente la culpable.
C) Sin embargo, los coeficientes de correlacin de orden cero pueden ser malos
indicadores en modelos que contienen mas de dos variables X, puesto que es
posible tener correlaciones bajas de orden cero y encontrar aun alta
12
13