Vous êtes sur la page 1sur 13

MULTICOLINEALIDAD1

Ing. Lorenzo Castro Gmez2


El supuesto 10 del modelo clsico de regresin lineal (MCRL) plantea que no existe
multicolinealidad entre los regresores incluidos en el modelo de regresin, los supuestos 7 y
8 son complementarios al supuesto de multicolinealidad. El supuesto 7, especifica que el
nmero de observaciones debe superar al nmero de regresores (el tema de muestras
pequeas y el supuesto 8, que debe haber suficiente variabilidad en los valores de los
regresores. En este tema consideramos en forma critica el supuesto de no multicolinealidad
buscando respuestas a las siguientes preguntas:
1. Cul es la naturaleza de la multicolinealidad?
2. Es la multicolinealidad realmente un problema?
3. Cules son sus consecuencias prcticas?
4. Cmo se detecta?
5. Qu medidas remdiales pueden tomarse para aliviar el problema de multicolinealidad?
Tambin mostraremos la forma como los supuestos 7 y 8 se ajustan con el supuesto de no
multicolinealidad.
1. NATURALEZA DE LA MULTICOLINEALIDAD
Originalmente este trmino se refera a una relacin lineal "perfecta" o exacta entre algunas
de las variables explicativas de un modelo de regresin. Si las X son las variables
explicativas y se cumple que 1 x1 + 2x2 + 3x3 + +kxk = 0. Para no todos las s = 0.
Ejemplo de colinealidad perfecta
1x1 + 2x2 + 3x3 = 0 implica que x2 = - (1 / 2) x1 - (3 / 2) x3. La colinealidad puede no ser
tan perfecta, se tiene; 1x1 + 2x2+ 3x3 + v = 0;
implica que x2 = - (1 / 2) x1 - (3/2) x3 - (v/2 )
Como ejemplo numrico, considrese la siguiente informacin hipottica:
Ejemplo 1.

Apuntes preparados para la clase de Econometra para la carrera de Licenciado en Economa Agrcola y Agronegocios de
la DCSE de la UAAAN.
2
Maestro titular del curso, del Departamento de Economa Agrcola de la DCSE - UAAAN. Saltillo, Coah. Mx.
1

X2
10
15
18
24
30

X3
50
75
90
120
150

X*3
52
75
97
129
152

La tercera columna se increment con nmeros que se obtuvieron de una tabla aleatoria.
Note que x3 = 5x2, el coeficiente de correlacin entre x 2 y x3 es igual a + 1 (colinealidad
perfecta), y la correlacin entre x2 y x3 es de 0.9959 "casi perfecta3".
Ejemplo 2: Sea el siguiente modelo de regresin
Y = 1x1 + 2x2 +
Si a priori determinamos que x2 = 2x1
Y = 1 x1 + 2 (2x1 ) +
Y = (1 + 22 ) x1 +
Entonces solo 1 + 22 ser estimable. No es posible obtener estimadores separados de 1 y
2 en este caso se dice que existe una multicolinelidad perfecta ya que x 1 y x2
correlacionadas r2 12 = 1, en la practica r2 no es 1,
pero tiene un valor muy prximo. Sean los siguientes datos hipotticos.
S11 = 200
S12 = 150
S22 = 113

S1y = 350
S2y = 263

Las ecuaciones normales son:


2001 + 1502 = 350
1501 + 1132 = 253
Los estimadores son: 1 = 1, 2 = 1. S se elimina una observacin se tiene:
S11 = 199
S12 = 149
S22 = 112

S1y = 347.5
S1y = 261.5

Ahora ya no hay colinealidad entre estas variables sin embargo las dos variables estn altamente correlacionadas.
R2 = 0.9959
2

Las ecuaciones normales son:


1991 + 1492 = 347.5
1491, + 1122 = 261.5
los estimadores: 1 = - 1/2, 2 = 3
Nota: variaciones muy pequeas en la varianzas y las covarianzas producen cambios
drsticos en los estimadores de los parmetros. Se sabe que r 2 12 = (150)2 / 200(113) =
0.995. La inclusin o eliminacin de
observaciones produce cambios en las varianzas
y las covarianzas, esta es una consecuencia de la multicolinealidad.

Grfico de Ballentine de multicolinealidad.


La multicolinealidad es perfecta s los coeficientes de regresin de las variables x son
indeterminados y sus errores estndares infinitos. S la multicolinealidad es menos que
perfecta los coeficientes de regresin aunque determinados poseen-grandes errores
estndares (en relacin con los propios coeficientes) lo cual significa que no se pueden
estimar con gran precisin. Si la multicolinealidad es perfecta suceden dos cosas a) No se
pueden estimar los parmetros y b) Las varianzas de los parmetros son infinitos las otras
variables explicativas, una manera de averiguar cual variable x esta relacionada con otras x
variables consiste en realizar una regresin de cada x con las restantes x y luego calcular el

correspondiente R2 que aqu se designara como R 2. Si dicho R2 es "alto" implica


multicolinealidad.
2. LA MULTICOLINEALIDAD ES REALMENTE UN PROBLEMA.

Si se satisfacen los supuestos de la regresin lineal (RL) y los mnimos cuadrados ordinarios
(MCO), y los coeficientes de los estimadores de regresin lineal (MELI). Entonces la
multicolinealidad no viola los supuestos bsicos de la regresin. Los efectos tienen que ver
con la dificultad de obtener los coeficientes estimados con errores estndares pequeos. Sin
embargo el mismo problema se observa cuando se tiene pocas observaciones o al obtener
variables independientes con varianzas pequeas. Cualquier estimacin es imposible
cuando se tiene una poblacin de n = 0. De esto se tiene:
1. Los estimadores de MCO son insesgados.
2. La colinealidad no distribuye la propiedad de varianzas pequeas.
3. La multicolinealidad es esencialmente un fenmeno ( de regresin muestral). Que s
la variable x no esta relacionada en la poblacin, lo puede estar en la muestra. Por
ejemplo; El consumo que esta en funcin del ingreso y la riqueza, el ingreso y la
riqueza estn correlacionadas no en forma perfecta. Generalmente el que tiene
riqueza tiende a tener mayores ingresos. En las muestras puede ser un problema
difcil de distinguir las influencias por separado.
3. CONSECUENCIAS PRCTICAS
En los casos de casi o alta multicolinealidad es posible que se presenten las siguientes
consecuencias.
1. Aun cuando los estimadores MCO y MELI estn presentes varianzas y covarianzas
grandes, que hacen difcil la estimacin precisa.
2. Debido a la consecuencia 1, los intervalos de confianza tienden a ser mucho ms
amplios conduciendo a una aceptacin ms fcil de la hiptesis nula de cero, (es decir
que el verdadero coeficiente de probabilidad es cero).
3. Tambin debido a la consecuencia 1, la razn t de uno o ms coeficientes tiende a ser
estadsticamente no significativo.
4. Aun cuando la razn t de uno o ms coeficientes sea estadsticamente no
significativos, el R2, la media global de bondad de ajuste puede ser muy alto.
5. Los estimadores MCO y sus errores estndar pueden ser sensibles a pequeos
cambios en la informacin.
Ejemplo No. 3
Se quiere explicar el consumo de un cierto bien en funcin del ingreso y de la riqueza y se
tienen los siguientes datos.
4

Consumo Ingreso X1
Y
70
80
65
100
90
120
95
140
110
160
115
180
120
200
140
220
155
240
150
260

Riqueza
X2
810
1009
1273
1425
1633
1876
2052
2201
2435
2686

La regresin es: Y = 24.7747 + 0.9415 X1 - 0.0424 X2


(6.7525) (0.8229) (0.0807) ee
3.669
1.1442 - 0.5261 t
R2 0.9635, gl = 7.
La R2 = 0.96 nos dice que x1 y x2 explican conjuntamente un 96. 35 % de la variacin del
consumo, pero individualmente ninguno lo explica, ello implica que x 1 y x2 estn tan
correlacionadas que no se puede aislar el efecto.
Separando, el ingreso y la riqueza se puede correr x 2 contra x1 por separado la regresin es:
X2 = 7.5454 + 0.5091 X1
(29.4758) (0.1643) ee
0.2560
62.0405 t R2 = 0.9979
Si se corre Y contra x1 y x2 por separado se tiene:
Y = 24.4545 + 0.5091 X1
(6.4138)
(0.0357) ee
3.8128
14.2432 t
R2 = 0.9621
Y = 24.348 + 0.0498 X2
(6.3837) (0.0037) ee
3.8141
13.3576 t
R2 = 0.9567
Note que la t calculada es muy alta para los parmetros de las x 1 y x2 cundo
se corren por separado contra Y, ello no sucede si se corren conjuntamente.

La hiptesis 1 = 2 = 0. simultneamente sta puede ser rechazada al hacer


el anlisis de varianza ( ANVA).
F.V
Regresin
Residual

SC
8 565.5541
324.4459

gl
2
7

CM
4282. 777
46.3494

F
92.40

F = 4282.777 / 46.3494 = 92.4019


Como es obvio este valor F es altamente significativo.

4. COMO DETECTAR LA MULTICOLINEALIDAD

Algunos mtodos:
Habindose estudiado la naturaleza y las consecuencias de la multicolinealidad, el
interrogante natural es: Cmo puede conocerse la presencia de colinealidad en
cualquier situacin dada, especialmente en modelos que contienen mas de dos
variables explicativas? Aqu es til tener en mente la advertencia siguiente:
1. La multicolinealidad es un problema de grado y no de clase. La distincin importante no es
entre la presencia y la ausencia de multicolinealidad, sino entre sus diferentes grados.
2. Puesto que la multicolinealidad se refiere a la condicin de las variables explicativas las
cuales no son estocsticas por supuestos, esta es una caracterstica de la muestra y no de
la poblacin. Por consiguiente, no es necesario <<llevar a cabo pruebas sobre
multicolinealidad>> pero se puede, si se desea, medir su grado en cualquier muestra
determinada.
Puesto que la multicolinealidad es esencialmente un fenmeno de tipo muestral que surge
de informacin principalmente no experimental, recopilada en la mayora de las ciencias
sociales, no se tiene un mtodo nico de detectarla o de medir su fuerza. Lo que se tiene en
realidad son ciertas reglas prcticas, algunas informales y algunas formales, pero todas las
reglas prcticas. Considrense a continuacin algunas de estas.
1. Un R2 elevado pero pocas razones t significativas. Como se mencion anteriormente,
este es un sntoma <clsico> de multicolinealidad. Si el R 2 es alto, es decir, esta por encima
de 0.8, la prueba F, en la mayora de los casos, rechazara la hiptesis de que los
coeficientes parciales de pendiente son simultneamente iguales a cero, pero las pruebas t
individuales mostraran que ningn coeficiente parcial de pendiente, o muy pocos de ellos
son estadsticamente diferentes de cero. Lo anterior se demostr claramente en el ejemplo
de consumo ingreso-riqueza. Aunque este diagnstico es razonable, su desventaja es que

<<es demasiado fuerte, en el sentido de que la multicolinealidad se considera daina


nicamente cuando la totalidad de las influencias de las variables explicativas sobre Y no se
pueden separar>>.
2. Altas correlaciones entre parejas de regresores. Otra regla prctica que se sugiere
utilizar consiste en observar el coeficiente de correlacin de orden cero o entre dos
regresores. Si este es alto, digamos superior a 0.8, entonces la multicolinealidad es un
problema grave. El problema con este criterio es que, aunque las altas correlaciones de
orden cero pueden sugerir la presencia de colinealidad, no es necesario que dichas
correlaciones sean altas por contar con la presencia de colinealidad en un determinado caso
especfico. Para plantear lo anterior en trminos un poco tcnicos, las correlaciones de orden
cero elevadas son una condicin suficiente pero no necesaria para la existencia de
multicolinealidad debido a que esta puede existir, a pesar de que las correlaciones de orden
cero o correlaciones simples sean comparativamente bajas (es decir, inferiores a 0.50). Para
apreciar esta relacin, supngase que tenemos un modelo con cuatro variables:
y supngase que
Y = + 1x1 + 2x2 + ... + kxk +
X4 = l2x2 + l3x3
donde l2 y l3 son constantes, sin ser las dos iguales a cero. Obviamente, x 4 es una
combinacin lineal exacta de x2 y x3, dado R24,23 = 1, el coeficiente de determinacin en la
regresin de x4 sobre x2 y x3. Ahora, recordando la frmula
R2 4-23 = (r2 42 + r243 + 2 r42 r43 r 23) / 1 - r223
Pero, puesto que R24.23 = 1 debido a la existencia de colinealidad perfecta, se obtiene
1 = (r242 + r243 - 2r42 r43 r23) / 1 - r223
No es difcil ver que se satisface con r 242 = 0.5 y r243 = 0.5 y r223 = - 0.5, que no son valores
muy altos.
Por consiguiente, en los modelos que involucran mas de dos variables explicativas, la
correlacin simple o de orden- cero no proporcionara una gua infalible sobre la presencia de
multicolinealidad. Claro esta que s solamente existen dos variables explicativas, entonces
las correlaciones de orden cero sern suficientes.
3. Examen de las correlaciones parciales. Debido al problema que se acaba de
mencionar, cuando se basa en correlaciones de orden cero, se ha sugerido que se deben
observar, en lugar de ellos, los coeficientes de correlacin parcial. De esta forma, en la
regresin de Y sobre x2 , x3 y x4, s se encuentra que R 2 1.234 es muy elevado pero r 2 12.34 , r2
2
13.24 y r 14.23 son comparativamente bajos, esto puede sugerir que las variables x 2 , x3 y x4
estn altamente intercorrelacionadas y que por lo menos una de estas variables es
superfua.

Aunque puede ser til un estudio de correlaciones parciales, no hay garanta de que estas
proporcionen una gua infalible sobre multicolinealidad, ya que puede suceder que tanto el
R2 como todas las correlaciones parciales sean suficientemente altas. Sin embargo y tal vez
ms importante, se ha mostrado que la prueba de correlacin parcial ineficaz en el sentido
de que una determinada correlacin parcial puede ser compatible con diferentes patrones de
multicolinealidad.
4. Regresiones auxiliares. Puesto que la multicolinealidad surge debido a que uno o mas
de los Regresores son combinaciones lineales exactas o aproximadas de los otros
regresores, una forma de encontrar cual variable x esta relacionada con las otras variables x
es efectuar la regresin de cada x i sobre las variables x restantes y calcular el R 2
correspondiente, que se designa R 2; cada una de estas regresiones se denomina regresin
auxiliar, auxiliar a la regresin principal de Y sobre las x. Entonces, siguiendo la relacin
entre F y R2, la variable
(R2x1x2x3 .. xk ) / (k - 2)
Ra = ------------------------------------------------(1 -R2X1X2X3.. xk) / (n-k+ 1)
sigue la distribucin F con k - 2 y n - k + 1 gl. En la ecuacin anterior n representa el tamao
de la muestra, k representa el numero de variables explicativas incluyendo el trmino
intercepto y R2X2j 12x3 xk es el coeficiente de determinacin en la regresin de la variable, Y
sobre las variables x restantes.
Si el F calculado excede al F crtico al nivel de significancia seleccionado, se dice entonces
que la x particular es colineal con las dems x si no excede al F critico, se dice que esta no
es colineal con las dems x, en cuyo caso podemos mantener la variable en el modelo. Si Fi
es estadsticamente significativo, aun tendremos que decidir si la x que s esta considerando
debe eliminarse del modelo.
Sin embargo, este mtodo no deja de tener sus desventajas ya que ... si la multicolinealidad
comprende solamente unas pocas variables, de tal forma que las regresiones auxiliares no
sufren de multicolinealidad extensa, los coeficientes estimados pueden revelar la naturaleza
de la dependencia lineal entre los regresores. Desafortunadamente, si existen diversas
asociaciones lineales complejas, ste ejercicio de ajuste de curva puede no tener gran valor
puesto que ser difcil identificar las interrelaciones separadas .
En lugar de probar formalmente todos los valores R 2 auxiliares, se puede adoptar la regla
prctica que sugiere que la multicolinealidad puede ser un problema complicado solamente
s el R2 obtenido de una regresin auxiliar es mayor que el R 2 global, es decir, aquel obtenido
de la regresin de Y sobre todos los regresores. Por cierto, al igual que todas las dems
reglas prcticas, sta debe ser utilizada con buen criterio.
5. Valores propios e ndice de condicin. Si se examina el listado SAS 4 de la funcin de
produccin Cobb-Douglas. Se vera que SAS utiliza los valores propios y el ndice de
condicin para diagnosticar multicolinealidad. No se analizar aqu el tema de los valores
4

Es un paquete estadstico uno de los mejores que hay en el mercado <<el mejor>>.
8

propios puesto que llevara a involucrarse en temas de lgebra matricial que estn por fuera
del alcance de estos apuntes, sin embargo, partiendo de estos valores propios, se puede
derivar lo que se conoce como nmero de condicin k definido.
K = mximo valor propio / mnimo valor propio
Y = el ndice de condicin (IC) definido como IC = (mximo valor propio) / mnimo valor
propio) = k
Entonces se tiene esta regla prctica. Si k esta entre 100 y 1000, existe una multicolinealidad
que va desde moderada a fuerte, mientras que s este excede a 1000, existe
multicolinealidad severa. Alternativamente, s el IC (= k) esta entre 10 y 30, existe
multicolinealidad entre moderada y fuerte y s excede 30, existe una multicolinealidad
severa. Para el ejemplo ilustrativo, k = 3.0 / 0.00002422 o alrededor de 123,864 e IC =
123864 = alrededor de 352; en consecuencia, tanto k como IC sugieren multicolinealidad
severa. Claro esta que k e IC pueden calcularse entre el mximo valor propio y cualquier otro
valor propio, como se hace en el listado. ( Nota: En el listado no se calcula explcitamente k,
pero este es simplemente IC elevado al cuadrado, a propsito, obsrvese que un valor
propio bajo [en relacin con el mximo valor propio] es generalmente una indicacin de
dependencias casi lineales en los datos).
Algunos autores consideran que el ndice de condicin es el mejor diagnostico de
multicolinealidad disponible. Sin embargo, esta opinin no es ampliamente aceptada.
Entonces, el IC es solamente una regla prctica, quiz un poco mas sofisticada.
6. Factores de tolerancia y de inflacin de varianza. Para el modelo de regresin con k
variables [Y, el intercepto y los (k- 1) regresores], como se ha visto la varianza de un
coeficiente de regresin parcial puede ser expresada como var (j) = (2 / x2j ) (1/1 - R2j) =
(2 / x2j) ( FlVj )
donde j es el coeficiente de regresin (parcial del regresor x j R2J es el R2 en la regresin
(auxiliar de xj sobre los restantes (k - 2) Regresores y FlV j es el primer factor de inflacin de
varianza, a medida que R2, aumenta hacia la unidad, es decir, a medida que aumenta la
colinealidad de xj con los dems regresores, el FIV tambin aumenta y en el limite puede ser
infinito. Algunos autores utilizan, por consiguiente, el FIV como indicador de la
multicolinealidad: Entre mayor es el valor del FlV j mayor <<problema>> o colinealidad tiene
la variable xj. Pero, que tan alto debe ser el FIV antes de que un regresor se convierta en
un problema?, Como regla prctica, s el FIV de una variable es superior a 10 (esto suceder
si R2J excede 0.90), se dice que esa variable es altamente colineal.

5. MEDIDAS REMEDIALES
9

Qu puede hacerse s la multicolinealidad es grave?, Cmo en el caso de la deteccin, no


hay reglas infalibles porque la multicolinealidad es esencialmente un problema muestral. Sin
embargo, se pueden ensayar las siguientes reglas prcticas, dependiendo su xito de la
gravedad del problema en colinealidad.
1. Informacin a priori. Supngase que se considera el modelo
Y = + 1x1 + 2x2 +
donde Y = consumo, x 1 = ingreso y x2 = riqueza. Como se menciono colineales. Pero
supngase que, a priori, se cree que, 2 = 0,10 1; es decir, la tasa de cambio del consumo
con respecto a la riqueza es una dcima parte de la correspondiente con respecto al ingreso.
Se puede entonces efectuar la siguiente regresin:
Y = + 1X1 + 2x2 +
Y = + 1X1 +
donde xi = x1 + 0.1x2 Una vez se ha obtenido 1 se puede estimar 2 a partir de la relacin
postulada entre 1 y 2
Cmo se obtiene informacin a priori? Esta puede provenir de trabajo emprico anterior, en
donde el problema de colinealidad resulto ser menos grave o de la teora relevante que
soporta el campo de estudio. Por ejemplo, en la funcin de produccin tipo Cobb-Douglas, si
se espera que prevalezcan los rendimientos constantes a escala, entonces (1+2) = 1, en
cuyo caso se puede efectuar la - <<regresin>> - regresando la razn producto-trabajo sobre
la razn capital-trabajo. Si existe colinealidad entre el trabajo y el capital, como generalmente
es el caso en la mayor parte de la informacin muestral, dicha transformacin puede reducir
o eliminar el problema de colinealidad. Pero es preciso hacer una advertencia aqu con
respecto a la imposicin de esas restricciones o puesto que en general se desea probar las
predicciones a priori de la teora econmica en lugar de imponerlas simplemente sobre los
datos para los cuales ellas pueden no ser ciertas.
2. Combinacin de informacin de corte transversal y de series de tiempo. Una variante
de la tcnica de informacin externa o a priori es la combinacin de informacin de corte
transversal y de series de tiempo, conocida como mezcla de datos. Supngase que
deseamos estudiar la demanda de automviles en los Estados Unidos y supngase que se
tiene informacin de series de tiempo sobre el nmero de autos vendidos, el precio promedio
del auto y el ingreso del consumidor. Supngase adems que:
In Yt = a + 1 In Pt + 2 ln It + t
donde Y = nmero de autos vendidos, P = precio promedio, l = ingreso y t = tiempo. El
objetivo es estimar la elasticidad-precio 1 y la elasticidad-ingreso 2 .

10

En la informacin de series de tiempo, las variables precio e ingreso generalmente tienden a


ser altamente colineales. Por consiguiente, si se desea efectuar la anterior regresin, s
deber enfrentar el problema usual de multicolinealidad. Se dice que si se tiene informacin
de corte transversal por ejemplo, informacin generada a travs de grupos de consumidores
o estudios de presupuesto realizados por diversas agencias privadas y estatales, se puede
obtener una estimacin relativamente confiable de la elasticidad-lngreso 1, puesto que con
tal informacin que esta en un punto en el tiempo, los precios no varan mucho. Sea 2 la
elasticidad-ingreso estimada a partir de los datos de corte transversal. Utilizando esta
estimacin, la anterior regresin de series de tiempo puede escribirse como
Y*t = +1 ln P t +
donde Y* = In y - 2 In 1, es decir, Y* representa ese valor de Y despus de eliminarle el
efecto del ingreso. Ahora se puede obtener una estimacin de la elasticidad-precio 1 de la
regresin anterior. Aunque esta es una tcnica atractiva, la mezcla de datos de series de
tiempo y de corte transversal en la forma recin sugerida puede crear problemas de
interpretacin porque se esta suponiendo implcitamente que la elasticidad- ingreso estimada
a partir de datos de corte transversal es igual a la que se habra obtenido a partir de un
anlisis puro de series de tiempo. Sin embargo, la tcnica ha sido utilizada en muchas
aplicaciones y es particularmente valiosa en situaciones en donde las estimaciones de corte
transversal no varan sustancialmente de un grupo a otro.
3. Eliminacin de una(s) variable(s) y el sesgo de especificacin. Al enfrentar el
problema de multicolinealidad severa, una de las soluciones <<m simples>> consiste en
omitir del modelo una de las variables colineales. As, en el ejemplo consumo-ingresoriqueza, al omitir la variable riqueza, obtenemos la regresin, la cual muestra que mientras
en el modelo original la variable ingreso no era estadsticamente significativa, ahora s
vuelve <<altamente>> significativa.
Sin embargo, al eliminar una variable del modelo se puede estar incurriendo en un sesgo de
especificacin o error de especificacin. El sesgo de especificacin surge de la
especificacin incorrecta del modelo utilizado en el anlisis. As, si la teora econmica
afirma que tanto el ingreso como la riqueza deben estar incluidos en el modelo que explica el
gasto de consumo, al eliminar la variable riqueza se incurrir en un sesgo de especificacin.
Existen otros mtodos remediales pero por ahora solo se enunciaran ya que estos forman
parte de otro curso.
4. Transformaciones de variables.
5. Datos nuevos o adicionales.
6. Reduccin de la colinealidad en las regresiones polinomiales.
Se ha dicho que si el nico propsito del anlisis de regresin es el pronostico o la
predicacin, entonces la multicolinealidad no es un problema grave puesto que entre mas
alto sea el R2, mejor es la prediccin. Pero esto puede suceder siempre que los valores de
las variables explicativas para los cuales se desean las predicciones obedezcan las mismas

11

dependencias lineales casi exactas de la matriz x [de datos] de diseo original. Por tanto,
entonces, en una muestra futura utilizada para pronosticar Y, x 2, tambin debe ser
aproximadamente igual a 2x3, una condicin difcil de cumplir en la prctica, en cuyo caso la
prediccin se har cada vez mas incierta. Adicionalmente, si el objetivo del anlisis no es
solamente la prediccin sino tambin la estimacin confiable de los parmetros, la presencia
de alta multicolinealidad puede ser un problema porque, como se ha visto, conduce a
grandes errores estndar en los estimadores.
Sin embargo, existen situaciones en las cuales la multicolinealidad puede no representar un
problema grave. Es el caso en el cual se tiene un R 2 elevado y los coeficientes de regresin
son significativos individualmente como lo demuestran los altos valores t.
Esto puede surgir si los coeficientes individuales resultan estar numricamente por encima
del valor verdadero, de tal forma que el efecto siga visible, a pesar de estar inflados los
errores estndar y/o debido a que el valor verdadero mismo es tan grande que aun cuando
se obtenga una estimacin bastante subestimada, esta continua siendo significativa.
6. CONCLUSIONES GENERALES
Uno de los supuestos del modelo clsico de regresin lineal es que no haya multicolinealidad
entre las variables explicativas, las x. Interpretado en trminos generales, la multicolinealidad
se refiere a una situacin en la cual existe una relacin lineal exacta o aproximadamente
exacta entre las variables x.
1. Las consecuencias de la multicolinealidad son las siguientes: Si existe colinealidad
perfecta entre las X, sus coeficientes de regresin son indeterminados y sus errores
estndar no estn definidos. Si la colinealidad es alta pero no es perfecta, la
estimacin de los coeficientes de regresin es posible pero sus errores estndar
tienden a ser grandes. Como resultado, los valores poblacionales de los coeficientes
no pueden ser estimados en forma precisa. Sin embargo, si el objetivo es estimar
combinaciones lineales de estos coeficientes, las funciones estimables, esto puede
lograrse aun en presencia de multicolinealidad perfecta.
2. Aunque no hay mtodos seguros para detectar la colinealidad, existen diversos
indicadores de esta, como los siguientes:
A) El signo mas claro de multicolinealidad es cuando el R 2 es muy alto, pero ninguno
de los coeficientes de regresin es estadsticamente significativo con base en la
prueba t convencional. Por supuesto, este caso es extremo.
B) En los modelos que contienen apenas dos variables explicativas, puede tenerse
una idea de colinealidad relativamente buena mediante el examen del coeficiente
de correlacin de orden cero, o simple, entre las dos variables. Si esta correlacin
es alta, la multicolinealidad es generalmente la culpable.
C) Sin embargo, los coeficientes de correlacin de orden cero pueden ser malos
indicadores en modelos que contienen mas de dos variables X, puesto que es
posible tener correlaciones bajas de orden cero y encontrar aun alta
12

multicolinealidad. En situaciones como estas, puede ser necesario examinar los


coeficientes de correlacin parcial.
D) Si R2 es alto pero las correlaciones parciales son bajas, la multicolinealidad es una
posibilidad. Aqu hay una o ms variables que pueden ser superfluas. Pero si R 2 es
alto y las correlaciones parciales son altas tambin, la multicolinealidad puede no
ser fcilmente detectadle.
a. Por consiguiente, se puede regresar cada una de las variables X j sobre las
variables X restantes en el modelo y encontrar los coeficientes de
determinacin correspondientes R2i un R2j elevado sugerira que xj esta
altamente correlacionado con el resto de las x. As, se puede eliminar esa X j
del modelo, siempre y cuando no conduzca a un sesgo de especificacin
grave.
3. La deteccin de multicolinealidad es la mitad de la batalla. La otra mitad esta
relacionada con hallar la forma de deshacerse del problema. Nuevamente, no existen
mtodos seguros, solamente unas pocas reglas prcticas. Algunas de estas reglas
son las siguientes: (1) utilizar informacin obtenida a priori o externa al modelo, (2)
combinar informacin de corte transversal y de series de tiempo, (3) omitir una
variable si es altamente colineal, (4) transformar los datos (5) obtener informacin
adicional o nueva. Naturalmente, saber cual de estas reglas funcionara en la prctica
depender de la naturaleza de la informacin y de la severidad del problema de
colinealidad.
4. Se mencion aqu el papel de la multicolinealidad en la prediccin y se sealo que a
menos de que la estructura colineal contine en la muestra futura, es peligroso utilizar
una regresin estimada que haya sido contaminada por multicolinealidad para fines
de proyeccin.
5. Aunque la multicolinealidad ha recibido extensa algunos diran excesiva atencin en
la teora, un problema igualmente importante que se ha presentado en la investigacin
emprica es el de la micronumerosidad, o pequeez del tamao de la muestra.
Cuando un articulo de investigacin acusa la presencia de multicolinealidad, los
estudiantes deben ver si esa queja seria convincente si se sustituyera el concepto de
-micronumerosidad- por el de -multicolinealidad- Se sugiere que el estudiante decida,
que tan pequea debe ser n, el nmero de observaciones, antes de decidir que se
tiene un problema de muestra pequea exactamente en la misma forma en que uno
declare que tan alto es un valor de R 2- en una regresin auxiliar antes de declarar
que el problema de colinealidad es muy severo.

13

Vous aimerez peut-être aussi