Vous êtes sur la page 1sur 16

Marc Palau Soler

Resumen Econometra.
Y
i
=
1
+
2
.X
2i
+
3
.X
3i
+
k
.X
ki
+
i

i
Es el trmino de perturbacin. Recoge todo lo que influye en la variable endgena que no son
efecto de las variables exgenas.
Y
i
Es la variable endgena.
X
ki
Son las variables exgenas.

1
,
2
,.
k
, son parmetros que establecen la relacin existente entre la variable endgena y las
exgenas.
Utilidad de un ARLM: Estudiar la relacin existente entre variables y predecir valores futuros de la variable
endgena.
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
Parmetro: Valor numrico que representa una caracterstica de X. Por ejemplo, , , .
Estadstico: Es una operacin matemtica que se hace con elementos de la muestra. Si no depende de
ningn parmetro, se llama estadstico muestral. Se usarn para las estimaciones puntuales, que son unos
valores aproximados de este parmetro.
Estimador: Es un estadstico destinado a la estimacin de un parmetro. Por ejemplo:
La Media muestral (

) es un estimador de .
La Varianza muestral (S
2
) es un estimador de
2
.
La Proporcin muestral (P) es un estimador de la Proporcin poblacional ().
1.1. Contraste de hiptesis
Hiptesis: Es un enunciado provisional que se hace sobre el valor de un parmetro. Por este motivo,
llamaremos contrastes paramtricos a las hiptesis que se hacen sobre un comportamiento de un
parmetro. Consiste en enunciar una primera hiptesis que llamaremos H
0
(hiptesis nula), que siempre ser
una hiptesis simple.
Tipos de hiptesis:
Simples o exactas (hiptesis nula).
Compuestas o inexactas.
Pasos a seguir:
1. Anunciar las hiptesis nula y alternativa.
2. Considerar un estadstico que dependa del parmetro que queremos contrastar.
3. El criterio de decisin es el que nos ayudar a decidir si rechazamos o no la hiptesis nula.
4. Calcular el estadstico de prueba.
Marc Palau Soler
Enfrontaremos la hiptesis nula a unos datos muestrales para rechazarla en favor de una segunda hiptesis
(H
1
) siguiendo un cierto criterio o bien aceptndola (no rechazarla). El criterio de decisin estar basado en
los intervalos de confianza.
En una zona de rechazo, rechazaremos la hiptesis nula (RNH
0
). Esto implica que no podremos rechazar la
hiptesis alternativa (RNH
1
). Cuando hacemos un contraste nos podemos equivocar, y podemos calcular la
probabilidad de error.
A todo contraste se pueden dar 4 situaciones:

Resultado contraste
H
0
H
1

R
e
a
l
i
d
a
d

H
0
Decisin correcta 1- Error tipo 1
H
1
Error tipo 2 Decisin correcta 1-

Error tipo 1: Rechazar la hiptesis nula siendo sta correcta.
Error tipo 2: No rechazar la hiptesis nula cuando la cierta es la alternativa.
Probabilidad de error tipo 1 y 2:
P (error tipo 1) = P


= nivel significativo
P (error tipo 2) = P


=
1- Potencia del contraste P



Tipos de contraste:
Contraste sobre la media poblacional ().
o Suponiendo poblacin normal y varianza (
2
) conocida.
H
0
: =
0

H
1
:
0


H
0
: =
0

H
1
: >
0


H
0
: =
0

H
1
: <
0


o Suponiendo poblacin normal y varianza (
2
) conocida.
z =

N (0,1) z =


o Suponiendo poblacin normal y varianza (
2
) desconocida.
t =

tn 1 z =


Contraste a una cola superior
Contraste a dos colas
Contraste a una cola inferior
Poblacin grande: +30
y tiende a una normal

Marc Palau Soler
o Suponiendo poblacin normal y varianza (
2
) desconocida pero igual.
t =

tn
1
+ n
2
2 S
2
=


Contraste sobre la proporcin poblacional ()
z =

N (0,1) P N


Contraste diferencias proporciones (
1
-
2
)
z =


N (0,1) z =

P =


z =


Hiptesis bsicas del Modelo de Regresin Lineal Mltiple:
1. El trmino de perturbacin es una variable aleatoria que sigue una ley normal.
N
2. La esperanza matemtica del trmino de perturbacin es cero.
E(u
i
) = 0
3. Hiptesis de homocedasticidad: La varianza del trmino de perturbacin es constante y se simboliza
como
2
(sigma cuadrado). En caso de no darse la homocedasticidad, se dara el fenmeno de la
heterocedasticidad.
V(u
i
) =
2

4. Hiptesis de no autocorrelacin: La covarianza de dos perturbaciones es cero. Se llama perturbacin
esfrica cuando tenemos modelos que cumplen la hiptesis 3 y 4. Cuando el modelo cumple las
hiptesis 1,2,3 y 4 a la perturbacin se la conoce como perturbacin ruido blanco.
COV(u
i
,v
j
) = 0
5. Hiptesis de regresores fijos: Las X
1i
, X
2i
son variables no aleatorias (es decir, no dependen del azar) y
por tanto se podr conocer los valores que toman. Como son variables no aleatorias,
estadsticamente se las trata como constantes.
Xi Variable no aleatoria, se conoce el valor
E(X
2i
) = X
2i

V(X
2i
) = 0
6. Hiptesis de permanencia estructural: Los
1
,
2
,
k
, son parmetros fijos que no cambian de valor.
7. La covarianza entre cualquier variable exgena y el trmino de perturbacin es cero.
COV (X
i
,U
i
) = 0
COV(X
ki
,U
i
) = 0
8. Hiptesis de linealidad: La relacin entre la variable endgena Y
i
y las variables exgenas X
i
ha de ser
una relacin lineal.
Cuando un modelo es no lineal (no se cumple la HB nm.8), pueden pasar dos cosas:
1. Que el modelo no lineal se pueda linealizar.
2. Que el modelo sea intrnsecamente no lineal (que no pueda convertirse el
modelo en lineal).
Marc Palau Soler
Rectas de regresin
Poblacional: E(Y
i
) = + X
i
Y
i
= + X
i

La estimacin puntual de y la encontraremos aplicando el mtodo de Mnimos Cuadrados Ordinarios
(m.c.o.).
e
i
= Yi -


Nota sobre el valor de las desviaciones:
X -

= Y -

= Y =


Caractersticas:
= 0

= 0
=


1.2. Estimacin
Los parmetros permiten relacionar la variable endgena Y
i
y las variables exgenas X
i
, pero no se conoce
su valor exacto. Tenemos que estimar su valor.
El primer mtodo para su estimacin que utilizaremos es el mtodo MCO (Mnimos Cuadrados Ordinarios).
Este mtodo de estimacin se aplica cuando se cumplen todas las hiptesis bsicas del modelo MRLM.

= (x.x)
-1.
. xy
XX, es una matriz definida positiva, simtrica y tiene un tamao K K (siendo K el nmero de parmetros ).

2
=

1
=


ERROR O RESIDUO: Es la diferencia entre el verdadero valor que toma la variable endgena y la prediccin
que da el modelo.
E
i
= Y
i
- ^Y
i

DATOS DESVIADOS: Es muy habitual que antes de estimar los
i
se haga una transformacin en las variables
del modelo. Esa transformacin consiste en que a cada variable del modelo se le reste su media muestral.
El de una variable en desviaciones siempre es 0.

Marc Palau Soler
Propiedades de los estimadores ,
1. Propiedad de insesgadez: Una estimacin es insesgada cuando su esperanza matemtica es igual al
verdadero valor del parmetro poblacional.
E() =
E() =
2. Propiedad de eficiencia: Una estimacin es eficiente, cuando siendo insesgada, su varianza sea
mnima. Es decir, entre todas las estimaciones insesgadas esta propiedad elige la que tiene varianza
mnima.
V() =


S

desconocida
V() =


Su =


V(

) =


3. Propiedad de linealidad: una estimacin es lineal cuando se calcula como combinacin lineal de
todas las observaciones muestrales.
y

son lineales
4. Propiedad de la normalidad:
N (,

)
N

N (,)


Medidas de la bondad del ajuste:
1. Coeficiente de determinacin (R
2
): Nos informa de la bondad del ajuste lineal. El coeficiente de
determinacin se mueve en el espacio [0,1].
Si R
2
= 0, se interpreta como un ajuste lineal muy malo.
Si R
2
= 1, se interpreta como un ajuste lineal perfecto.
En los valores intermedios se utiliza el sentido comn para interpretar R
2

El coeficiente de determinacin se interpreta como el porcentaje del comportamiento de la variable
dependiente Y
i
, que viene explicado por el modelo estimado.
Si R
2
= 0,93 diremos que el modelo explica el 93% del comportamiento de la Y
i
. Lo que se escapa al
modelo (0,7%) lo explica el trmino de perturbacin U
i
.


Formas de calcular R
2
:
R
2
=

= 1 -


Coeficiente de correlacin al cuadrado entre los verdaderos valores de Yi y sus predicciones en el
modelo.
Para que sea insesgado se tienen que cumplir 3 hiptesis bsicas:
-E(u) = 0
-Regresores fijos
-E(Xu) = 0
Marc Palau Soler
2. Coeficiente de determinacin corregido (

2
):
El coeficiente de determinacin tiene un inconveniente, no sirve para comparar modelos. El motivo
es que cuando en un modelo se le aaden variables, el R
2
aumenta. Por ello si se quiere elegir entre
modelos se debe calcular el coeficiente de determinacin corregido que sirve exclusivamente para
ver entre varios modelos cul es el mejor.

2
= 1 (1 R
2
)


3. Coeficientes Beta: Los coeficientes beta sirven para clasificar las variables exgenas (X
i
) segn su
importancia en el modelo.
A mayor coeficiente beta (en valor absoluto) de una X
i
, ms importancia tiene esa variable X
i
en el
modelo.
CONTRASTES
2.1. Contraste de Hiptesis sobre los parmetros
2.1.1. Contraste de significacin individual de los parmetros
Partimos del modelo de regresin simple. Los contrastes de significacin son unos contrastes que se hacen
sobre los
i
de cada modelo.
Se mira el resultado del estadstico de prueba y dicho valor se compara con el valor correspondiente en la
tabla de t-Student. Si el valor del estadstico en valor absoluto es superior al de la t en tablas se rechaza la
Hiptesis nula (RH
0
).
Ello implica que el
j
es diferente de cero. Se dice que ese parmetro o la variable X
j
a la que acompaa es
significativo/a.
Cuando el valor absoluto es menor que el valor en tablas o igual se acepta la Ho.
j
=0. Ello implica que el
cero acompaar a la variable exgena (X
j
) y no ser significativa.
Para que un modelo sea bueno, debemos examinar dos aspectos clave:
1. El coeficiente de determinacin.
2. Que todos los
i
sean significativos, es decir, que en todos los contrastes individuales bsicos sobre
los parmetros se rechace la Ho (RH
0
).
2.1.2. Contraste de significacin global del modelo
Partimos del Modelo de Regresin Lineal Mltiple genrico:
Y
i
=
1
+
2
.X
2i
+
3
.X
3i
+ ... +
k
.X
ki
+ U
i
MRLM
La hiptesis nula sera: H
o
=
2
=
3
==
k
=0
La hiptesis alternativa sera: H
A
existe alguna B
j
diferente de 0.
El estadstico F =


Si F> tablas F RH
0
H
A
existe algn
j
diferente de 0. El modelo es significativo.
En el modelo MRLS el
contraste de significacin
global del modelo coincide
con el contraste individual
de 2 (pendiente de la recta
de regresin), que se realiza
con la t -Student.

Marc Palau Soler
Si F< tablas F NRH
0

j
=0 (excepto
1
). El modelo no es significativo.
Contraste sobre las ordenadas del origen:
t =

t
n-2
t =

t
n-2

Contraste sobre la significacin del modelo bsico:
H
0
: = 0 H
0
: = 0
H
1
: 0 H
1
: 0
Tambin se puede solucionar con una Anova: F =

F
x-1
Variacin no explicada: VNE =

F
1,n-2

VT = VE + VNE
VT: Variacin total
VE: Variacin explicada
VNE: Variacin no explicada
SCT = SCR + SCE
SCT: Suma de cuadrados totales
SCR: Suma de cuadrados de regresin
SCE: Suma de cuadrados de los errores
Tabla Anova:
Variacin Suma Cuadrados Grados de libertad Varianza
Explicado SCR 1 SCR/1
No explicado SCE n-2 SCE/(n-2)
TOTAL SCT n-1 SCT/(n-1)

SCT = y
i
2
= y
i
-n

2

SCR =



y=

(XY-n

)
SCE = e
i
2
SCE = SCT SCR
e
i
=Y
i


2.1.3. Intervalos de confianza de los parmetros
P(


t =


Marc Palau Soler
2.2 Prediccin puntual y por intervalo. Medidas de la capacidad predictiva
La principales medidas de la capacidad predictiva de un modelo son:
1. El error cuadrado medio: (ECM) =


Cuanto ms pequeo sea mejores predicciones tendremos. Se utiliza para comparar predicciones.
2. El error absoluto medio: (EAM) =


Cuanto ms pequeo sea, mejores predicciones tendremos. Tambin se utiliza para comparar
predicciones.
3. El error porcentual absoluto medio: (EPAM) =

100
Este tipo de error nos da un porcentaje directamente y al estar acotado tiene utilidad por s mismo.
Las pautas de interpretacin del EPAM son:
Si EPAM < 3%: el modelo predice bien.
Si 3% < EPAM < 5%: el modelo predice de forma regular.
Si EPAM > 5%: el modelo predice mal.
2.3. Estimacin restringida
Se llama estimacin restringida a aquella que debe hacerse cuando se tenga algn tipo de informacin
(previa, terica,) sobre los verdaderos parmetros del modelo.
Si en ninguna restriccin aparece
1
normalmente no se incluye
1
en las matrices.
En la primera matriz aparecern tantas filas como restricciones haya.
En la segunda matriz aparecern tantos como haya en el modelo.
Las restricciones siempre tienen que estar igualadas a un valor concreto.
Cuando se tienen restricciones, vamos a tener que hacer dos cosas:
1. Comprobar si son ciertas las restricciones o no (contrastar las restricciones).
2. Si las restricciones son ciertas las aadiremos al modelo y el modelo se estima por Mnimos
Cuadrados Restringidos (MCR). Si son falsas se desprecian y el modelo pasa a estimarse por Mnimos
Cuadrados Ordinarios (MCO).
2.3.1. Contraste individual de restricciones
Se harn tantos contrastes individuales de restricciones como restricciones existan en el modelo y
utilizaremos la t-Student.
Lo comparamos con el valor en tablas.
Si t> t-tablas RHo restriccin falsa.
Si t < t-tablas NRHo restriccin cierta.

Marc Palau Soler
2.3.2. Contraste global de restricciones
Consiste en hacer un contraste teniendo en cuenta todas las restricciones a la vez. En este contraste:
Ho : R = r significa que todas las restricciones son ciertas.
H1 : R r alguna de las restricciones son falsas.
El estadstico es:
F =( (e e
MCR
e e
MCO
)/q) / e.e
MCO
/ n-k
F = (( R
2
MCO
R
2
MCR
) / q) / ( 1-R
2
MCO
)/ n-k )
Cuando hay ms de una restriccin es mejor hacer el contraste global que hacer uno individual de cada
restriccin por separado. Cuando hay slo existe una restriccin es indiferente hacer el contraste individual
con la distribucin t-Student o el contraste global con la distribucin F.
El contraste global de restricciones tiene una utilidad analtica y es que sirve para seleccionar entre dos
modelos cual es el mejor. Para ello se compara entre dos modelos, uno de los cuales resulta de incorporar
restricciones sobre el modelo inicial. Para seleccionar qu modelo es mejor se har un contraste global de
restricciones.
En primer lugar se igualan los dos modelos. Para ello hay que ver qu restricciones permiten igualar ambos
modelos, es decir, convertir un modelo en el otro. A continuacin se realiza un contraste global de
restricciones.
Si no rechazamos la Ho (NRHo) significa que las restricciones son ciertas, y el mejor modelo sera el primero.
Si aceptamos la H
A
, ello implica que las restricciones son falsas, con lo que el mejor modelo ser el segundo.
La aplicacin de MCO en el modelo restringido equivale a aplicar la frmula de estimacin de por MCR.
Por qu cuando hay restricciones el modelo se estima por MCR?
1. Si las restricciones son ciertas, las estimaciones MCR son insesgadas y adems con restricciones
ciertas, se cumple que las estimaciones MCR, son ms eficientes que las estimaciones MCO, porque
su varianza es ms pequea.
Estimacin eficiente= insesgada + varianza mnima.
2. Las estimaciones MCR cumplen las restricciones. Con MCO no tienen porqu cumplirse.
2.4.Contrastes de cambio estructural de linealidad y normalidad
2.4.1.Contraste de cambio estructural (Contraste de Chow):
H
0
: permanencia estructural
H
1
: cambio estructural
F =


Marc Palau Soler
Cuando tengamos un modelo estimado 3 veces (primero con todos los datos, segundo con la primera mitad
de datos y tercero con la segunda mitad de datos) estaremos ante un contraste de cambio estructural.

Cuando tenemos un contraste de CHOW, el modelo se tiene que estimar tres veces.
1. Una primera vez con todos los datos de la muestra ee.
2. Se vuelve a estimar el modelo pero solo con los primeros datos de la muestra ee
1
.
3. Se vuelve a estimar el modelo con el ltimo bloque de datos de la muestra.
2.4.2. Contraste de linealidad (Contraste Reset/Ramsey)
Existe una hiptesis bsica de linealidad, y este contraste sirve para averiguar si esta hiptesis se cumple o
no.
H
0
: Linealidad
H
1
: No linealidad
Para realizar este contraste se aade una nueva variable al modelo:
Y
i
=
1
+
2
X
2i
+
3
X
3i
+ Y
2
i
+ u
i

Se hace un contraste de la t-Student para ver si el parmetro que acompaa a la nueva variable es cero o no.
Si NRHo el modelo cumple la hiptesis de linealidad.
Si RHo el modelo no cumple la hiptesis de linealidad.
2.4.3. Contraste de normalidad o de BERA-JARQUE.
El contraste de normalidad busca contrastar si se cumple la hiptesis bsica de que la perturbacin del
modelo sigue una ley normal. Este contraste se hace con una Chi cuadrado, con dos grados de libertad.
El estadstico que se utiliza es el siguiente:

= n


2.5. Errores en las especificacin de las variables.
Los errores en la especificacin de las variables son:
Omisin de relevantes.
Inclusin de superfluas / irrelevantes.
Especificacin incorrecta de la forma funcional.


Marc Palau Soler
2.5.1.- Omisin de relevantes:
Imaginemos que tenemos un modelo verdadero que es el siguiente:
Y
i
=
1
+
2
X
2i
+
3
X
3i
+U
i

Un modelo que se estima: Y
i
=
1
+
2
X
2i
+U
i

El modelo que se estima est mal hecho al omitir la variable X
3i
, que es una variable importante.
Las consecuencias de este error son las siguientes:
1) Se incumple la hiptesis bsica E(u)=0, es decir, que E(u)0.
2) Las estimaciones de

y de

(sigma cuadrado) son sesgadas .


3) v(

modelo estimado) v(

modelo verdadero).
2.5.2.- Inclusin de superfluas :
El Modelo verdadero es : Y
i
=
1
+
2
X
2i
+
3
X
3i
+U
i

El Modelo estimado es: Y
i
=
1
+
2
X
2i
+U
i

Alguna variable endgena sobra, no es necesaria.
Las consecuencias de incluir variables irrelevantes son:
1) Se incumple la hiptesis bsica E(u)=0, es decir, que E(u)0.
2) Las estimaciones de

y de

(sigma cuadrado) son sesgadas.


3) v(

modelo estimado) v(

modelo verdadero).
2.5.3.- Especificacin incorrecta de la forma funcional:
El modelo verdadero es no lineal y el modelo estimado es lineal (o al revs).
Las consecuencias de cometer dicho error son:
1) Se incumple la hiptesis bsica E(u)=0.
2) Las estimaciones de

y de

(sigma cuadrado) son sesgadas.


3) v(

modelo estimado) v(

modelo verdadero).






Marc Palau Soler
TEMA 3: PROBLEMAS CON LA INFORMACIN MUESTRAL, ANLISIS DE RESIDUOS,
DATOS INFLUYENTES Y MULTICOLINEALIDAD.
3.1. Outliers y observaciones influyentes
Imaginemos que tenemos una poblacin estadstica, una muestra de la misma y un modelo:
Y
i
=
1
+
2
X
2i
+U
i
Un Outlier ser una observacin claramente distinta al resto del conjunto de observaciones:
Y
i
X
i

5 7
4 2
6 3
12000 397
4 6
Las observaciones atpicas o outliers pueden tener influencia:
1) Influencia potencial.
2) Influencia real.
La influencia real distorsiona los resultados de la estimacin. Si una observacin tiene influencia real lo ms
conveniente es eliminarla y trabajar con n-1 elementos de la muestra.
3.2. Principales contrastes e indicadores:
Deteccin de Observaciones con Influencia Potencial.
Deteccin de Observaciones Atpicas.
Deteccin de Observaciones con Influencia Real.
3.2.1. Deteccin de Observaciones con Influencia Potencial.
Para saber si una observacin tiene influencia potencial, existe una herramienta que se llama LEVERAGE (h
ii
):
h
11
leverage de la primera observacin de la muestra.
h
22
leverage de la segunda observacin de la muestra.
()


Cuando una observacin tiene un leverage grande, esa observacin tiene influencia potencial.
Existen tres formas de calcular los leverage:
1) H = X ( XX )
-1
X
1

Los leverage son los elementos de la diagonal principal de la matriz H:
Marc Palau Soler

2) Aplicando hii =

(1 + DM
i
)
DMi Distancia de Mahalanobis =


3) nicamente en un MRLS:
h
ii
=


3.2.2. Deteccin de Observaciones Atpicas.
Para detectar si existen observaciones atpicas dispondremos de tres herramientas:
1) Residuos estandarizados:

N (0,1)
Si alguna informacin tiene un residuo e grande,

> tablas N (0,1) Observacin atpica.


2) Residuos estudentizados:
r
i
=

t
Si

> tablas t Observacin atpica.


3) Residuos estudentizados con omisin:


Si

> tablas t Observacin atpica.


3.2.3. Deteccin de Observaciones con Influencia Real.
Que en un modelo existan observaciones con influencia potencial o observaciones atpicas no resulta til en
la prctica.
Que en un modelo existan observaciones con influencia real es importante porque distorsionan los
resultados.
Si una observacin tiene influencia real, el procedimiento es primero detectarla y luego eliminarla.
Existen dos herramientas para detectar la influencia real:
1) La distancia de Cook.
Di =


Si una observacin tiene una Distancia de Cook grande, dicha observacin presenta influencia real.
Esta observacin se tendr que eliminar porque distorsiona los resultados.
Ser grande si:
a) Di > F en tablas
Marc Palau Soler
b) Cuando Di es significativamente mayor que el resto de Di.
Observaciones 1 2 3 4 5
D
i
0,21 0,11 11 0,23 0,02
2) Los DFITS.
DFITS =


Los DFITS son una segunda herramienta para averiguar si una observacin tiene influencia real.
Si el DFIT es grande: la observacin tiene influencia real.
Se considera que el DFITS es grande si: > 2


3.3. Multicolinealidad.
Se llama Multicolinealidad a la existencia de correlacin entre variables explicativas (X
i
) de un modelo de
regresin.


Existen tres casos de multicolinealidad:
1) Ausencia de multicolinealidad.
Todas las relaciones entre x
i
son 0. Es bueno que no haya multicolinealidad.
2) Multicolinealidad perfecta.
Estaremos en esta situacin cuando alguna relacin entre variables exgenas (en valor absoluto) sea
|1| o cuando alguna x
i
sea combinacin lineal de otras variables exgenas (x
2i
=x
3i
+x
4i
).
Consecuencias:
a. Rango de x k.
b. |xx| = 0 impide estimar por m.c.o.
3) Multicolinealidad propiamente dicha, o colinealidad.
Colinealidad: Multicolinealidad en el 99% de los casos. Todo el rango donde no hay ni 1 ni 2.
3.4. Deteccin de la multicolinealidad y valoracin de su importancia.
En un modelo de regresin, tener multicolinealidad es negativo porque al tener una mayor correlacin entre
las variables exgenas, se da una mayor varianza de los .
Como consecuencia del crecimiento de las varianzas de los se generan los siguientes problemas:
1) Los estimados son altamente inestables.
2) Los estimados pueden ser muy distintos de los verdaderos, pudiendo incluso llegar a ser
absurdos.
Marc Palau Soler
3) Cuando mayor es la varianza de los j estimados, ms amplitud tiene el intervalo de estimacin, y
por tanto pierde precisin.
4) Tendencia a NRHo en los contrastes individuales de los parmetros.
Observaciones:
1- La multicolinealidad no afecta a
1
.
2- La multicolinealidad hace crecer la varianza de los estimados, pero a pesar de ello las estimaciones
de los son insesgadas y eficientes.
3- Prcticamente todos los modelos tienen multicolinealidad. nicamente cuando sta es fuerte (y se
da el aumento de la varianza de los estimados), se genera toda la problemtica descrita.
Existen 10 herramientas de deteccin de la multicolinealidad:
1) Si algn estimado es absurdo es un indicador de la existencia de una multicolinealidad elevada.
2) Si el determinante I XX I = 0, se da una multicolinealidad perfecta. De manera que cuanto ms
pequeo sea el determinante ms fuerte es la multicolinealidad.
3) Si alguna correlacin entre variables exgenas es elevada se considera que la multicolinealidad es
elevada. Se considera elevada si Ir
x1x2
I > 0,9.
4) Existencia de contradiccin entre los contrastes de la t y el contraste de la F.
5) Si el determinante de la Matriz de correlacin entre las variables exgenas X
i
est cerca de cero se
da la multicolinealidad elevada.
6) Los FIV ( Factores de Inflacin de la Varianza). Cada tiene su FIV. Por ejemplo, si un FIV = 8 quiere
decir que la varianza de se ha multiplicado por 8 debido a la multicolinealidad.
Si un j estimado tiene un FIV > 5, se considera que hay multicolinealidad elevada en el modelo.
7) Descomposicin de la varianza asociada a cada valor propio.
8) El nmero de condicin:
Nmero de condicin = mx./ mn.
Cuando el nmero de condicin = 1 existe ausencia de multicolinealidad.
Cuando el nmero de condicin est entre 1 y 30, el modelo tiene multicolinealidad suave y
no es problemtica.
Cuando el nmero de condicin es mayor que 30, la multicolinealidad es elevada y causa
problemas.
Cuando el nmero de condicin es infinito, la multicolinealidad es perfecta. El modelo no se
puede estimar.
9) Regresiones con omisin:
Yi= 1+2X2i+3X3i+4X4i+Ui R
2=
0,84
Yi= 1+3X3i+4X4i+Ui Coef. Determ.=0,14
Marc Palau Soler
Yi= 1+2X2i+4X4i+Ui Coef. Determ= 0,36
Yi= 1+2X2i+3X3i+Ui Coef. Determ.=0,83
Las regresiones con omisin son nuevos modelos de regresin que aparecen omitiendo una Xi.
Si alguno de estos R
2
se parece al del modelo completo, quiere decir que en el modelo inicial hay
multicolinealidad elevada.
10) Regresiones auxiliares:
Yi= 1+2X2i+3X3i+4X4i+Ui R
2=
0,84
Las regresiones auxiliares son nuevos modelos de regresin donde cada Xi aparece como variable
endgena.
X2i= 1+3X3i+4X4i+Ui R
2=
0,89
X3i= 1+2X2i+4X4i+Ui R
2=
0,13
X4i= 1+2X2i+3X3i+Ui R
2=
0,62
Solo interesa el R
2
de las regresiones auxiliares. Si alguno de estos R
2
es grande ( a partir de 0,80 ),
entonces en el modelo inicial existe multicolinealidad elevada.
3.5. Soluciones a la multicolinealidad.
1) Cambiar la muestra.
2) Incorporar restricciones al modelo.
3) Omitir o eliminar una de las variables exgenas, la que tenga un FIV ms elevado.
4) Estimar los j por un mtodo nuevo. El mtodo RIDGE.


0 c 1
5) Transformar el modelo.