Académique Documents
Professionnel Documents
Culture Documents
Universidad de Chile
Departamento de Ingeniería Industrial
Profesor: Mattia Makovec (mmakovec@dii.uchile.cl)
Auxiliar: Dario Zuñiga
H1 Linealidad: el modelo sigue siendo lineal en el vector de parametros : la variable dependiente y es una
función lineal de :
H2 Condición de identi…cación: X es una matriz de rango completo de columnas y rango(X) = k.
H3 E(") = 0.
H4 E(""0 ) 6= 2
IN ; y E(""0 ) = 2
donde es una matriz (N N ) simetrica y de…nida positiva.
H5 X es una matriz de regresores no estocásticos.
En este contexto, se analizan las propiedades principales del estimador de mínimos cuadrados ordinarios
(linealidad, insesgadez, matriz de varianza y covarianza) en presencia de una matriz de varianza y covarianza
de los errores no escalar.
E( ^ M CO ) = E[ + (X 0 X) 1 X 0 "]
= E( ) + (X 0 X) 1 X 0 E(")
| {z }
=0
=
^ es todavia estimador insesgado de .
M CO
1
Matriz de varianza y covarianza de ^ M CO :
V ar( ^ M CO ) = E[( ^ M CO E( ))( ^ M CO E( ))0 ]
= E[( ^ M CO )( ^ M CO )0 ] sustituyendo ^ M CO = (X 0 X) 1
X 0 " se obtiene:
= E[((X 0 X) 1 X 0 ")((X 0 X) 1 X 0 ")0 ]
= E[(X 0 X) 1 X 0 ""0 X(X 0 X) 1 ]
= (X 0 X) 1 X 0 E(""0 )X(X 0 X) 1
| {z }
= 2
2 0 1 0
= (X X) X X(X 0 X) 1
6= 2
(X 0 X) 1
Es posible transformar el modelo inicial y = X + " de una forma conveniente, de modo que se cumplan
todos los supuestos basicos del teorema de Gauss-Markov en el modelo transformado. Dado que es una
matriz de…nida positiva, puede ser factorizada como:
= C C0
donde C es la matriz de los N vectores caracteristicos de la matriz y la matriz diagonal y simetrica de
las N raices características correspondientes. Esa factorización se de…ne tambien decomposicion espectral
de la matriz . La matriz C tiene las siguientes propiedades:
C 0C = I
C0 = C 1
CC 0 = CC 1
=I
1=2
Se de…ne la matriz no singular (N N ); P = C con las siguientes propiedades: P P 0 = , [P 1 0
] [P 1
]=
1
.
PP0 = C 1=2 (C 1=2 )0 dado que ( 1=2 0
) = 1=2
= C 1=2 1=2 C 0
= C C0 =
1 0 1
[P ] [P ] = [(C 1=2 ) 1 ]0 [(C 1=2 ) 1 ]
= [( 1=2 C 1 )0 ( 1=2 C 1 )]
= (C 1 )0 ( 1=2 )0 1=2 C 1 dado que C 1
= C 0 ; (C 1 0
) = (C 0 )0 = C
= C( 0 ) 1=2 1=2 C 0 dado que 0 =
= C 1=2 1=2 C 0 = C 1 C 0 = 1
1
Se considera la siguiente transformación del modelo lineal general, premultiplicando y por P :
1 1 1
P y=P X +P "
Se de…nen ahora las variables transformadas de la forma siguiente:
1 1 1
P y=y ; P X=X ; P "="
El modelo inicial transformado es igual a:
y =X +"
Se puede veri…car que el modelo transformado de esta forma cumple todos los supuestos del Teorema de
Gauss-Markov:
2
H1 Linealidad: el modelo sigue siendo lineal dado que y es funcion lineal de :
H2 Condición de identi…cación: X sigue siendo una matriz de rango completo de columnas y rango(X ) =
k.
1 1
H3 E(" ) = 0 dado que: E(" ) = E(P ") = P E(") = 0
| {z }
=0
H4 E(" " 0 ) :
2 1 0 1
= P |{z} [P ]
=P P 0
2 1 0 1 0
= |P {z P}|P [P ]
{z }
=I =I
2
= I
El modelo transformado entonces satisface todos los supestos basicos del teorema de Gauss-Markov, en
particular la matriz de varianza y covarianza de los errores transformados es escalar. Esta transformación
nos permite derivar el estimador de Mínimos cuadrados generalizados.
0 1 1 0 1
= (X X) (X y)
^ = (X 0 1
X) (X 0
1 1
(X + "))
M CG
= (X 0 1
X) 1
(X 0 1
X) + (X 0 1
X) 1
(X 0 1
")
| {z }
=I
= + (X 0 1
X) 1
(X 0 1
")
E( ^ M CG ) = E[ + (X 0 1
X) 1 (X 0 1
")]
= E( ) + (X 0 1
X) 1 X 0 1
E(")
| {z }
=0
=
3
Matriz de varianza y covarianza:
V ar( ^ M CG ) = E[( ^ M CG E( ^ M CG ))( ^ M CG E( ^ M CG ))0 ]
= E[( ^ M CG )( ^ M CG )0 ] sustituyendo ^ M CG = (X 0 1
X) 1
(X 0 1
") se obtiene:
= E[((X 0 1 X) 1 X 0 1 ")((X 0 1 X) 1 X 0 1 ")0 ]
= E[(X 0 1 X) 1 X 0 1 ""0 1 X(X 0 1 X) 1 ]
= (X 0 1 X) 1 X 0 1 E(""0 ) 1 X(X 0 1 X) 1
| {z }
= 2
2 0 1 1 0 1 1
= (X X) X | {z } X(X 0 1
X) 1
=I
2
= (X 0 1
X) 1
X0 1
X(X 0 1
X) 1
| {z }
=I
2
= (X 0 1
X) 1
E…ciencia: dado que el modelo transformado satisface todos los supuestos del teorema de Gauss-
Markov, ya sabemos que el estimador ^ M CG es el estimador lineal, insesgado y optimo de en el
sentido de la varianza minima. En particular, se demuestra que:
V ar( ^ ) V ar( ^
M CO ) = A 0 (semindef inida positiva)
M CG
Prueba:
V ar( ^ M CO ) V ar( ^ M CG ) = 2
(X 0 X) 1
X 0 |{z} X(X 0 X) 1 2
(X 0 1
X) 1
=P P 0
2
= [(X X) X P P X(X 0 X) 1
0 1 0 0
(X 0 1
X) 1
]
| {z }| {z }
=D 0 =D
(k N) (N k)
2 0 0 1 1
= [D D (X X) ]
Dado que D0 P 1 X = Ik , premultiplicamos el segundo termino en la parentesis cuadrada por D0 P 1
X
y lo postmultiplicamos por (D0 P 1 X)0 = X 0 (P 1 )0 D
V ar( ^ M CO ) V ar( ^ M CG ) = 2
[D0 D D0 P 1 X(X 0 1 X) 1 X 0 (P 1 )0 D]
2
= [D0 (I P 1 X(X 0 1 X) 1 X 0 (P 1 )0 )D]
2
= [D0 (I X (X 0 X ) 1 X 0 )D]
| {z }
=M
(N N)
2 0
= DM D 0 semide…nida positiva
dado que M es idempotente. La matriz M en el modelo transformado es la matriz que “produce”los
residuos estimados en una regresión lineal de MCO de la variable dependiente transformada y sobre
los regresores transformados X .
2
Estimación de mínimos cuadrados generalizados de :
El estimador de mínimos cuadrados ordinarios de 2
; ^ 2M CO , es sesgado si E(""0 ) = 2
:
0
^" ^"
E(^ 2M CO ) = E( )
N k
0
" M"
= E( )
N k
tr("0 M ")
= E( )
N k
tr(M E(""0 ))
=
N k
2
tr(M ) 2
= 6=
N k
4
No obstante, el estimador de 2 obtenido utilizando los residuos estimados del modelo transformado es
0
insesgado. Sea (^ M CO )2 = ^"N ^"k :