Vous êtes sur la page 1sur 12

Econometria I

Cristian Ricardo Morillas Orellana

Control de lectura de los capítulos 4,


5, y 6 del libro de Introduccion a la
Econometria., 3a edición., James H.
Stock, Mark M Watson.

Prof. Heri Oscar Landa Díaz


Capítulo 4:
En este capitulo se inicio al tema de regresión lineal con un solo regresor
donde se menciona que el modelo de regresión lineal hace que se relacionen X y Y,
midiendo como afecta la variación de una unidad de X sobre Y, ya sea poca o mucha,
que por lo general toma valores entre 0 y 1 para ver la magnitud del efecto, teniendo en
cuenta esto se puede plantear un modelo econométrico utilizando muestras de datos
de estas dos variables y así obtener una conclusión. Justo aquí aparece el modelo de
regresión lineal que es el siguiente:

Yi = β0 + β1Xi + ui (1.1)

Donde β0 es el intercepto de la recta o termino constante de la recta y que se puede


medir fácilmente suponiendo que X = 0 y β1 es la pendiente de la recta mencionada.
Esta ecuación (1.1) representa el modelo de regresión lineal solo con una variable o
regresor.

β0 (intercepto) y β1 (pendiente) son coeficientes o parámetros de la recta


de regresión poblacional, donde β1 representa la variación en Y relacionada con un
cambio unitario en X, β0 se obtiene, como se mencionó en el párrafo anterior,
suponiendo que X = 0, dando como resultado el cruce de la recta de regresión con el
eje de las Y. Finalmente ui contiene elementos que aparte de X influyen en el valor de
Y; mas que nada sirve como complemento para una observación más precisa en el
resultado que se arroja en el modelo de regresión.

Dado que β0 y β1 son totalmente desconocidos, se tiene que echar mano


de datos principalmente muestrales, mencionando también que la muestra debe de ser
lo mas significativa posible para exponer resultados que se acerquen a la realidad de la
población. Para esto se recurre a un recurso econométrico que es el estimador de
Mínimos Cuadrados Ordinarios (MCO), donde obtiene coeficientes de regresión que
sirven de tal manera que la recta de regresión estimada se pueda acercar lo mas
posible de los datos obtenidos u observados. En MCO se usa b 0 y b1 como estimadores
de β0 y β1 respectivamente, después se colocan en una recta donde se incluye a X y Y

Yi = b0 + b1Xi (1.2)

Para obtener el termino de error, b 0 + b1Xi pasa al lado izquierdo de la ecuación (1.2),
generando una diferencia con Yi que es

Yi – b0 – b1Xi (1.3)

Para distintas muestras u observaciones (i = 1,…,n) se generan diferentes brechas o


términos de error, por lo que es importante sumarlas, a esto se le llama suma de
errores de predicción al cuadrado, denotado en la siguiente ecuación

Σ (Y – b – b X )
i 0 1 i
2
(1.4)

El estimador de MCO se tiene que expresar de una manera muy


adecuada por lo que se toman estimadores βˆ0 y βˆ1 dando paso para formar lo que se
llama función de regresión muestral donde también se incluyen a X y Y generando un
valor de predicción, y el termino de error uˆ i se obtiene de la diferencia de Y i y Yˆi, como
se habrá notado el signo “ˆ” denotan que estos términos son homólogos de los
coeficientes de la regresión lineal expresado en la ecuación (1.1). βˆ0, βˆ1, y uˆi se
calculan a partir de la muestra de n observaciones de X i y Yi, i = 1,…,n. El valor de
predicción MCO Yˆi y uˆi son

Yˆi = βˆ0 + βˆ1Xi (1.5) ,


uˆi = Yi - Yˆi (1.6)

Después de hacer las estimaciones de la regresión lineal se utilizan las


medidas de ajuste el R 2 y el error estándar de la regresión (ESR), ambos sirven como
miden la bondad de ajuste de la recta de regresión MCO a los datos. El R 2 es la
proporción de la varianza muestral de Y i explicada por Xi, su valor esta entre 0 y 1, se
puede describir también como un cociente de la suma explicada de cuadrados y la
suma total de errores al cuadrado. Es importante mencionar que es cada uno de los
elementos que componen el R2; la suma explicada de los cuadrados (SE) es la suma
de desviaciones de los valores de Yˆ i respecto de su media, y la suma total de errores
al cuadrado (ST), son las desviaciones de Y i respecto de su media, y son
representadas matemáticamente en las siguientes ecuaciones

SE = Σ (Yˆi – Ӯ)2 (1.7)


ST = Σ (Yi – Ӯ)2 (1.8)

Ya conociendo el resultado de las ecuaciones (1.7) y (1.8) se puede obtener el R 2,


dividiendo la SE entre la ST, expresado matemáticamente en la siguiente ecuación

R2 = SE/ST (1.9)

El R2 por lo general no toma valores absolutos como 0 y 1, pero si un resultado de R 2


que arroje un valor cercano a 1 indica que el regresor es un buen predictor de Y i,
mientras si se obtiene un resultado cercano a 0 esto indica que el regresor no es un
buen predictor de Yi.

El ESR es un estimador del error estándar del termino de error de


regresión ui, por lo que es una medida de dispersión de las observaciones con respecto
a la recta de regresión, pero u1,...,un no pueden ser observados se usan los
estimadores uˆ1,…,uˆn, sumando todos los errores estimados para después dividirlos
entre (n - 2), expresado de la siguiente manera

ESR = SR / (n – 2) (1.10)

Par manejar bien el estimador de MCO, se tienen que tener cuenta tres
supuestos que son fundamentales y así poder ejercer el modelo de MCO minimizando
los errores que pueden perjudicarlo, desplegando así resultados de los coeficientes
totalmente confiables que servirán para estimaciones futuras que en su mayoría son
acertadas. Los tres siguientes supuestos para MCO son:
1. El termino de error ui presenta una media poblacional igual a cero.
2. (Xi, Yi), i = 1,…,n, son obtenidas de manera independientes e idénticamente
distribuidas (iid) de su distribución conjunta
3. Los valores atípicos son improbables.
Para el numero 1 esto quiere decir que la distribución en su estudio de u i dado Xi tiene
como media igual a 0 por lo que E(u i | Xi) = 0, esto se debe a factores como la media
condicional de u en un experimento controlado aleatoriamente, donde el objeto de
estudio son asignados al azar ya sea para el grupo X=1 o X=0, por lo que se distribuye
de manera independiente de las características personales de los objetos de estudio,
entonces, la asignación de manera aleatoria hace que X y u sean independientes,
ocasionando que su media sea 0. Así también se evita un problema de correlación
entre X y u, ya que la correlación es una asociación lineal.
En el supuesto numero 2 se trata directamente de la obtención de información o datos
de la muestra, el supuesto menciona que si las observaciones se recopilan mediante
un muestreo aleatorio simple de una única y gran población, entonces X i y Yi, i = 1,…,n,
son independientes e idénticamente distribuidas, ya que si seleccionan observaciones
o datos al azar se distribuyen de manera totalmente independiente de otras
observaciones también seleccionadas al azar.
El ultimo supuesto, el 3, debe de ser el de mayor relevancia, ya que pueden cometerse
errores u omisiones ya sea en la recolección o análisis de datos, y por consecuencia en
la interpretación de datos que de estas derivan. En MCO, los datos atípicos son
improbables, y si los hay pueden ser engañosos. Esto puede derivarse en la
recolección u obtención de datos, tales como errores tipográficos donde un dato tenga
como valor real “19”, y sea colocado en “91”, generando un serio problema. Una forma
de detectar los datos atípicos es desplegando los datos, ya viendo cual es el dato
atípico se pasa a un análisis para decidir si el dato en cuestión es un error en la
recolección de datos o no, si es un error tipográfico, se procede a corregirlo. Si en
verdad es un dato atípico se puede incluir en la base de datos o removerla de la
misma. Todos estos pasos son para este tercer supuesto son muy importantes ya que
los MCO son sensibles a valores atípicos de gran tamaño, entonces deben examinarse
con cuidado con el fin de cerciorarse de que dichos datos atípicos estén registrados de
manera correcta y pertenezcan a la base de datos.

Capítulo 5:

Este capítulo documenta principalmente los métodos para el contraste de


hipótesis de los coeficientes de regresión, paso a paso, siendo el mismo método para
cuando se contrastan hipótesis de la media poblacional, con una distribución normal
aplicando el estadístico t, estableciendo en el proceso intervalos de confianza para el
análisis de datos que se arrojan en una distribución muestral.

Se empieza con el contraste de hipótesis del coeficiente β1, este tiene una
distribución normal para grandes muestras y el contraste se hace de la misma manera
que el método para medias poblacionales, por lo tanto, la hipótesis nula (H 0) y la
alternativa (H1) para β1 son las siguientes

H0: β1 = β1,0
H1: β1 = β1,0 (alternativa bilateral) (2.1)

Siguiendo los pasos generales se calcula la desviación estándar del estimador βˆ1,
ES(βˆ1), que este es un estimador de la desviación estándar muestral de βˆ1, σβˆ1,
entonces

ES(βˆ1) = √σˆ2βˆ1 (2.2)

Ya obtenidos estos datos se pasa de recoger los datos del estadístico t aplicado para
βˆ1, y β1,0 incluidos en la ecuación

.t = (βˆ1 – β1,0) / ES(βˆ1) (2.3)

Por ultimo se procede a conseguir el valor – p, que es muy importante para decidir si se
rechaza o no se rechaza la hipótesis nula. Para ilustrarlo se tiene en cuenta un valor –
p que es menor del 5% expone elementos contra la hipótesis nula en la dirección de
que, en su probabilidad de conseguir un valor de βˆ1 lo mas posible lejos del de la
hipótesis nula como el observado puedan ser menores al 5%, que cabe mencionar que
el 5% es la medida de significación más común que usan los estadísticos para el
análisis y decisión de hipótesis, el valor – p se obtiene

Valor – p = Pr(|Z| > |tact|) = 2ϕ(-|tact|) (2.4)

Tambien la hipótesis puede ser contrastada con el mismo nivel del 5% haciendo una
comparacion del resultado del estadístico t con un intervalo de +1.96 y -1.96 para ver si
se rechaza la hipótesis nula con significación del 5% si |t act| > 1.96.

Para el contraste unilateral, las hipótesis son las siguientes

H0: β1 = β1,0
H1: β1 < β1,0 (alternativa unilateral) (2.3)

β1,0 es el valor de β1 bajo la nula, mientras que la alternativa β1 es menor que β1,0. Si la
alternativa es que β1 sea mayor, entonces se invierte. La interpretación en el estadístico
t es muy importante ya que la hipótesis nula se puede rechazar y se toma en cuenta la
alternativa para resultados del estadístico t que sean muy altos y negativos, pero no
para resultados muy altos y positivos, por lo tanto para un nivel de significación del 5%
la hipótesis nula se rechaza si tact < -1.645

Para contrastar hipótesis para el coeficiente intercepto o termino


independiente, β0, se hace de la misma manera para un análisis bilateral que se hizo
con β1

H0: β0 = β0,0
H1: β0 es diferente a β0,0 (alternativa bilateral) (2.4)

Se procede de la misma manera para el análisis que se hizo para β1, y si es unilateral
se trabajan con los mismos pasos para el contraste unilateral que se hizo con β1.

El contraste de hipótesis es una herramienta poderosa porque con ella se


tiene la facultad de rechazar o no rechazar la hipótesis nula con elementos arrojados
en los distintos pasos que se tienen que seguir a partir del planteamiento de estas, así
se afrontan a una incertidumbre a la utilización de una o varias muestras para conocer
o dar un estimado de como puede ser una población.

Los intervalos de confianza para los coeficientes de regresión β0 y β1 se


generan a partir del estimador de MCO y su error estándar ya que la estimación
estadística para los coeficientes de regresión expone cierta incertidumbre generado por
el muestreo de datos porque no es posible conseguir un valor exacto de β1.
Para estimar un intervalo de confianza para β1, generalmente para 95%
que es el más usado comúnmente tiene dos significados; una es que varios datos en
su conjunto no pueden rechazarse con un contraste de hipótesis bilateral con un nivel
de significación del 5%, que a su vez se trata de que en ese intervalo que es del 95%
arroje un valor de β1, lo que es su segundo significado, por eso se dice que tiene un
nivel de confianza del 95%, ya que dentro de este 95% se concentra un valor real de
las muestras. Esta explicación lleva a que solo se rechazara el valor de β1 solamente el
5% de todas las muestras obtenidas. Se puede obtener este intervalo de confianza con
un contraste de hipótesis de todos los valores posibles de β1 con un nivel de
significación del 5% se puede conseguir el verdadero valor de β1 que estará contenido
en el intervalo de confianza del 95%. Una de las formas para conseguir el intervalo
mencionado es teniendo en cuenta uno de los resultados que despliegue el estadístico
t donde se puede rechazar el valor de β1,0 si β1,0 está fuera del rango de βˆ1 ±
1.96ES(βˆ1), a partir de esto se deduce que es intervalo de confianza del 95%

[βˆ1 – 1.96ES(βˆ1), βˆ1 + 1.96ES(βˆ1)] (2.5)

El intervalo de confianza para βˆ0 se construye de la misma manera, sustituyendo en


los pasos y ecuaciones βˆ1 por βˆ0.

Conforme se avanza en la lectura de este capitulo 5 esta un apartado que


explica como medir, interpretar y analizar una regresión cuando X es una variable
binaria, que tiene varios nombres, como indicador, ficticia o dummy, y puede ser
representado de diferentes numeraciones como 1 y 0, o 1 y 2. Para la interpretación de
este tipo de regresiones, su equivalente es realizar un análisis de diferencia de medias,
como se menciono se usan notaciones numéricas para distinguir las variables binarias,
el más usado comúnmente es el 0 y 1; se pueden utilizar por ejemplo para un análisis
de datos entre hombres y mujeres usando los números para hombres = 0 y mujeres =
1.

En el análisis de regresión que viene siendo de igual forma con un solo


regresor, pero se sustituirá X por D, la razón de que tiene que hacerse esta diferencia
es que como ahora el regresor es una variable binaria, no es continua y no se debe
analizar como si fuera una pendiente, entonces el modelo de regresión poblacional
queda de la siguiente forma

Yi = β0 + β1Di + ui, i = 1,…,n (2.6)

La ecuación (2.6) plantea un problema ya que D i, no es una pendiente como se


mencionó en el párrafo anterior, por lo tanto, se tiene que reformular la ecuación ya que
0 y 1 se analizan por separado y después se contrastan, entonces la ecuación correcta
seria

Yi = β 0 + u i (Di = 0) (2.7)
Como E(ui|Di) = 0, la esperanza condicional de Y i cuando Di = 0 es E(Yi|Di) = β0,
entonces teniendo este resultado se interpreta como β0 el valor de la media
poblaciones, cuando Di = 1

Yi = β0 + β1 + ui (Di = 1) (2.8)

De ahí se tiene o se interpreta que su valor de la media poblacional es E(Y i|Di = 1) = β0


+ β1. Con estas dos medias poblacionales se consigue una diferencia que es conocida
como diferencia entre la esperanza condicional de Y i

(β0 + β1) – β0 = β1 (2.9)

Entonces cuando β1 es la diferencia de medias poblacionales entonces tiene lógica de


que el estimador MCO de β1 sea una diferencia entre estos dos grupos o regresores
binarios 0 y 1 de medias muestrales de Yi.

Por último, para ver si el termino de error u i es homocedastico o


heterocedastico se tiene que ver el ultimo subtema visto en el capitulo 4, que es ver si
los tres supuestos para MCO se cumplen. El termino de error u i es homocedastico si la
varianza de la distribución condicional de u i dado Xi es constante para i = 1,…,n y no
dependen de Xi, de lo contrario, el termino el termino de error u i es heterocedastico.
Dicho de otra forma, los errores de regresión están normalmente distribuidos,
presentan una distribución t de student cuando la hipótesis nula no se rechaza.

Capítulo 6:

Ya descrito lo anterior, se puede pasar a un tipo de regresión un poco mas


laborioso que requiere más elementos para su desarrollo, interpretación y toma de
decisiones, teniendo en cuenta por supuesto lo ya aprendido en los dos capítulos
anteriores, que son la base y el pilar en el análisis de una regresión, se puede facilitar
el proceso de regresión lineal con varios regresores.

Para el análisis de regresión lineal con varios regresores, se requieren de


mas elementos, muestras y de un análisis mas detallado, tal es el caso de incluir datos
de variables omitidas, que pasan a ser regresores extras y así se puede desarrollar el
efecto de un regresor cuando los otros se mantienen iguales, como casi siempre, el
soporte lo da MCO, ya que sus estimadores de regresión múltiple son variables
aleatorias porque provienen de datos de muestras aleatorias, y si son grandes dichas
muestras, tienden a tener una distribución normal.

En el proceso de desarrollo de una regresión múltiple puede ocurrir el


sesgo de la variable omitida, esto pasa cuando un regresor esta correlacionado con
una variable que fue omitida, y esta puede ser un determinante o componente de la
variable dependiente, por lo tanto, si se hace esto, el estimador de MCO expondrá un
sesgo de variable omitida. Se cumplen con dos condiciones:
1- Cuando la variable omitida esta correlacionada con los regresores incluidos en la
regresión.
2- Cuando la variable omitida es un factor determinante de la variable dependiente.
Esto también tiene que ver con el primer supuesto de MCO donde E(u i|Xi) = 0, cabe
recordar que ui en el modelo de regresión con un solo regresor representa todos los
factores distintos de Xi, que son componentes de Yi. Si uno de esos otros factores esta
correlacionado con Xi, rompe totalmente el primer supuesto, esto significa que el
termino de error de ui esta correlacionado con Xi, ocasionando que su media sea
distinta de 0, el estimador de MCO es sesgado, y este sesgo no desaparece de
muestras significativamente grandes pasando a ser un estimador inconsistente. Todos
estos argumentos expuestos tienen una expresión matemática resumida, sea la
correlación entre Xi y ui, corr(Xi, ui) = ρxu, suponiendo que se cumplen el supuesto 2
y 3 se cumplen debidamente en MCO, excepto el 1, porque ρxu es diferente de 0,
entonces el estimador de MCO pasa a tener un limite

βˆ1 ---------p--------β1 + ρxu(σu/σx) (3.1)

Esto quiere decir que aumenta el tamaño de la muestra, βˆ1 se acerca β1 + ρxu(σu/σx)
haciendo que crezca.

Se puede decir que el modelo de regresión múltiple es una extensión del


modelo de regresión lineal simple, como se mencionó, contiene mas elementos a
evaluar para ver si son idóneos como determinantes de Y i. Se hace estimando el efecto
sobre Yi con una variación de una variable, que es X 1i, manteniendo constantes los
demás regresores que son X 2i,…,Xki. Para ilustrar de manera fácil la recta de regresión
múltiple, se supone nada mas dos regresores X 1i y X2i, la relación de estos regresores
con Y esta dada por la función lineal

E(Yi|X1i = x1, X2i = x2) = β0 + β1X1 + β2X2 (3.2)

Donde E(Yi|X1i = x1, X2i = x2) es la esperanza condicional de Yi, dado X1i = x1, X2i = x2. La
ecuación (3.2) que es la función de regresión poblacional en el modelo de regresión
múltiple. Como ya se sabe, β0 es el intercepto o termino constante, que se obtiene
su valor cuando X1 y X2 son 0, gráficamente se puede ver donde la recta de
regresión múltiple el punto donde atraviesa en el eje de las Y, β1 es el coeficiente
de X1i, β2 es el coeficiente de X2i, y si se añaden mas variables que son
independientes del modelo de regresión múltiple se les llama variables de
control. Para interpretación de β1 es diferente para el caso de la regresión
múltiple que en la regresión simple, porque ahora es el efecto que ejerce sobre
Y de la variación en una unidad de X1, manteniendo igual o constante X2.

Los factores que determinan Y i además de X1i y X2i, se añade el termino de


error ui, obteniendo así

Yi = β0 + β1X1i + β2X2i + ui, i = 1,…,n (3.3)


Se denomina como modelo de regresión múltiple poblacional cuando hay dos
regresores, como X1i y X2i. En el caso con regresores binarios (0 y 1), es de gran ayuda
considerar β0 como el coeficiente de un regresor que es siempre igual a 1,
entonces alternativamente se reescribe la ecuación (3.3) en

Yi = β0X0i + β1X1i + β2X2i + ui, donde X0i =1, i = 1,…,n (3.4)

La variable X0i se denomina como regresor constante ya que esta asociado a β0 que
es el termino constante, además de que toma el mismo valor, que es 1 para
todas las observaciones, ambas ecuaciones, (3.3) y (3.4), son equivalentes para
su determinada función, aunque en la practica existe la posibilidad de que haya
múltiples factores omitidos en el modelo de regresión.

La homocedasticidad y heterocedasticidad en el modelo de regresión


múltiple son igualmente extensiones del mismo modelo de regresión con un solo
regresor. Menciona que el termino de error u i en el modelo de regresión múltiple es
homocedastico si la varianza de la distribución condicional de u i dados X1i,…,Xki, var(ui|
X1i,…,Xki), es constante para i = 1,…,n y entonces no depende de los valores de X 1i,
…,Xki, si no de lo contrario es heterocedastico.

El estimador MCO puede aplicarse también para todos los coeficientes de


una regresión, β0,…, βk en el mismo modelo. Sean b1,…,bk estimadores de β0,…,
βk. El valor que tome como predicción de Yi calculando esos estimadores es

bo + b1X1i + … + bkXki (3.5)

Por lo que el error seria la diferencia de Y i con la ecuación (3.5)

Yi – (b0 + b1X1i + … + bkXki)  Yi – b0 – b1Xi - … - bkXki (3.6)

Entonces, la suma de los cuadrados de los errores de predicción para n observaciones


es

Σ(Yi – b0 – b1X1i - … - bkXki)2 (3.7)

Los estimadores de los coeficientes β0,…, βk que minimizan la suma de los


errores al cuadrado de la ecuación (3.7) se llaman estimadores de MCO y se
expresan βˆ0,…, βˆk, se obtienen a partir de una muestra de n observaciones de
(X1i,…,Xki, Yi), i = 1,…,n; entonces para los valores de predicción MCO Yˆ i y los
términos de error uˆi son

Yˆi = βˆ0 + βˆ1X1i + … +βˆkXki, i = 1,…,n (3.8)


uˆi = Yi - Yˆi, i = 1,…,n (3.9)

Ahora se hace un análisis con la regresión múltiple obtenida, mediante las


medidas de ajuste que son iguales para el modelo de regresión con un solo regresor,
que es el R2 y el ESR, pero para el análisis de regresión múltiple se agrega uno más,
que es el R2 ajustado. El ESR estima el error estándar del termino de error u i, entonces
es una medida de la dispersión de la distribución de Y con respecto a la recta de
regresión, y es expresada de esta manera

ESR = SR / (n – k – 1) (3.10)

Donde SR es la suma de los cuadrados de los errores, SR = Σ = iuˆi2.

El R 2 es la proporción de la varianza muestral de Yi que esta explicada por


los regresores, y es la misma ecuación (1.9), plasmado aquí como (3.11)

R2 = SE / ST (3.11)

En la regresión múltiple, R 2 aumenta cada vez que se agrega un regresor al modelo o


recta, a menos que el coeficiente estimado del regresor o regresores agregados tengan
un valor de 0.

El R 2 ajustado aumenta cuando se agrega una variable, pero dicho


2
aumento de R no quiere decir que la variable agregada mejore realmente el ajuste del
modelo, por lo que se infiere que el R 2 es un estimado que puede ser exagerado con la
bondad de ajuste con la que la regresión se vaya ajustando a los datos. Entonces se
reduce R2 para ajustarlo y tener un dato mas certero, preciso, que es

R2 ajustado = 1 – [(n – 1) / (n – k – 1)] (SR/ST) (3.12)

La diferencia del R2 ajustado y el R2 es que se agrega el factor (n - 1) / (n – k – 1),


generando así el ajuste que se requiere para el R 2, y es que hay que resaltar tres cosas
del R2. El factor agregado en el R2, (n - 1) / (n – k – 1) es mayor que 1, provocando que
el resultado que se obtenga del R2 ajustado sea menor que el del R2.
Si se agrega un regresor al modelo tiene dos consecuencias opuestas para el R 2
ajustado, SR disminuye, lo que hace que aumente el R 2 ajustado, por el otro lado, (n -
1) / (n – k – 1) aumenta.
El R2 ajustado puede ser negativo, ocurre cuando todos los regresores reducen la
suma de los cuadrados de los errores en una cantidad muy pequeña que no se puede
recuperar con el factor (n - 1) / (n – k – 1).

Los MCO en la regresión múltiple también tienen sus supuestos, pero a


diferencia de la regresión simple, esta tiene 4 supuestos y uno de ellos es diferente a
los 3 supuestos de los MCO en la regresión simple.
El supuesto 1 es conocido, pero en la regresión múltiple esta denotada
como si fuera una extensión y menciona que, la distribución condicional de u i dados X1i,
…,Xki tienen media igual a 0. Significa que Yi algunas veces se encuentra arriba o
debajo del plano de la regresión poblacional, pero en promedio se encuentra en el
mismo plano, por tanto, que cualquier valor de las variables explicativas, su valor
esperado de ui es 0.

El supuesto 2 de los MCO en la regresión múltiple es totalmente diferente,


por no decir contrario, al supuesto 2 de los MCO en la regresión simple. Esta dice que
(X1i,…,Xki, Yi), i = 1,..,n, no son idénticas e independientemente distribuidas (iid) porque
los datos se han obtenido por muestreo aleatorio simple.
El supuesto 3 menciona que los valores atípicos son improbables, de igual
forma si se obtiene uno, hay que revisar minuciosamente para ver si no es un error
tipográfico que esto ocasiona un error grave ya que también los MCO en regresión
múltiple son sensibles a este tipo de datos, entonces si es error tipográfico hay que
removerlos y corregir. Pero si ya se hizo una revisión adecuada de que en verdad es un
dato atípico, se tiene que analizar más allá para tomar la decisión de dejarlo o no en la
base de datos.

El supuesto 4 es solo para los MCO en la regresión múltiple, en donde


descarta la multicolinealidad perfecta, bajo la que resulta imposible obtener un
resultado del estimador MCO, y menciona que, los regresores no son perfectamente
multicolineales.

Vous aimerez peut-être aussi