Académique Documents
Professionnel Documents
Culture Documents
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Contenido
1 2
Introduccin Modelos para respuesta binaria Modelo Lineal de Probabilidad Modelos Probit y Logit.
3 4
Estimacin por Mxima Verosimilitud Efectos Marginales. Prediccin de Probabilidades Efectos Marginales Qu Efecto Marginal Utilizamos? Prediccin de Probabilidades Comparacin de parmetros entre modelos
5 6
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Introduccin
En ocasiones analizamos datos donde la variable dependiente de inters toma valores discretos:
1 2
Variable dependientes binarias: endeudarse o no Variables discretas sin ordenacin: modo de transporte (tren, autobs, etc...)
3 4
Variables discretas con orden: calicacin/ rating nanciero Datos de conteo (count data) con variables discretas ordenadas que pueden tomar muchos valores diferentes: nmero de patentes de una empresa
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Un modelo de regresin lineal puede no ser lo ms adecuado en estos casos Los resultados son difciles de interpretar: no se puede hablar de cambio continuo La variable dependiente slo admite valores discretos, y puede que slo no-negativos A veces, la variable dependiente debe entenderse cualitativa y no cuantitativamente. Podemos estar interesados en estimar la probabilidad de la ocurrencia de los distintos valores de la variable dependiente
no tanto en el valor esperado predicho
Empezaremos considerando el caso ms sencillo: la variable dependiente slo toma dos valores (es binaria).
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Una variable binaria (toma slo dos valores): 1 0 con probabilidad p con probabilidad 1
Yi
= Pr (Y = y ) = p y (1 p )1y
Var
(Y ) = Pr (Y = 1) = p ( Y ) = p (1 p )
= 1)
=1
= x ) = Pr (Y = 1|X = x ) = p (x )
( )
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
El Modelo Lineal de Probabilidad simplemente supone que la esperanza condicional de la variable binaria Y es lineal. E (Y |X
= x ) = Pr (Y = 1|X = x ) = p (x ) = 0 + 1 x
Todo lo que ya sabemos sobre el modelo de regresin lineal se puede aplicar directamente: estimacin, contraste de hiptesis, interpretacin de los parmetros, etc. Slo debemos recordar que la esperanza condicional es, en este caso, una probabilidad. Por qu no se utiliza frecuentemente el Modelo Lineal de Probabilidad?
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
MLP: limitaciones
= x ) = p (x ) [1 p (x )] = (0 + 1 x ) (1 0 1 x )
NO crucial: simplemente ser necesario utilizar errores estndar robustos a la presencia de heterocedasticidad
2
= x)
(que son
se pueden tener probabilidades mayores que uno o menores que cero el cambio en la probabilidad esperada de Y sentido
=1
puede no tener
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
= x ) = p (x )
estn
Una eleccin natural es una funcin de distribucin acumulada F PERO slo depende de una variable
1
(),
Primero utilizaremos una funcin h (x1 , . . . , xk ) que ofrezca un nico valor (ndice)
(Y |X = x ) = p (x ) = F (h (x1 , . . . , xk ))
= 0 + 1 X1 + + k Xk
()
transformar los valores
= x ) = Pr (Y = 1|X = x ) = F (0 + 1 X1 + + k Xk )
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
(),
z
(z ) =
z
(x ) dx =
1 2
exp
1 2
dx
donde
2
(x )
(z ) =
+ ez
El modelo de ndice lineal que utiliza esta funcin de distribucin acumulada se denomina modelo probit: E (Y |X
= x ) = Pr (Y = 1|X = x ) = (0 + 1 X1 + + k Xk )
El modelo de ndice lineal que utiliza esta funcin de distribucin acumulada se denomina modelo logit: E (Y |X
= x ) = Pr (Y = 1|X = x ) = (0 + 1 X1 + + k Xk )
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Supongamos que se puede expresar la utilidad como un ndice lineal de las caractersticas Vi 1
1 1 = 0 + 1 X1 i + + k Xki + i 1
Supongamos que la utilidad del individuo si no compra el bien depende de las caractersticas de la mejor alternativa posible: Vi 0
0 0 = 0 + 1 X1 i + + k Xki + i 0
> Vi 0 .
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
(no observadas)
Yi
= Vi 1 Vi 0
Yi
= Vi 1 Vi 0
si el individuo NO compra: Yi
= Vi 1 Vi 0 < 0
utilidades
Yi
= 0 + 1 X1i + + k Xki + ui
Si queremos calcular la esperanza condicional de la variable observable Yi , tenemos E (Yi |X1i , . . . , Xki )
= =
Pr (Yi Pr (0
= 1|X1i , . . . , Xki ) = Pr (Yi > 0|X1i , . . . , Xki ) + 1 X1i + + k Xki + ui > 0|X1i , . . . , Xki )
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
= =
Pr (0 + 1 X1i + + k Xki + ui > 0|X1i , . . . , Xki ) Pr (ui > 0 1 X1i k Xki |X1i , . . . , Xki )
El modelo se completa con un supuesto sobre la distribucin del trmino de error ui para calcular esta probabilidad
tpicamente, se elige una distribucin acumulada F (z ) que cumpla la propiedad de simetra: 1 por tanto,
= Pr (U < z )
F (z ) = F (z )
= = =
Pr (u > 0 1 X1 X )
i i k ki
1 Pr (u < 0 1 X1 X ) 1 F (0 1 X1 X )
i i k ki i
F ( 0 + 1 X1
+ + k Xki )
ki
Yi
E
(Yi |X1i , . . . , Xki ) = Pr (Yi = 1|X1i , . . . , Xki ) = (0 + 1 X1i + + k Xki ) (Yi |X1i , . . . , Xki ) = Pr (Yi = 1|X1i , . . . , Xki ) = (0 + 1 X1i + + k Xki )
Introduccin Intuicin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Ejemplo: la variable Yi toma valor 1 si al lanzar una moneda sale cara y 0 en caso contrario Se tienen muestras con dos lanzamientos: los posibles valores son
y {1, 1}.
= 0,10
0,81 0,09 0,09 0,01
= 0,50
0,25 0,25 0,25 0,25
= 0,90
0,01 0,09 0,09 0,81
La probabilidad de observar cada uno de los cuatro casos vara segn la moneda (parmetro p ) Si observamos una muestra concreta, cmo predecir la moneda que moneda se utiliz?
Introduccin Intuicin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Dada un muestra observada, se elige como valor estimado aqul que maximiza la probabilidad (verosimilitud) de que precisamente esa muestra hubiera sido la observada.
El mtodo de mxima verosimilitud consta, pues, de dos pasos:
1
Calcular la probabilidad de cada muestra como funcin de los parmetros del modelo.
Dada una muestra observada nalmente, la probabilidad de observar esa muestra vara slo como funcin de los parmetros.
2
Estimar el parmetro cmo el valor que hace mxima la probabilidad de observar una muestra concreta
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
yi
1, 0,
si yi
si yi
<0
0 + 1 X1 + i
N (0, 1)
i |X1
0 ,1
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
= x1 i
= 1|X1i = x1i )
= = = = =
Pr (0 Pr (i 1 1
+ 1 x1 + i > 0) > 0 1 x1 )
Pr (i < 0 1 X1 ) (0 1 x1 )
( 0 + 1 x1 )
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Si tenemos una muestra aleatoria, la probabilidad conjunta de observar a los N individuos de la muestra ser:
Pr (Y1 = y1 , . . . , YN = yN )
N
=
L ( 0 , 1 ; y1 , . . . , yn ) =
N i =1
i =1
Pr (Yi = yi |xi 1 ; 0 , 1 ) =
i i
[ (0 + 1 x1 )]y [1 (0 + 1 x1 )]1y
(y1 , . . . , yn ).
En general, resulta ms conveniente trabajar con la funcin de log-verosimilitud
log L (0 , 1 ; y1 , . . . , yn ) =
N i =1
Nuestra estimacin de los parmetros ser aquella que haga mxima esta funcin
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
i |X1 N (0, 1)
Si suponemos otra distribucin (logstica, por ejemplo) para el trmino de error, entonces
el mecanismo del mtodo de mxima verosimilitud es el mismo la probabilidad conjunta calculada sera diferente
Por tanto, diferentes supuestos distribucionales implican distintas funciones de verosimilitud Asimismo, los estimadores pueden ser diferentes dependiendo del supuesto distribucional
el mximo de la funcin de (log-)verosimilitud puede ser distinto
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Los estimadores y sus propiedades dependen crucialmente de qu distribucin se haya supuesto para el trmino de error.
el trmino de error es inobservable, no podemos conocer su distribucin
Si la distribucin que suponemos resulta ser la verdadera distribucin, el estimador mximo verosmil ser
1
consistente
cuando el tamao muestral es grande, el valor estimado est prximo al verdadero valor de parmetro.
2
eciente (asintticamente)
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Efectos Marginales
E Y | X1 , . . . , Xj , . . . , Xk
= =
Pr
0 + 1 X1 + + j Xj + + k Xk
= 1| X1 , . . . , Xj , . . . , Xk
Y | X1 , . . . , Xj , . . . , Xk Xj F
j f 0 + 1 X 1 + + j Xj + + k Xk
0 + 1 X1 + + j
cj + 1 cj
+ + k Xk + + k Xk
F
donde F
0 + 1 X1 + + j
( )
( () en el probit y
( )
en el logit)
(z ) =
F (z ) es su funcin de densidad. z
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Efectos Marginales
depende de todos los parmetros del modelo depende de la forma funcional concreta de f ()
2
individuos con valores diferentes en al menos una variable explicativa tienen distinto efecto marginal. para cada combinacin de valores de las X tendremos distintos efectos parciales
En la prctica, se tiene un efecto marginal distinto para cada individuo de la muestra.
efectos ceteris paribus son efectos manteniendo constante el resto de variables en el valor de cada individuo
j ,
el signo s
() ()
0 es montona no decreciente
La signicatividad del efecto marginal tambin coincide con la del parmetro, en general
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Efectos Marginales
Ejemplo 1
E (Y |X = x ) E (Y |X = x ) E (Y |X = x )
= = =
E (Y |X = x ) X E (Y |X = x ) X E (Y |X = x ) X
= = =
Ejemplo: Y
=1
= 20
y X
= 60
2 , log X , 1
()
X ,...
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Efectos Marginales
Ejemplo
E (Y |X1 , X2 ) E (Y |X1 , X2 )
= =
2 Pr (Y = 1|X1 , X2 ) = 0 + 1 X1 + 2 X2 + 3 X2 Pr (Y = 1|X1 , X2 ) = F (0 + 1 X1 + 2 X2 )
E (Y |X1 , X2 ) X2 E (Y |X1 , X2 ) X2
= =
2 + 23 X2 2 f ( 0 + 1 X 1 + 2 X2 )
En ambos caso, el efecto marginal de X2 es depende del valor inicial de X2 Pero cuando dos individuos tienen el mismo valor de X2 y distinto valor de X1 , el efecto marginal d
en el modelo lineal, es el mismo para ambos individuos en el modelo no lineal, es distinto porque s depende de X1
Sera necesario incluir alguna interaccin entre X1 y X2 en el modelo lineal para conseguir lo mismo
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
A diferencia del modelo lineal, no existe un nico efecto marginal Para cada combinacin de valores en las variables explicativas, se tiene un efecto marginal diferente
si hay muchas variables explicativas y/o toman muchos valores diferentes, mayor nmero de posibles valores del efecto marginal.
Inconveniente: a priori, no tenemos un valor resumen del efecto esperado del cambio en una variable
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
j = em
Y | X1 , . . . , Xj , . . . , Xk = j f Xj X =x ,...,X =x
1 1
k k
0 + 1 x1 + + k xk
j em
F F
0 + 1 x1 + + j
cj + 1 + + k x k 0 + 1 x1 + + j cj + + k xk
No siempre tenemos claro en qu nico conjunto de valores (para todas las variables) resulta interesante evaluar el efecto marginal.
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
j = em
Y | X1 , . . . , Xj , . . . , Xk Xj X =x
1
1 ,...,
X =x
k
= j f (0 + 1 x 1 + + k x k )
k
j em
F F
0 + 1 x 1 + + j
0 + 1 x 1 + + j
cj + 1 + + k x k cj + + k x k
la media no es siempre un valor representativo de una distribucin cuando se eligen valores relevantes para varias variables, la eleccin debe ser conjunta (considerando relaciones entre ellas)
Se puede evaluar el efecto marginal en la media de algunas variables y en valores concretos de otras
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
emij =
Y | X 1 , . . . , Xj , . . . , Xk Xj X =x
1
1i ,...,
X =x
k
= j f (0 + 1 x1i + + k xki )
ki
j em
F F
0 + 1 x1 i + + j
0 + 1 x1i + + j
1 emj = N
i =1
Este enfoque s controla por la relacin entre variables explicativas. Como disponemos de toda la distribucin, podemos interesarnos
por percentiles representativos de la parte alta o de la parte baja por medidas de dispersin
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Var
= Var j f 0 + 1 x1 + + k xk
Se puede utilizar el llamado mtodo delta para calcular la varianza asinttica AVar como una funcin de
la matriz de varianzas y covarianzas de los coecientes estimados
V
em |X
=J
VJ
= Var ( )
0 + 1 x1 + + k xk
el jacobiano de la funcin f
j f
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Prediccin de Probabilidades
Prediccin de Probabilidades
Los modelos no lineales tambin permiten predecir los valores de la variable dependiente PERO para variables dependientes discretas, resulta ms conveniente predecir probabilidades de los valores El modelo binario se reere directamente a la probabilidad predicha de Y
=1
E [Y |X1 , X2 ]
= Pr (Y = 1|X1 , X2 ) = F 0 + 1 X1 + 2 X2
en funcin de los parmetros estimados y de los valores de las variables explicativas en los que condicionemos
La probabilidad de Y complementaria
=0
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Prediccin de Probabilidades
predicciones puntuales para unos valores no disponibles en la muestra (contrafactual) puede contradecir la relacin real entre variables explicativas
2
Como en el caso lineal, la media de la variable dependiente coincidir con la media de la probabilidad predicha
Se pueden combinar ambos enfoques: algunos valores jos y otros observados
se obtiene una distribucin de probabilidades predichas para un contrafactual (valores jados articialmente)
AVar Pr (Y
donde
G = F
) =G = 1|X1 = x1 , X 2 = x2
VG
+ x 0 + 1 x1 2 2
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Los coecientes estimados en modelos Probit, Logit y de Probabilidad Lineal tienen una escala muy diferentes
Los efectos marginales y las probabilidades predichas son muy similares entre los tres modelos
slo existen diferencias de cierta importancia en las colas entre el probit y el logit.
Hay que recordar que el modelo lineal de probabilidad slo estima el efecto marginal promedio y la probabilidad predicha promedio
el efecto marginal promedio del logit y del probit sern similares al coeciente del modelo de probabilidad lineal
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Bondad de Ajuste
Bondad de Ajuste
El valor de la (log-)verosimilitud.
A mayor (log-)verosimilitud, mejor ser el modelo Slo puede compararse entre modelos de la misma clase
El pseudo-R
2 de McFadden:
LN
=1
LN (y )
del modelo que incluye variables explicativas, LN respecto al modelo slo con constante,LN (y ) (probabilidad media incondicional) Esta medida est entre cero y uno, PERO NO representa proporcin de varianza explicada por el modelo
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Bondad de Ajuste
Introduccin Contrastes
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Test de Wald:
estima el modelo bajo la hiptesis alternativa (modelo sin restringir) comprueba si las estimaciones satisfacen las restricciones: poca distancia a lo especicado por el modelo restringido (H0 ) Los test de Wald tienen una distribucin asinttica conocida bajo H0 Cuando la probabilidad de observar valores muy alejados es pequea de acuerdo con la distribucin normal, se rechaza H0
= 2
ln L
r ln L u
2 (q )
bajo H0
Ambos tests son asintticamente equivalentes: se obtendrn resultados similares (rechazo o no de H0 , p-valor, etc.)
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Introduccin
Los modelos binarios pueden generalizarse de varias formas:
modelos univariantes multinomiales: una variable dependiente con mltiples categoras mutuamente exclusivas
las categoras pueden ser ordenadas o no las variables explicativas pueden ser especicas de cada alternativa, etc.
modelos multivariantes para variables discretas
Los efectos marginales informan del cambio en la probabilidad de observar cada una de las distintas categoras
no en una nica probabilidad
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Modelos Multinomiales
El valor de la variable dependiente Yi para el individuo i es una de m alternativas Yi
= r,
= 1, 2, . . . , m
los valores son arbitrarios (no afectan a resultados) salvo en los modelos ordenados
La probabilidad de la alternativa r para el individuo i , condicional en las variables explicativas Xi pir donde Fr
()
Las probabilidades y los efectos marginales dependen de los valores concretos de las variables explicativas en que se evalen
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
m s =1
y pis
is
donde yir
1, 0,
si Yi
=r
en caso contrario
Pr (Y1 = y1 , . . . , YN = yN )
L () =
N m i =1 s =1 N m
i =1
Pr (Yi = r |Xi ) =
is
N m
i =1 s =1
y pis
is
ln L () =
i =1 s =1
yis ln Fs (Xi ; )
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Sabemos cmo obtener los errores estndar y realizar contrastes Los estimadores mximo verosmiles tienen buenas propiedades, siempre que Fr
()
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
ir
ir = Vir + ir
= r,
si obtiene
Se observa que el individuo i elige la alternativa r , Yi la mayor utilidad entre alternativas Pr (Yi
= r)
= = =
Uis ) ,
Uir ir
Vir
Vis ) ,
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
= xir + zi r
los regresores xir son variables especcas para cada alternativa
i 1 , . . . , im
()
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
pir =
el vector
exp Xi r m exp X s s =1 i
r = 1, . . . , m
Puede interpretarse como una serie de modelos logit para pares de alternativas
=1
la categora base
Xi r
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
En lugar de una esperanza condicional, el logit multinomial ofrece la probabilidad de cada alternativa Y los correspondientes efectos marginales de los regresores sobre cada probabilidad
pir = pir r i Xi
i
i
i =
m s =1
is s
El signo de los coecientes NO coincide con el del efecto marginal: para una variable xij el efecto marginal es positivo si dependen de los valores en que se evalen
j ,r > j ,i
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Es una extensin del modelo Logit Multinomial que permite regresores especcos para cada alternativa exp Xir
pir
m s =1 exp
Xis
+ Zi r + Zi s
= 1, . . . , m
Los coecientes de los regresores especcos de cada alternativa son fcilmente interpretables:
pir = Xjis
si
pir (1
pir ) j ,
r r
=s =s
pir pis j ,
j > 0,
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Logit Anidado
Los modelos logit multinomial/condicional imponen una restriccin: la eleccin entre pares de alternativas es un modelo logit binario
este supuesto, conocido como de
irrelevantes,
independencia de alternativas
ir
son
independientes e idnticamente distribuidos como valor extremo El modelo Logit Anidado requiere una estructura anidada
las alternativas se reparten en grupos los errores
ir
Por ejemplo,
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Las probabilidades del modelo Logit Anidado son similares a las de Logit Condicional
aunque con una estructura anidada especca
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Probit Multinomial
Permite relajar el supuesto de independencia de alternativas irrelevantes
permite un patrn de correlaciones en los errores muy exible no es necesario denir una estructura anidada
= xir + zi r + ir
N (0, )
donde
= (i 1 , . . . , im )
(xir xis ) + zi (r s ) ,
pir = Pr (Yi = r ) = Pr is ir
y difcil de resolver
para todo
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
obtener las probabilidades integrando numricamente o utilizar el mtodo de mxima verosimilitud simulada
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Logit/Probit Ordenado
En algunos casos, las variables categricas estn ordenadas de manera natural Sea una variable latente
Yi = Xi + ui
La variable categrica se observa segn Yi cruza secuencialmente
determinados umbrales
Yi = r , si r 1 < Yi
donde
r ,
r = 1, . . . , m
0 =
m =
Pr (r 1 < Yi r ) Pr r 1 < Xi + ui r Pr r 1 Xi < ui r Xi
Pr (Yi = r )
= = = =
r Xi F r 1 Xi
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Logit/Probit Ordenado
pir
= Pr (Yi = r ) = F (r Xi ) F (r 1 Xi ) ()
depende del supuesto
() = ()
() = ()
y el vector
umbrales
y el vector
incluyendo constante
Las probabilidades predichas y los efectos marginales se calculan de las formas habituales El efecto marginal de una variable continua es
Pr (Yi = r ) = [F (r Xi ) F (r 1 Xi )] j Xij
el signo del efecto marginal y del coeciente
coinciden
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Modelos Multivariantes
Modelos Multivariantes
Dos o ms variables categricas se tienen que analizar conjuntamente si
existe simultaneidad: las variables categricas dependen de las otras no existe simultaneidad, pero los errores estn correlacionados
En el caso ms sencillo tenemos dos variables binarias relacionadas slo por la correlacin de los errores: modelo bi-probit Se tienen dos variables latentes Y1i Y2i donde
= =
X1i X2i
+ 1i + 2i
1i
2i
1, 0,
1, 0,
si Y1i si Y1i
>0
0
Y2i
si Y2i si Y2i
>0
0
Introduccin
Modelos binarios
Estimacin MV
Inferencia
Modelos Multinomiales
Modelos Multivariantes
SLO cuando
= 0,
El modelo conjunto se estima por mxima verosimilitud, a partir de las expresiones de las probabilidades para los cuatro casos
aunque no existe una expresin analtica cerrada
Estimando adecuadamente (de forma conjunta) se obtienen resultados sustancialmente diferentes de los probits separados
tanto en las probabilidades Pr (Y1i cuatro conjuntas como en los efectos marginales
= 1|Xi )
y Pr (Y2i
= 1|Xi ),
y en las
La generalizacin del modelo, especialmente si una variable depende de la otra, complica sustancialmente la estimacin