Vous êtes sur la page 1sur 4

Un modelo multinivel comúnmente usado para (2) asigna distribuciones normales a los

parámetros de habilidad y dificultad.

Alfa tiene distribución normal con media mu y sigma por alfa cuando j va de 1 hasta J

Beta tiene una distribución normal con media mu y sigma por beta cuando k va de 1 hasta K

el modelo es multinivel porque a los priores de estos parámetros se les asignan hiperprioridades y
se estiman en función de los datos. esto también se conoce como un enfoque de agrupamiento
parcial o jerárquico (gelman et al. 2003). El modelo no es identificado por las razones discutidas
anteriormente: esta vez, es 𝑙𝑎 y 𝑙𝑏 que no se identifican, porque se puede añadir una constante a
cada uno sin cambiar las predicciones. La forma más sencilla de identificar el modelo multinivel es
poner 𝑙𝑎 a 0 (o poner 𝑙𝑏 a 0, pero no ambos debido a la colinealidad).

2.1.2 Definición del modelo mediante parámetros redundantes:

Otra manera de identificar el modelo es permitiendo que los parámetros a y b floten y luego
definiendo nuevas cantidades que sean bien identificadas. Las nuevas cantidades se pueden
definir, por ejemplo, mediante la reescalación basada en la media de los aj's:

Ecuacion (2) pagina 174

Los nuevos parámetros de habilidad a adj j y los parámetros de dificultad b adj k están bien
definidos, y funcionan en lugar de a y b en el modelo original:

Ecuacion (3) pagina 174

Esto es así porque restamos la misma constante tanto de las a como de las b. No funcionaría restar
a de las aj y b de las bk.

2.2 Alias multiplicativos

2.2.1 El modelo básico con un parámetro de discriminación

El modelo de ítem-respuesta puede generalizarse permitiendo que la pendiente de la regresión


logística varíe por ítem.

Ecuacion (4) pagina 174

En este nuevo modelo, ck se llama la discriminación del ítem k: si ck 1/4 0, entonces el ítem no
"discrimina" en absoluto [Pr(yi 1/4 1) 1/4 0,5 para ninguna persona], mientras que los valores altos
de ck corresponden a una fuerte relación entre la habilidad y la probabilidad de votar como se
espera o de obtener una respuesta correcta, según sea el caso. En la Figura 2 se ilustra. Los valores
negativos de ck corresponden a artículos en los que las personas de baja capacidad lo hacen
mejor. Tales artículos representan típicamente
Figura 2.

Curvas y datos simulados del modelo de ítem-respuesta logística de dos parámetros para los ítems
k con el parámetro de "dificultad" bk 1/4 1 y los parámetros de "discriminación" alta, baja, cero y
negativa ck.
errores en la instrucción de la prueba, ya que los diseñadores de la prueba generalmente tratan de
crear preguntas con un alto valor de discriminación positiva. En una investigación puntual ideal, el
parámetro de discriminación indica qué tan bien un caso o proyecto de ley discrimina entre
jueces/legisladores conservadores y liberales. La adición del parámetro de discriminación produce
un nuevo problema de invariabilidad: la invariabilidad de escalado o el aliasing multiplicativo.

2.2.2 Resolución de la nueva fuente de aliasing

El modelo (3) tiene una nueva fuente de indeterminación: un alias multiplicativo en los tres
parámetros que surge al multiplicar las c por una constante y dividir las a y las b por esa misma
constante. Podemos resolver esta indeterminación obligando a los aj's a tener una media de 0 y
una desviación estándar de 1 o, en un contexto de varios niveles, dando a los aj's una distribucion
[e.g., N(0,1)].

Como alternativa, proponemos establecer hiperprioridades para todos los parámetros de interés y
transformar esos parámetros a través de la normalización después de la estimación. Por ejemplo,
podemos calcular la media y la desviación estándar de a y generar el siguiente parámetro
normalizado.

Ecuacion (5) pagins 176

donde el superíndice adj denota normalización y a y sa representan la media y la desviación


estándar de los aj.

También queremos normalizar las b's y c's manteniendo una escala común para todos los
parámetros. Por lo tanto, transformamos estos parámetros usando la media y la desviación
estándar de un también:

Ecuacion (6) pagins 176

Este reescalamiento resuelve el problema del aliasing multiplicativo así como el problema del
aliasing aditivo discutido anteriormente. se preserva la probabilidad[ya que c adj k(a adj j 7 b adj
k)1/4 ck(aj 7 bk)] a la vez que se permite que el cálculo proceda más eficientemente (esto sigue la
idea de expansión de parámetros de Liu et al. 1998; véase también Gelman et al. 2003).

Los parámetros altamente correlacionados ralentizan el muestreo de MCMC (Gilks et al. 1996), lo
que hace difícil la convergencia para cualquier iteración. Las transformaciones anteriores
solucionan este problema reduciendo la correlación posterior en las densidades posteriores. Por
ejemplo, la Figura 3 traza el factor potencial de reducción de escala R (Gelman y Rubin 1992;
Gelman et al. 2003) para los jueces representantes no ajustados y ajustados en una corte natural.
Un valor de 1 indica la convergencia aproximada de varias cadenas. Después de 15000 iteraciones,
los puntos ideales normalizados muestran una convergencia mucho mejor que las puntuaciones
no normalizadas.
2.2.3 Invariancia de la reflexión

Incluso después de lidiar exitosamente con el aliasing aditivo y multiplicativo, un problema de


indeter-minacy permanece en el modelo (4): una invariancia de reflexión asociada con el
multijugador de todos los ck's, aj's, y bk's por 71. Si no se asigna ninguna restricción adicional a
este modelo, esta

Fig.3 Convergencia de estimaciones de puntos ideales normalizados versus no normalizados


después de 15000 iteraciones. Un valor de diagnóstico de 1 indica la mezcla de secuencias de
MCMC y, por lo tanto, la convergencia aparente. Las estimaciones normalizadas muestran
propiedades de convergencia mucho mejores.
causará una probabilidad bimodal y una distribución posterior. Es deseable seleccionar sólo uno
de estos modos para nuestras inferencias. (Entre otros problemas, si incluimos ambos modos,
entonces cada parámetro tendrá dos estimaciones de probabilidad máxima y una media posterior
de 0.)).

En un contexto político, debemos identificar una diección como "liberal" y la otra como
"conservadora" (o como sea que se entienda la dimensión ideológica principal; ver poole y
Rosenthal 1997). (En las aplicaciones psicométricas de los modelos ítem-respuesta, suele haber
una respuesta correcta claramente definida para cada pregunta, por lo que esta no
identificabilidad, causada por la necesidad de etiquetar correctamente las dos direcciones de la
escala, no surge).

Antes de presentar nuestro método para resolver el problema de la invariabilidad de la reflexión,


discutimos brevemente dos enfoques más simples. Con datos adecuadamente estructurados, se
puede restringir el parámetro de discriminación (c's) para que todos tengan signos positivos. Esto
tiene sentido cuando los resultados se han precodificado de modo que, por ejemplo, los yi
positivos correspondan a votos conservadores. Sin embargo, no utilizamos este enfoque porque se
basa demasiado en la precodificación, que, aunque generalmente es razonable, no es perfecta
(como veremos en nuestro ejemplo de la Corte Suprema). Preferiríamos estimar la dirección
ideológica de cada voto a partir de los datos y compararlos con la precodificación para comprobar
que el modelo tiene sentido (y explorar cualquier diferencia encontrada entre las estimaciones y la
precodificación).

Un segundo enfoque para resolver el aliasing es elegir uno de los aj's, bk's, o ck's y restringir su
signo (jackman 2001). Por ejemplo, podríamos obligar a Aj a ser positivo para el extremadamente
conservador Antonin Scalia. O podríamos obligar al aj de Douglas a ser menos que el aj de Scalia.

Sólo una restricción es necesaria para resolver el problema de los dos modos; sin embargo,
debería

Vous aimerez peut-être aussi