Académique Documents
Professionnel Documents
Culture Documents
MÉTODO III:
Procedimientos de
Análisis de la Información,
Dimensión Cuantitativa.
UCN -2008
- Nominales x Nominales (categóricas)
- Nominal x Métrica (t Student, ANOVA)
- Métrica x Métrica (r)
- Múltiples Variables Métricas
- Múltiples Variables Nominales
2
Nominal x Nominal: X2 (Chi Cuadrado).
Permite determinar si existe una asociación significativa entre 2 criterios (niveles o categorías).
H0 = Hipótesis de Independencia.
[Los Criterios no tienen relación (dependencia, asociación) entre sí]
Cálculo X2
(nij – mij)2
X2 = ∑ mij
Donde,
n = frecuencia estimada
i = fila
j= columna
Si,
X2 = 0; luego, э Independencia.
Procedimiento:
X2 nos indica si la asociación es significativa o no, pero no nos dice el grado de asociación, su fuerza. Para ello se
ocupan otros estadísticos, tales como: Coeficiente de Contingencia, Phi, V de Cramer; que adquieren valores entre 0
y 1, donde 1 es asociación perfecta y 0 es ausencia. Phi en algunas ocasiones puede tomar valores superiores a 1,
como cuando hay una variable con más de 3 niveles, por ejemplo. Lambda y Coeficiente de Incertidumbre –otros
procedimientos estadísticos de este tipo- están basados en la reducción del error de predicción, hasta 1.
Mientras mayor es la discrepancia entre observadas y esperadas, es donde están las casillas que apuntan a la
asociación. Por ejemplo: Mujeres x bajo; Hombres x medio.
Nota:
Si se acepta la H0 del X2, entonces no se
consideran los residuos.
Con la variable nominal de 2 niveles, se forman dos grupos (los que se comparan), estos serán la variable
independiente, y luego se calcula la media para ambos grupos.
↗ Varianzas Iguales.
Para ello se calcula la Homogeneidad de las Varianzas
t
mediante la prueba de Levenne.
↘ Varianzas Distintas.
4
La H0 para t = Igualdad de Medias.
“No existen diferencias significativas en la media de la variable dependiente (métrica) entre los
distintos niveles de la variable independiente (nominal)”
Significación Asociada:
La Prueba de Levenne presenta distribución F y contrasta la H0 de Igualdad de Varianzas (p < 0,05; se rechaza).
Procedimiento:
Analizar> Comparar Medias> t para muestras independientes> Variable de Agrupación> Definir Grupos
(se ingresa el código).
El procedimiento ANOVA permite determinar que la variación que existe al interior de los grupos sea menor que
entre los grupos [ ↓variabilidad intragrupo; ↑variabilidad extragrupo: ↑heterogeneidad intergrupo,
↑homogeneidad intragrupo, con respecto a su δ2].
Arroja el estadístico “F”, cuya H0 = Igualdad de Medias (*No existen diferencias significativas en… entre…)
Con una significación asociada de: p < 0,05 se rechaza; p > 0,05 se acepta.
Procedimiento:
Analizar> Comparar Medias> ANOVA 1 factor.
* Ojo: La Variable Dependiente siempre es la Variable Métrica!
Las Comparaciones Múltiples Post-Hoc comparan medias, existen varias. Dentro de las más usadas se encuentran
Tukey (que asume varianzas iguales) y Games-Howell (que no asume varianzas iguales). A ANOVA se le solicita que
arroje estos procedimientos, pero para saber cual leer debe también solicitarse la Prueba de Levenne (o de
Homogeneidad de Varianzas, H0: Igualdad de Varianzas, p < 0,05 para rechazar). ANOVA siempre asume que los
grupos se distribuyen normalmente.
5
La lectura correcta del procedimiento estadístico, gracias a la significación asociada de Levenne, permite
saber en dónde se encuentran las diferencias significativas; por ejemplo, en la siguiente tabla SPSS se
muestran los resultados de los colegios en una Escala de Inteligencia1:
Previo cálculo de ANOVA de un factor, en donde se rechaza la H0 de Igualdad de Medias, es decir, SI existen
diferencias significativas en la media de la Escala de Inteligencia entre los distintos grupos (niveles) de
Colegio; se calcula un Levenne con una significación asociada que permite rechazar la H0 de Igualdad de
Varianzas poblacionales por lo cual se concluye que las varianzas difieren, razón por la cual debe leerse
Games-Howell, el cual indica (siempre desde la significación asociada):
Particular x Subvencionado tiene una p de ,237; por lo cual no es significativa su diferencia (aunque se
acerca);
Todo esto permite concluir que las mayores diferencias significativas se encuentran entre Particular &
Municipal y en Subvencionado & Municipal. Entre Particular & Subvencionado la diferencia no es
significativa (aunque se acerca). En otras palabras, en relación a la Escala de Inteligencia, las mayores
diferencias se encuentran en la Educación Particular y la Educación Subvencionada versus la Educación
Municipal; es decir, los alumnos de colegios municipales puntuarían significativamente más bajo que los de
colegios particulares y los de colegios subvencionados en la Escala de Inteligencia. Los alumnos de colegios
subvencionados puntúan más bajo que los de colegios particulares, pero su diferencia no es significativa.
Probablemente todos los factores asociados a la educación brindada por cada grupo de colegio inciden
mucho en los resultados (infraestructura, ubicación, nivel socioeconómico, motivación, estimulación al
aprendizaje, etc), pero ese es otro análisis que no se puede desprender empíricamente de los datos
proporcionados para este cotejo estadístico.
1
Valores ficticios, sólo con fines pedagógico-explicativos.
6
2 ó más variables Nominales (sin importar su nº de niveles) x Métrica: ANOVA FACTORIAL.
Ejemplo:
Se establece una matriz que permite ver él o los efectos (mediante subconjuntos: máximas
combinaciones posibles, ‘2n-1’ –donde “n” es el número de V.I’s.)
♂ ♀
Bajo En relación al Prejuicio (V.D.) y
Medio NSE & Sexo (V.I’es).
Alto
NSE
Sexo
Colegio
NSE & Sexo
NSE & Colegio
Sexo & Colegio
NSE & Sexo & Colegio
Factores Fijos: Nominal. Factores que están definidos por las características de la variable.
Factores Aleatorios: Métrica. Los grupos no se conocen, los forma el software.
Procedimiento:
Analizar> Modelo Lineal General> Univariante
Modelo Corregido.
H0: El Modelo Global (los factores o V.I’s. en su conjunto) no tiene efectos significativos sobre la variable
dependiente.
H0’s: No existen diferencias significativas en la variable dependiente entre los distintos grupos de la variable
independiente. También: No existen diferencias significativas en la variable dependiente entre los distintos niveles
de la intersección de las variables independientes W, X, Y… etc.
7
Se revisa cada H0.
Aparecen los F de cada comparación de variables, tienen una significación asociada, se debe aceptar o rechazar
cada H0.
Ejemplo interpretación:
El modelo en su totalidad no tiene efecto sobre la V.D. pero “x” variable si tiene efecto significativo
sobre la V.D. [VI: Variable de Interacción, Intersección de Variables]
V1 0,000
V2 0,754
V I 0, 865
El modelo en su totalidad no tiene efecto pero la variable de interacción [VI] si tiene un efecto
significativo sobre la V.D.
V1 0,345
V2 0, 765
V I 0,000
R2 corregido: Explica el tanto porciento de la variabilidad de la variable dependiente (se corre la coma dos números del
valor de R2).
¿Dónde están las diferencias significativas? → Post Hoc!!! (comparaciones múltiples, al igual que en ANOVA 1
factor; Tukey, Games-Howell)
> Añadir.
Puede ser que los resultados sean espúreos (falsos) dado que se han debido a la influencia de otra variable
que se esté ignorando.
1. Si nuestra covariable tiene relación con nuestra variable dependiente (H0: La Covariable no tiene
efectos significativos sobre la media de la V. Dependiente) se apreciará en la recta de regresión.
2. Las Diferencias entre Observaciones (reales) y Estimaciones (recta) serán ahora la variable
dependiente y gracias a esto se puede controlar.
8
Procedimiento:
> Univariante> Covariables.
Nominal x Ordinal.
H0: Distribución
Para ‘predecir’ las variables el procedimiento tiene a la base la recta de regresión. Si los valores de los residuos
(diferencia entre observados y estimados) en ésta son grandes el Coeficiente de Correlación va a ser menor [dado
que los puntos están más alejados].
9
Prueba de significación puede ser
Ejemplos:
Variables: media de escala, emociones negativas
Pearson: 0,090; Valor de la correlación
Sig. : 0,347 Fuerza de la correlación
Otro ejemplo:
Pearson: -0,354; Se rechaza H0, hay correlación
Sig.: 0,021 correlación significativa moderada y negativa
Correlación Parcial.
Intenta controlar el efecto de una o más variables extrañas a las que se están correlacionando.
En Tabla SPSS
Opciones> Correlaciones de Orden Cero = Correlaciones Bivariadas
Para la lectura de las Correlaciones Parciales debe procederse a (1) analizar las correlaciones que muestra entre los
distintos elementos que reseña: evaluar su valor (alto, moderado, leve; positivo, negativo) y su significación
asociada [valor entre paréntesis redondo], esto permite saber si dicha correlación será o no significativa; (2)
reflexionar al respecto de los datos que se exhiben para posteriormente contrastarlos con aquellos mencionados
cuando se controla uno de ellos (¿qué están diciendo los datos?);(3) esto permite saber el efecto que aquéste tiene
en los otros elementos, de qué modo los modula: ¿cambia el valor de las correlaciones? ¿Su significación asociada?;
(4) finalmente cabe reflexionar sobre los datos y en el por qué de ellos. A saber: ¿por qué el Estres Laboral (p.
ejemplo) aumenta significativamente cuando se controla el Ingreso Mensual (p. ejemplo); y esto se ve reflejado en
el Estrés Percibido (p. ejemplo)? ¿Será que lo que gana un sujeto está inversamente relacionado con el estrés que
éste percibe en su trabajo; es decir, mientras más gane un sujeto menos estrés percibirá –dado que el estrés que le
provoca su trabajo será menor (seguramente dado el carácter de su empleo, su jerarquía en él y la satisfacción que
sienta en el mismo)-, y mientras menos gane un sujeto más estrés percibirá –debido a que el estrés que le provoca
su trabajo es mayor (seguramente dado el carácter de su empleo, su jerarquía en él y la satisfacción que sienta en el
mismo)? ¿Sucede esto en la realidad, tiene lógica?.
10
Múltiples Variables: Análisis Multivariado.
Este procedimiento establece relaciones entre múltiples variables. Depende del nivel de medida de las variables.
Ejemplo:
Hrs de Sueño
Motivación
Edad Asistencia a Clases de Método
Grado Experticia Docente (SI/NO)
Nivel Alcohol en Sangre
11
¿Cómo se lleva a cabo este procedimiento?
El Análisis Factorial comienza al calcular las intercorrelaciones entre las distintas variables de la escala (*si r=1,
explica el 100% de la varianza), posteriormente se procede a la formación de grupos mediante la ubicación (gracias
a la algoritmia) en la mejor posición posible de un eje (iteración) que reunirá varias variables; la posición de este eje
dará lugar al factor 1, de este modo se repite el proceso en busca del próximo eje que ha de distar necesariamente
en 90º del anterior2. Cada factor vendrá a explicar un cierto porcentaje de la varianza total (peso factorial). Este
peso factorial aumentará mientras más cerca de un eje se encuentre un factor. Existirán tantos ejes como variables
se introduzcan, pero no todos serán importantes (factores residuales). Finalmente, el procedimiento presenta su
propuesta de agrupación en una tabla llamada Matriz de Componentes, y en donde es posible apreciar cada variable
con su peso factorial en cada factor propuesto. Con la información de cada factor en la solución total, la información
de cada variable en cada factor y la información de cada variable en la solución total (comunalidad) es posible
decidir y determinar el número de factores que más se adecúe a la matriz, de acuerdo a la varianza total explicada
por el modelo que ha de ser sobre el 30%3. Con todo esto, el modelo resultante ha de ser capaz de explicar que la
variable aporta con su porcentaje de variabilidad a los factores y que los factores explican el porcentaje de varianza
de la variable.
Procedimiento:
Analizar> Reducción de Datos> Análisis Factorial
2
A fin de asegurar la menor correlación extragrupo.
3
Recordar que existe una gran proporción de la variable que no se va a conocer, esto forma parte del llamado Error de
Medida.
12
Los datos más importantes a considerar son: KMO y prueba de Bartlett; Varianza total explicada; y Matriz de
componentes rotados.
1. Bartlett. Si no existe una matriz de identidad, no existen correlaciones nulas o las correlaciones son
significativamente distintas de cero.
2. KMO. Cercano ya a .6, es un valor mediano. Indica que, además de que las correlaciones son significativamente
distintas de cero, son altas (mediocres, medianas, meritorias, maravillosas) y dependen de las correlaciones
parciales con otras variables.
3. KMO. De acuerdo al valor (sobre .5), pertinencia o no de un análisis factorial. En términos generales, si es
pertinente, los datos se adecúan al modelo factorial.
4. Varianza Total Explicada. Cantidad de Factores (lo indica la última fila donde se detuvo el análisis de varianza,
columnas suma de las saturaciones al cuadrado de la rotación); Criterio de Extracción4 (‘mostrar autovalores
mayores a …’), reflejado en la fila siguiente a dónde se detuvo la extracción de factores por análisis de varianza
(columna “Autovalores Iniciales” *(1)¿qué autovalor tiene el componente que sigue al que detuvo el análisis de
varianza y la extracción de factores?. (2) Considere sólo el primer decimal y reste a “1,0”. (3) ¿Qué valor obtuvo en
términos absolutos (siempre en positivo, se entiende)? –este será el indicador del criterio de autovalor considerado
en procedimiento: ‘excluir autovalores menores a…’ ‘mostrar autovalores mayores a…’]; Varianza total explicada
(se indica en la última fila donde se detuvo el análisis de varianza, columnas suma de las saturaciones al cuadrado
de la rotación: % de varianza acumulado); Varianza explicada de cada factor individual (se indica en las filas donde
se detuvo el análisis de varianza, columnas suma de las saturaciones al cuadrado de la rotación: % de la varianza).
5. Matriz de Componentes (Rotados). ¿Qué ítemes (elementos) se agruparon en qué factor?: hacer una lectura del
peso factorial mayor entre los factores que arroja.
6. Matriz de Componentes (Rotados). ¿Qué nombre tiene cada factor?: nominar los factores en función de la
dimensión que le subyace, inducción realizada en base a los ítemes (elementos) que le componen y su común
denominador.
7. Comunalidades. La información de cada variable (ítem, elemento) en la solución total: ¿Con cuánto aporta cada
elemento a la solución total?. Evaluar las variables que aportan menos y las que aportan más.
4
En lo referente al Criterio de Extracción, no se asegura que la indicación señalada sea la mejor o más pertinente. Revisar
bien literatura al respecto y/o Consultar al docente para tener una idea más certera y clara [N.A].
13
SUGERENCIA AL MOMENTO DE INTERPRETAR HIPÓTESIS NULAS DESDE EL LENGUAJE ESTADÍSTICO AL LENGUAJE COMÚN
“Comenzar la interpretación desde la variable nominal (V.I) al respecto de la variable métrica (V.D.)”
Ejemplo 1:
H0: No existen diferencias significativas en el nivel de vulnerabilidad al VIH entre el “Estar
Trabajando” (SI/NO)
t Student muestras independientes: -8,288; p: 0,000; Decisión Estadísitica: Se Rechaza H0.
Razón por la cual: SI existen diferencias significativas en el nivel de vulnerabilidad al VIH
entre el “Estar Trabajando” (SI/NO).
Interpretación: Los sujetos que trabajan o no [nominal 2 niveles], No difieren en su nivel de
vulnerabilidad al VIH [métrica].
Ejemplo 2:
H0: No existen diferencias significativas en la media de edad entre los distintos niveles del
motivo de la primera relación sexual.
ANOVA 1 factor: 1,881; p: 0,75; Decisión Estadística: Se acepta H0.
Razón por la cual: NO existen diferencias significativas en la media de edad entre los
distintos niveles del motivo de la primera relación sexual.
Interpretación: Las motivaciones para la primera relación sexual en los sujetos [nominal +2
niveles] es independiente con respecto a la edad en que tuvieron su primera relación
sexual [métrica].
14