Vous êtes sur la page 1sur 14

[2008]

MÉTODO III:
Procedimientos de
Análisis de la Información,
Dimensión Cuantitativa.

Mg. Ps. Calderón, C.; UCN.


Apuntes de Clases por un alumno.
Diciembre, 2008
Procedimientos de Análisis de la Información – Dimensión Cuantitativa
ASOCIACIÓN O RELACIÓN DE VARIABLES.

UCN -2008
- Nominales x Nominales (categóricas)
- Nominal x Métrica (t Student, ANOVA)
- Métrica x Métrica (r)
- Múltiples Variables Métricas
- Múltiples Variables Nominales

2
Nominal x Nominal: X2 (Chi Cuadrado).

Permite determinar si existe una asociación significativa entre 2 criterios (niveles o categorías).

H0 = Hipótesis de Independencia.
[Los Criterios no tienen relación (dependencia, asociación) entre sí]

Nivel de Significación (p) = ↓0,05 *Se rechaza H0+

Cálculo X2

(nij – mij)2
X2 = ∑ mij

Donde,

m = frecuencia observada = total (i) x total (j)


N Casos

n = frecuencia estimada
i = fila
j= columna

Si,
X2 = 0; luego, э Independencia.

*Supuestos para fidelidad del X2

- Muestra lo más grande posible


- Frecuencias Superiores a 5 (≥5)

Procedimiento:

Analizar> Estadísticos Descriptivos> Tablas de Contingencia> Nominal x Nominal

Analizar> Estadísticos Descriptivos> Tablas de Contingencia> Estadísticos> Chi Cuadrado

→Se pueden agregar una tabla y más variables

X2 nos indica si la asociación es significativa o no, pero no nos dice el grado de asociación, su fuerza. Para ello se
ocupan otros estadísticos, tales como: Coeficiente de Contingencia, Phi, V de Cramer; que adquieren valores entre 0
y 1, donde 1 es asociación perfecta y 0 es ausencia. Phi en algunas ocasiones puede tomar valores superiores a 1,
como cuando hay una variable con más de 3 niveles, por ejemplo. Lambda y Coeficiente de Incertidumbre –otros
procedimientos estadísticos de este tipo- están basados en la reducción del error de predicción, hasta 1.

Mientras mayor es la discrepancia entre observadas y esperadas, es donde están las casillas que apuntan a la
asociación. Por ejemplo: Mujeres x bajo; Hombres x medio.

Sirve para la predicción.


Residuos = Lo Esperado – Lo Observado
3
Residuo Tipificado Corregido
(transformado a Z)

Están fuera de [-1,96, +1,96]:


Sobre +1,96: significativamente superior a
la estimación.
Bajo -1,96: significativamente inferior a la
estimación.

Nota:
Si se acepta la H0 del X2, entonces no se
consideran los residuos.

(2) Nominal x Métrica: t Student.

Con la variable nominal de 2 niveles, se forman dos grupos (los que se comparan), estos serán la variable
independiente, y luego se calcula la media para ambos grupos.

Lo que t Student hace es llevar a cabo una comparación de medias.


Sirve para diseños experimentales.

t para muestras independientes.


2 grupos, 1 sola medida.
Los sujetos no se repiten.
Se comparan sujetos distintos.
2 grupos x 1 métrica
H0: No existen diferencias significativas en la media
de la VD (métrica). entre los distintos niveles de la
VI (nominal, variable de agrupación).

t Student→ 2 Procedimientos

t para muestras relacionadas.


1 grupo, 2 medidas.
1 grupo x 2 métricas
H0: No existen diferencias significativas entre la media de la
variable 1 y la media de la variable 2.
Los mismos sujetos que se comparan.
Típico de Diseños Experimentales.

Por lo tanto, es importante tener presente que la prueba t tiene 2 procedimientos.

↗ Varianzas Iguales.
Para ello se calcula la Homogeneidad de las Varianzas
t
mediante la prueba de Levenne.
↘ Varianzas Distintas.

4
La H0 para t = Igualdad de Medias.
“No existen diferencias significativas en la media de la variable dependiente (métrica) entre los
distintos niveles de la variable independiente (nominal)”

[para muestras relacionadas, es irrelevante la dependencia o independencia de las variables dado


que ambas son métricas –fundamentalmente-, sólo son variables 1-2 ó A-B]

Significación Asociada:

p < 0,05 → Se rechaza H0.


P > 0,05 → Se acepta H0.

La Prueba de Levenne presenta distribución F y contrasta la H0 de Igualdad de Varianzas (p < 0,05; se rechaza).

Procedimiento:
Analizar> Comparar Medias> t para muestras independientes> Variable de Agrupación> Definir Grupos
(se ingresa el código).

Analizar> Comparar Medias> t para muestras relacionadas

(+2) Nominal x Métrica: ANOVA 1 factor (F).

El procedimiento ANOVA permite determinar que la variación que existe al interior de los grupos sea menor que
entre los grupos [ ↓variabilidad intragrupo; ↑variabilidad extragrupo: ↑heterogeneidad intergrupo,
↑homogeneidad intragrupo, con respecto a su δ2].

Arroja el estadístico “F”, cuya H0 = Igualdad de Medias (*No existen diferencias significativas en… entre…)
Con una significación asociada de: p < 0,05 se rechaza; p > 0,05 se acepta.

La Variable Nominal (+2) forma los grupos.

Factor: variable independiente que forma los grupos.

Al comparar 3 grupos, por ejemplo, podemos saber que existen diferencias


significativas entre ellos, sin embargo no sabemos “dónde” está. Para ello
ANOVA nos permite realizar “Comparaciones Múltiples Post-Hoc”, las cuales
permiten revisar la homosedasticidad (homogeneidad en la variabilidad de
los grupos, comparación de varianzas) de los grupos.

Procedimiento:
Analizar> Comparar Medias> ANOVA 1 factor.
* Ojo: La Variable Dependiente siempre es la Variable Métrica!

Las Comparaciones Múltiples Post-Hoc comparan medias, existen varias. Dentro de las más usadas se encuentran
Tukey (que asume varianzas iguales) y Games-Howell (que no asume varianzas iguales). A ANOVA se le solicita que
arroje estos procedimientos, pero para saber cual leer debe también solicitarse la Prueba de Levenne (o de
Homogeneidad de Varianzas, H0: Igualdad de Varianzas, p < 0,05 para rechazar). ANOVA siempre asume que los
grupos se distribuyen normalmente.

5
La lectura correcta del procedimiento estadístico, gracias a la significación asociada de Levenne, permite
saber en dónde se encuentran las diferencias significativas; por ejemplo, en la siguiente tabla SPSS se
muestran los resultados de los colegios en una Escala de Inteligencia1:

Previo cálculo de ANOVA de un factor, en donde se rechaza la H0 de Igualdad de Medias, es decir, SI existen
diferencias significativas en la media de la Escala de Inteligencia entre los distintos grupos (niveles) de
Colegio; se calcula un Levenne con una significación asociada que permite rechazar la H0 de Igualdad de
Varianzas poblacionales por lo cual se concluye que las varianzas difieren, razón por la cual debe leerse
Games-Howell, el cual indica (siempre desde la significación asociada):
Particular x Subvencionado tiene una p de ,237; por lo cual no es significativa su diferencia (aunque se
acerca);

Particular x Municipal tiene una p de ,025; por lo cual si es significativa su diferencia;


Subvencionado x Municipal tiene una p de ,036; por lo cual si es significativa su diferencia:

Todo esto permite concluir que las mayores diferencias significativas se encuentran entre Particular &
Municipal y en Subvencionado & Municipal. Entre Particular & Subvencionado la diferencia no es
significativa (aunque se acerca). En otras palabras, en relación a la Escala de Inteligencia, las mayores
diferencias se encuentran en la Educación Particular y la Educación Subvencionada versus la Educación
Municipal; es decir, los alumnos de colegios municipales puntuarían significativamente más bajo que los de
colegios particulares y los de colegios subvencionados en la Escala de Inteligencia. Los alumnos de colegios
subvencionados puntúan más bajo que los de colegios particulares, pero su diferencia no es significativa.
Probablemente todos los factores asociados a la educación brindada por cada grupo de colegio inciden
mucho en los resultados (infraestructura, ubicación, nivel socioeconómico, motivación, estimulación al
aprendizaje, etc), pero ese es otro análisis que no se puede desprender empíricamente de los datos
proporcionados para este cotejo estadístico.

El procedimiento también agrupa en subgrupos de acuerdo a la similitud de sus medias (‘Subconjuntos


Homogéneos’), por cálculo Tukey (pero HSD Tukey asume que las varianzas son iguales).

1
Valores ficticios, sólo con fines pedagógico-explicativos.

6
2 ó más variables Nominales (sin importar su nº de niveles) x Métrica: ANOVA FACTORIAL.

ANOVA factorial realiza varios análisis

1) El efecto independiente de cada variable nominal por separado.

Ejemplo: Prejuicio v/s NSE & Sexo


Prejuicio → NSE
Prejuicio → Sexo

2) El efecto conjunto de los factores en las variables nominales.

Ejemplo:
Se establece una matriz que permite ver él o los efectos (mediante subconjuntos: máximas
combinaciones posibles, ‘2n-1’ –donde “n” es el número de V.I’s.)

♂ ♀
Bajo En relación al Prejuicio (V.D.) y
Medio NSE & Sexo (V.I’es).
Alto

Para 3 variables independientes habrán 7 efectos.

Por cada efecto hay una H0.

1. NSE; 2. Sexo; 3. Colegio.

NSE
Sexo
Colegio
NSE & Sexo
NSE & Colegio
Sexo & Colegio
NSE & Sexo & Colegio

Factores Fijos: Nominal. Factores que están definidos por las características de la variable.
Factores Aleatorios: Métrica. Los grupos no se conocen, los forma el software.

Procedimiento:
Analizar> Modelo Lineal General> Univariante

Pruebas de los Efectos Inter-Sujetos.

Modelo Corregido.
H0: El Modelo Global (los factores o V.I’s. en su conjunto) no tiene efectos significativos sobre la variable
dependiente.

H0’s: No existen diferencias significativas en la variable dependiente entre los distintos grupos de la variable
independiente. También: No existen diferencias significativas en la variable dependiente entre los distintos niveles
de la intersección de las variables independientes W, X, Y… etc.
7
Se revisa cada H0.

F= Estadístico de contraste (tiene significación asociada)


Se acepta la Ho, por tanto, las variables incluidas en el modelo (ejemplo: sexo y nivel educativo del padre) no
tienen un efecto significativo en la media de la escala de homofobia
H0: Los factores en su conjunto no tienen un efecto significativo en la V.D.

Aparecen los F de cada comparación de variables, tienen una significación asociada, se debe aceptar o rechazar
cada H0.

Ejemplo interpretación:

El modelo en su totalidad no tiene efecto sobre la V.D. pero “x” variable si tiene efecto significativo
sobre la V.D. [VI: Variable de Interacción, Intersección de Variables]

V1  0,000
V2  0,754
V I  0, 865

El modelo en su totalidad no tiene efecto pero la variable de interacción [VI] si tiene un efecto
significativo sobre la V.D.

V1  0,345
V2 0, 765
V I  0,000

R2 corregido: Explica el tanto porciento de la variabilidad de la variable dependiente (se corre la coma dos números del
valor de R2).

¿Dónde están las diferencias significativas? → Post Hoc!!! (comparaciones múltiples, al igual que en ANOVA 1
factor; Tukey, Games-Howell)

> Opciones> Prueba de Homogeneidad (Levenne)

> Gráficos> Eje Vertical → Dependiente (Métrica).


Eje Horizontal → Independiente (+ niveles) *Usar líneas distintas para visualizar las V. I’s.

> Añadir.

Variables Conjuntas: ANCOVA.

Puede ser que los resultados sean espúreos (falsos) dado que se han debido a la influencia de otra variable
que se esté ignorando.

1. Si nuestra covariable tiene relación con nuestra variable dependiente (H0: La Covariable no tiene
efectos significativos sobre la media de la V. Dependiente) se apreciará en la recta de regresión.

2. Las Diferencias entre Observaciones (reales) y Estimaciones (recta) serán ahora la variable
dependiente y gracias a esto se puede controlar.

8
Procedimiento:
> Univariante> Covariables.

La idea del procedimiento es:


1º Un análisis sin controlar covariable.
2º Un segundo análisis, controlando covariable.

Nominal x Ordinal.

H0: Distribución

* Muy poco usado.

Métrica x Métrica: r Pearson.

El objeto de este procedimiento es establecer la relación entre dos variables métricas.

La Cov. Conjunta es una Relación Lineal. Si es


(+) ↑ → ↑ positiva, entonces mientras una aumente la otra
↗ ↓→↓ también lo hará (y a la inversa); si es negativa,
Covariación Conjunta mientras una aumente la otra disminuirá (y a la
↘ inversa). Existen otro tipo de relaciones un tanto
(-) ↑ → ↓ más complejas y poco usuales en el análisis de
↓→↑ este tipo de datos, como la relación cuadrática
(parábola).
Lo importante es cuantificar el grado en que dos variables están relacionadas: Coeficientes de Correlación (Pearson,
Kendall, Spearman, por ejemplo)

Pearson (r) alcanza valores comprendidos entre [-1,+1], donde:

-1: Correlación Negativa Perfecta


0: Ausencia Total Correlación
+1: Correlación Positiva Perfecta.

Para saber si la relación es significativa el Coeficiente de Correlación trabaja contrastando:


H0 = El Coeficiente de Correlación vale 0 en la Población; p < 0,05 para rechazar;

Asume una Distribución Normal y Varía de acuerdo al tamaño de la muestra.

Para ‘predecir’ las variables el procedimiento tiene a la base la recta de regresión. Si los valores de los residuos
(diferencia entre observados y estimados) en ésta son grandes el Coeficiente de Correlación va a ser menor [dado
que los puntos están más alejados].

Tres tipos de Coeficiente de Correlación:

- Pearson, trabaja cuando los dos niveles de medición son numéricas


- Kendall, trabaja cuando una o dos de las variables tiene nivel de medición ordinal (ordinal: ejemplo
nivel socioeconómico con valores, escala, etc.)
- Spearman, trabaja cuando las variables son de tipo ordinal y además los datos no se distribuyen
normalmente

9
Prueba de significación puede ser

- Bilateral → no se sabe la dirección que puede tener la correlación


(ejemplo: no se sabe si a medida que aumenta la homofobia habrán más emociones
negativas o viceversa)

- Unilateral → se sabe la dirección que puede tener la correlación

Ejemplos:
Variables: media de escala, emociones negativas
Pearson: 0,090; Valor de la correlación
Sig. : 0,347 Fuerza de la correlación

Otro ejemplo:
Pearson: -0,354; Se rechaza H0, hay correlación
Sig.: 0,021 correlación significativa moderada y negativa

Parámetros de fuerza de correlación:


- Buena 0,7 a 1
- Moderada 0,5 – 0,7
- Inferior (Leve) < 0,5

Los resultados no determinan si la significación es bilateral o unilateral.


Los resultados que arrojen Kendall y Spearman se leen igual que los de Pearson.

Correlación Parcial.
Intenta controlar el efecto de una o más variables extrañas a las que se están correlacionando.

Analizar> Correlaciones> Parciales

En Tabla SPSS
Opciones> Correlaciones de Orden Cero = Correlaciones Bivariadas

* r(x,y) : Correlación de Orden Cero.


r(x,y,w) : Correlación de 1er Orden.
r (x,y,w,z) : Correlación de 2º Orden.

Para la lectura de las Correlaciones Parciales debe procederse a (1) analizar las correlaciones que muestra entre los
distintos elementos que reseña: evaluar su valor (alto, moderado, leve; positivo, negativo) y su significación
asociada [valor entre paréntesis redondo], esto permite saber si dicha correlación será o no significativa; (2)
reflexionar al respecto de los datos que se exhiben para posteriormente contrastarlos con aquellos mencionados
cuando se controla uno de ellos (¿qué están diciendo los datos?);(3) esto permite saber el efecto que aquéste tiene
en los otros elementos, de qué modo los modula: ¿cambia el valor de las correlaciones? ¿Su significación asociada?;
(4) finalmente cabe reflexionar sobre los datos y en el por qué de ellos. A saber: ¿por qué el Estres Laboral (p.
ejemplo) aumenta significativamente cuando se controla el Ingreso Mensual (p. ejemplo); y esto se ve reflejado en
el Estrés Percibido (p. ejemplo)? ¿Será que lo que gana un sujeto está inversamente relacionado con el estrés que
éste percibe en su trabajo; es decir, mientras más gane un sujeto menos estrés percibirá –dado que el estrés que le
provoca su trabajo será menor (seguramente dado el carácter de su empleo, su jerarquía en él y la satisfacción que
sienta en el mismo)-, y mientras menos gane un sujeto más estrés percibirá –debido a que el estrés que le provoca
su trabajo es mayor (seguramente dado el carácter de su empleo, su jerarquía en él y la satisfacción que sienta en el
mismo)? ¿Sucede esto en la realidad, tiene lógica?.

10
Múltiples Variables: Análisis Multivariado.

Este procedimiento establece relaciones entre múltiples variables. Depende del nivel de medida de las variables.

Dependencia: Existe una (1) variable dependiente y múltiples variables independientes.


Su fin es predecir: si están presentes a,b,c y d variables, entonces w ocurre.

Ejemplo:

Hrs de Sueño
Motivación
Edad Asistencia a Clases de Método
Grado Experticia Docente (SI/NO)
Nivel Alcohol en Sangre

Independencia: No existen variables dependientes. No es la idea ‘predecir’.


Si las variables son de carácter métrico, entonces puede ser llevado a cabo
un Análisis Factorial.

El Análisis Factorial es un método multivariado


de independencia sólo para variables métricas. Es
una Técnica de Reducción de datos (Resumen,
Agrupación) que parte de un número
determinado de variables observadas (medibles)
para llegar a un número menor o reducido de
variables latentes (no observables directamente).
Este proceso se lleva a cabo mediante el cálculo
de intercorrelaciones (correlaciones) entre las
variables bajo la premisa de la existencia de una
latente subyacente a varias, formando con ello
grupos de norma similar a la homosedástica (el
intragrupo posee una correlación más alta que el
extragrupo, de quien se espera sea baja). Las
utilidades de este procedimiento estadístico se
ven reflejadas en Psicometría y Construcción de
Modelos Teóricos (Validez de Constructo: Si
están relacionados los ítemes, los sujetos
responderán de un modo similar ante ellos,
acusando la existencia de una dimensión
subyacente que les haría cognitivamente leer de
la misma manera).

11
¿Cómo se lleva a cabo este procedimiento?
El Análisis Factorial comienza al calcular las intercorrelaciones entre las distintas variables de la escala (*si r=1,
explica el 100% de la varianza), posteriormente se procede a la formación de grupos mediante la ubicación (gracias
a la algoritmia) en la mejor posición posible de un eje (iteración) que reunirá varias variables; la posición de este eje
dará lugar al factor 1, de este modo se repite el proceso en busca del próximo eje que ha de distar necesariamente
en 90º del anterior2. Cada factor vendrá a explicar un cierto porcentaje de la varianza total (peso factorial). Este
peso factorial aumentará mientras más cerca de un eje se encuentre un factor. Existirán tantos ejes como variables
se introduzcan, pero no todos serán importantes (factores residuales). Finalmente, el procedimiento presenta su
propuesta de agrupación en una tabla llamada Matriz de Componentes, y en donde es posible apreciar cada variable
con su peso factorial en cada factor propuesto. Con la información de cada factor en la solución total, la información
de cada variable en cada factor y la información de cada variable en la solución total (comunalidad) es posible
decidir y determinar el número de factores que más se adecúe a la matriz, de acuerdo a la varianza total explicada
por el modelo que ha de ser sobre el 30%3. Con todo esto, el modelo resultante ha de ser capaz de explicar que la
variable aporta con su porcentaje de variabilidad a los factores y que los factores explican el porcentaje de varianza
de la variable.

¿Cómo se trabaja con este procedimiento?


Para comenzar a trabajar con la Matriz de Componentes, es necesario en primer lugar realizar unas pruebas de
adecuación muestral con ciertas mediciones de otros procedimientos estadísticos.
La Prueba de Esfericidad de Barttlet contrasta la Hipótesis Nula de Matriz de Identidad (H0 = La Matriz de Datos es
una Matriz de Identidad [cada variable correlaciona de forma perfecta consigo misma, pero no correlaciona –“0”-
con otras variables]). Rechazándola (p < 0,05) se aceptaría que las correlaciones son significativamente distintas de
cero entre las variables (intercorrelaciones).
El Estadístico KMO (Kaiser-Meyer-Olkin) indica la fuerza de las correlaciones parciales dentro del modelo: “Cada par
de correlaciones va a depender de las otras variables” (si una variable se excluye, ‘r’ disminuirá para otro par). Los
parámetros de fuerza que utiliza son: .9 (maravilloso), .8 (meritorio), .7 (mediano), .6 (mediocre) e igual o menor a
.5 (inaceptable).

Procedimiento:
Analizar> Reducción de Datos> Análisis Factorial

Los resultados en pantalla mostrarán información, de acuerdo a lo que se solicite:


>Descriptivos: las medidas de adecuación muestral;
>Extracción: Analizar: la matriz que se analizará; por defecto, matriz de correlaciones, que utiliza el método de
extracción por defecto, ‘componentes principales’ (maximiza la cantidad de varianza, es un método ortogonal –los
ejes cruzan en 90º); Extraer: los autovalores con los que se trabajará (la varianza bruta, a la larga), se pueden
definir; usualmente, autovalores menores que 0,30 (3).
>Rotación: el método de rotación elegido; el más usual, varimax, porque homogeniza la cantidad de varianza entre
los factores.

De este modo, los resultados se mostrarán


aproximadamente del siguiente modo:

2
A fin de asegurar la menor correlación extragrupo.
3
Recordar que existe una gran proporción de la variable que no se va a conocer, esto forma parte del llamado Error de
Medida.
12
Los datos más importantes a considerar son: KMO y prueba de Bartlett; Varianza total explicada; y Matriz de
componentes rotados.

KMO y Bartlett explican lo especificado más arriba;


La Tabla de Varianza total explicada indica como se agruparon los ítemes, en cuántos factores o componentes. Si le
hemos pedido rotación, nos indicará también cómo quedan estos factores al rotar;
La Matriz de Componentes Rotados señala qué ítemes se agruparon en qué factor, mostrando el peso factorial de
éstos.

Ejemplo de Interpretación Análisis de Datos

1. Bartlett. Si no existe una matriz de identidad, no existen correlaciones nulas o las correlaciones son
significativamente distintas de cero.
2. KMO. Cercano ya a .6, es un valor mediano. Indica que, además de que las correlaciones son significativamente
distintas de cero, son altas (mediocres, medianas, meritorias, maravillosas) y dependen de las correlaciones
parciales con otras variables.
3. KMO. De acuerdo al valor (sobre .5), pertinencia o no de un análisis factorial. En términos generales, si es
pertinente, los datos se adecúan al modelo factorial.
4. Varianza Total Explicada. Cantidad de Factores (lo indica la última fila donde se detuvo el análisis de varianza,
columnas suma de las saturaciones al cuadrado de la rotación); Criterio de Extracción4 (‘mostrar autovalores
mayores a …’), reflejado en la fila siguiente a dónde se detuvo la extracción de factores por análisis de varianza
(columna “Autovalores Iniciales” *(1)¿qué autovalor tiene el componente que sigue al que detuvo el análisis de
varianza y la extracción de factores?. (2) Considere sólo el primer decimal y reste a “1,0”. (3) ¿Qué valor obtuvo en
términos absolutos (siempre en positivo, se entiende)? –este será el indicador del criterio de autovalor considerado
en procedimiento: ‘excluir autovalores menores a…’ ‘mostrar autovalores mayores a…’]; Varianza total explicada
(se indica en la última fila donde se detuvo el análisis de varianza, columnas suma de las saturaciones al cuadrado
de la rotación: % de varianza acumulado); Varianza explicada de cada factor individual (se indica en las filas donde
se detuvo el análisis de varianza, columnas suma de las saturaciones al cuadrado de la rotación: % de la varianza).
5. Matriz de Componentes (Rotados). ¿Qué ítemes (elementos) se agruparon en qué factor?: hacer una lectura del
peso factorial mayor entre los factores que arroja.
6. Matriz de Componentes (Rotados). ¿Qué nombre tiene cada factor?: nominar los factores en función de la
dimensión que le subyace, inducción realizada en base a los ítemes (elementos) que le componen y su común
denominador.
7. Comunalidades. La información de cada variable (ítem, elemento) en la solución total: ¿Con cuánto aporta cada
elemento a la solución total?. Evaluar las variables que aportan menos y las que aportan más.

4
En lo referente al Criterio de Extracción, no se asegura que la indicación señalada sea la mejor o más pertinente. Revisar
bien literatura al respecto y/o Consultar al docente para tener una idea más certera y clara [N.A].
13
SUGERENCIA AL MOMENTO DE INTERPRETAR HIPÓTESIS NULAS DESDE EL LENGUAJE ESTADÍSTICO AL LENGUAJE COMÚN

“Comenzar la interpretación desde la variable nominal (V.I) al respecto de la variable métrica (V.D.)”

Ejemplo 1:
H0: No existen diferencias significativas en el nivel de vulnerabilidad al VIH entre el “Estar
Trabajando” (SI/NO)
t Student muestras independientes: -8,288; p: 0,000; Decisión Estadísitica: Se Rechaza H0.
Razón por la cual: SI existen diferencias significativas en el nivel de vulnerabilidad al VIH
entre el “Estar Trabajando” (SI/NO).
Interpretación: Los sujetos que trabajan o no [nominal 2 niveles], No difieren en su nivel de
vulnerabilidad al VIH [métrica].

Ejemplo 2:
H0: No existen diferencias significativas en la media de edad entre los distintos niveles del
motivo de la primera relación sexual.
ANOVA 1 factor: 1,881; p: 0,75; Decisión Estadística: Se acepta H0.
Razón por la cual: NO existen diferencias significativas en la media de edad entre los
distintos niveles del motivo de la primera relación sexual.
Interpretación: Las motivaciones para la primera relación sexual en los sujetos [nominal +2
niveles] es independiente con respecto a la edad en que tuvieron su primera relación
sexual [métrica].

14

Vous aimerez peut-être aussi