Vous êtes sur la page 1sur 68

PROCESAMIENTO DE DATOS

Enzo Aldo Bravo Burgos


Introducción a la estadística aplicada
• https://www.youtube.com/watch?v=l9Ymej21Gos
Recolección de la información
 Técnicas e Instrumentos de
Recolección de datos
 Construcción de un cuestionario
 Alfa de Cronbach con SPSS
Capacidades:
1. Construir un cuestionario
2. Validar un cuestionario con SPSS
TÉCNICA - INSTRUMENTO
TÉCNICA DE RECOLECCIÓN DE DATOS:
Es un procedimiento, un conjunto de actividades que le permite al
investigador obtener la información necesaria para dar respuesta a su
pregunta de investigación.
• La observación
• Las encuestas
• La entrevista
• La revisión documental
• Las sesiones en profundidad

LOS INSTRUMENTOS DE RECOLECCION DE DATOS


• Constituyen las vías mediante la cual es posible aplicar una
determinada técnica de recolección de información.
• Es el documento donde se plasma la información
Técnica e Instrumento
TÉCNICAS INSTRUMENTOS
Guía de Observación
Observación Lista de Cotejo
Escala de Observación
Revisión Documental Ficha resumen - Matriz de categorías
Guía de Entrevista – Cuestionario no
Entrevista
estructurado
Cuestionario
Escala
Encuesta
Test
Prueba de conocimiento
Sociometría Test sociométrico
Sesión en profundidad Guía de Observación
LA VALIDEZ
• El término “validez” se utiliza para
determinar si un instrumento de
recolección de datos MIDE LO QUE DEBE
MEDIR.
• Esta relacionado con su construcción.

LA CONFIABILIDAD
• La confiabilidad esta relacionado con la
información que recoge el instrumento. Es
una cuestión clásica en la generalización
científica.
• La medición es confiable en la medida que
conduzca a los mismos resultados o
similares.
La Validez
Según Herrera (1998):

Grado en el que un
instrumento en verdad 0 0,5 1
mide la variable que se
busca medir. 0,53 a menos Validez nula
0,54 a 0,59 Validez baja

Ejm: Un instrumento válido 0,60 a 0,65 Válida


para medir la inteligencia debe 0,66 a 0,71 Muy válida
medir la inteligencia y no la 0,72 a 0,99 Excelente validez
memoria.
1.0 Validez perfecta

13
FACTORES QUE PUEDEN AFECTAR
LA CONFIABILIDAD
• La improvisación
• Utilizar instrumentos desarrollados en el
extranjero que no han sido validados
para nuestro contexto
• Instrumentos inadecuados para las
personas a quienes se les aplica: no es
empático
• Condiciones en que se aplica el
instrumento de medición: frio, ruido, un
instrumento demasiado largo o tedioso
Confiabilidad: Alpha de Cronbach

• El indicador más connotado y famoso para medir esta forma de fiabilidad de


un instrumento es el llamado coeficiente alfa, propuesto por Cronbach;.
• Este coeficiente se emplea para calcular cuantitativamente lo llamado
"consistencia interna”.
• Este indicador toma valores entre 0 y 1,
• Se recomienda confiable cuando tienda al valor 1 o supere 0.70
10

La Confiabilidad
Según Herrera (1998):
Grado en que un
instrumento produce
resultados consistentes y 0 0,5 1
coherentes. Es decir en que 0,53 a menos Confiabilidad nula
su aplicación repetida al 0,54 a 0,59 Confiabilidad baja
mismo sujeto u objeto 0,60 a 0,65 Confiable
produce resultados iguales.
0,66 a 0,71 Muy Confiable
Kerlinger (2002).
0,72 a 0,99 Excelente confiabilidad
1.0 Confiabilidad perfecta
Ejm. Si se midiera en este momento
la temperatura ambiental usando un
termómetro y este indicara que
tiene 22°C, un minuto mas tarde, un
minuto mas tarde 5°C, tres minutos
después 40°C; Dicho termómetro no
seria confiable.
MODELO DE VALIDEZ

Documentos a presentar para la validación:

1. Carta de presentación
2. Matriz de consistencia.
3. La Operacionalización de la(s) variable(s) de
estudio.
4. El instrumentos(s) con su solucionario.
5. Las ficha(s) de validación.

31
TALLER - EVALUACIÓN
• Elabore usted un cuestionario de la realidad donde labora
• Aplique este cuestionario a una muestra piloto de n=5, para obtener
la confiabilidad.
• Luego mejore su cuestionario si es necesario, teniendo como
referencia los resultados del SPSS.
DOCUMENTO 01
• Posteriormente, aplique a una muestra representativa e ingrese la
información en el SPSS.
• Esta base de datos conjuntamente su cuestionario lo guarda en su
respectivo archivo que contenga la inicial de su nombre y primer
apellido (Ejemplo: ebravo.xls) y luego lo envía al correo
enzo.bravo@upagu.edu.pe
Prueba de hipótesis
Contrastando una hipótesis Son
demasiados...

Creo que la edad


media es 40 años...

¡Gran
diferencia!

Muestra Rechazo la
aleatoria hipótesis

X  20 años
HIPÓTESIS
Creo que el
porcentaje de
enfermos será el
¿Qué es una hipótesis? 5%

Es un respuesta a priori a un problema..

¿Qué es una hipótesis estadística?


Es un enunciado acerca del valor de un parámetro poblacional.

¿Qué es una Prueba de Hipótesis?


Es un procedimiento basado en la información muestral y en la teoría
de probabilidad, para determinar si una hipótesis estadística debe ser
aceptada o rechazada.
Identificación de hipótesis
• Hipótesis nula Ho • Hip. Alternativa H1
• Niega a H0
• La que contrastamos
• Los datos pueden refutarla • Los datos pueden mostrar
evidencia a favor
• No debería ser rechazada sin
una buena razón. • No debería ser aceptada sin
una gran evidencia a favor.

H 0 : p  50% , , 
 , , 
 H1 : p  50%
¿Quién es H0?
• Problema: ¿El colesterol medio para la dieta
mediterránea es 6 mmol/l?
• Solución:
• Traducir a lenguaje estadístico:  6

• Establecer su opuesto: 6

• Seleccionar la hipótesis nula H0 :   6


Región crítica y nivel de significación
Región crítica Nivel de significación: a
• Es conocida antes de realizar el • Número pequeño: 1% , 5%
experimento: resultados • Fijado de antemano por el
experimentales que refutarían H0 investigador
• Es la probabilidad de rechazar
H0 cuando es cierta

a=5%

Reg. Crit. Reg. Crit.

No rechazo H0
H0: =40
Contrastes: unilateral y bilateral
La posición de la región crítica depende de la hipótesis alternativa

Bilateral H1: 40

Unilateral Unilateral

H1: <40 H1: >40


Tipos de Pruebas de Hipotesis:

Prueba Bilateral o de dos colas: a/2 a/2

Ho:  = 0
H1:   0

Prueba de una cola:


a
•Prueba de cola inferior o
izquierda
Ho:  = 0
H1:  < 0
•Prueba de cola superior o a
derecha
Ho:  = 0
H1:  > 0
Resumen: valor p y criterio de rechazo

Estadísticos de contrastea

Edad del
encues tado
U de Mann-Whitney 259753,500
W de Wilcoxon 462319,500
Z -2,317
Sig. asintót. (bilateral) ,021
a. Variable de agrupación: Sexo del encuestado

 Sobre el criterio de rechazo


 Contraste significativo = p menor que a
ETAPAS DE UNA PRUEBA DE HIPÓTESIS
METODO TRADICIONAL

1. Plantear la hipótesis nula y alternativa. (Ho y H1)


2. Especificar el nivel de significancia (Generalmente la plantea
el investigador). (α =0.05, 0.01)
3. Calcular un valor experimental: Estadístico de prueba que
debe ser especificado en términos de un estimador del
parámetro a probar.
4. Calcular el valor critico: Valor que se encuentra el la tabla
de Probabilidades, que es valor que determinara la región
de aceptación y rechazo.
5. Tomar la decisión de aceptar o rechazar Ho.
6. Dar conclusión respectiva

METODO MODERNO
1. Plantear la hipótesis nula y alternativa. (Ho y H1)
2. Observar el valor p (significancia)
Si p< 0.05 RECHAZAR Ho
Si p ≥ 0.05 ACEPTAR Ho
Estadística Paramétrica
(Pruebas paramétricas)

Pruebas de hipótesis
I. Prueba de la Normalidad

 Prueba gráfica
 Pruebas teóricas
Prueba de la Normalidad
 La prueba de normalidad es una prueba que consiste en
verificar si el conjunto tiene un comportamiento normal,
es decir, que la mayor cantidad de datos se encuentra en
el centro de la distribución y pocos datos en los
extremos. (Distribución simétrica)
 Para probar la normalidad existen varias pruebas como
las que mencionamos a continuación:

Pruebas gráficas Pruebas teóricas


 Q-Q Plot  La prueba Chi Cuadrado
 P-P Plot  La Prueba Kolmogorov-Smirnov
 La Prueba de Anderson

HO: Los datos de aproximan a una distribución normal.


H1: Los datos NO se aproximan a una distribución normal
Taller : Prueba de la Normalidad
 Teniendo en cuenta la Base de Datos
(DATA_PesoRN.XLS) verificar si la variable X: pesoRN
tiene una distribución normal. UTILICE SPSS Ver 25
 Verificar también si la variable EDAD tienen una
distribución normal. Utilice SPSS Ver 25

Pruebas Parametricas Pruebas No parametricas


 Prueba T de Student  La prueba U de Mann-Whitney
 Prueba Z  Prueba H de Kruskall-Wallis
 Prueba ANVA  Prueba de Wilcoxon
 Prueba de FrIedman
Pruebas Estadísticas
Paramétrica
 Prueba para 1 población
 Pruebas para 2 poblaciones
 Prueba para varias poblaciones
Pruebas Estadísticas Paramétrica

• Prueba T de Student (Muestra es menor


1 POBLACION o igual que 30)
• Prueba Z (Muestra es mayor que 30)

• Prueba T para muestras independientes (Los


grupos son independientes: Grupo control –
Grupo experimental).
• Prueba T para muestra pareadas (1 solo grupo:
2 POBLACIONES pre y post test)
• Prueba Z (Las muestra son mayores que 30)

• Análisis de Varianza (Para igualdad de


Varias promedios de varios grupos)
Poblaciones
PRUEBAS PARAMÉTRICAS Y NO PARAMÉTRICAS CON SPSS 22
Principales pruebas estadística

• https://www.youtube.com/watch?v=tCb7Mpcvj6c
Pruebas Estadísticas – Análisis Estadístico
APLICACIÓNES
Estamos estudiando el efecto del estrés sobre la presión arterial. Nuestra hipótesis es
que la presión sistólica media en varones jóvenes estresados es mayor que 18 cm de
Hg. Estudiamos una muestra de 36 sujetos y encontramos una media de 18.5, con un
nivel de significancia del 1% contrastar la hipótesis. Suponga una desviación estándar
poblacional de 3.6.

1° Hipótesis Ho: µ = 18
H1: µ >18

2° Nivel de significancia: a = 0.01


x   18.5  18
3° Valor experimental (Estadístico)(Ze): Ze    0.833
 / n 3.6 / 36
4° Valor Crítico Z tabla  2.33
5° Decisión:
1-a = 0.99
a = 0.01
Zt = 2.33

6° Conclusión: Ho no se rechaza . Por lo tanto, los jóvenes con estrés tienen una
presión sistólica menor o igual a 18 cm de Hg.
APLICACIÓN
Un grupo de investigadores reunió los datos de amilasa en suero de una muestra
de individuos sanos y de individuos hospitalizados. Se seleccionó una muestra de 15
individuos sanos y 22 hospitalizados, cuya media y desviación estándar son 120 y 40
unidades/ ml en individuos sanos, de los hospitalizados la media y desviación
estándar son 96 y 35 unidades/ ml. Desearon saber si sería justificado concluir que
las medias de las poblaciones son distintas. Con un nivel de significancia del 5%.

1° Hipótesis:
Ho:1= 2
H1: 1 2
2° Nivel de significancia: a = 0.05
3° Valor experimental (Estadística de prueba)
Varianza desconocidas pero diferentes 12  22
tc 
x1  x 2   1   2   120  96  0  1.88
2 2
S S 1450 1450
p
 p 
n1 n2 15 22

4° Valor crítico:

Ttabla = 2.03

5° Decisión

1-a = 0.99
a = 0.005 0.005
tt = -2.03 tt = 2.03

6° Conclusión: Ho se acepta por lo tanto no hay diferencia entre las medias


ANALISIS DE VARIANZA:
Prueba la igualdad de medias de varias muestras

Técnica estadística que prueba si el promedio de dos o más muestra son


iguales o son diferentes.
Sirve para probar si los niveles de un factor tienen el mismo efecto promedio
o sosn diferentes: (método de enseñanza 1, método de enseñanza 2, método
de enseñanza , etc.)

Ho : 1   2  3  .........   a
Ha : A lg unas. ' s.son.diferentes
Supuestos básicos que se deben cumplir en al ANVA:
• Los datos provienen de poblaciones normales
• Los datos de las poblaciones tiene la misma varianza ó la varianza se
mantiene constante para todos los niveles del factor
Tabla ANOVA
TABLA DE ANOVA

FUENTE DE VARIACIÓN SUMA DE GRADOS DE CUADRADO VALOR F


CUADRADOS LIBERTAD MEDIO

Entre muestras (tratam.) SCTR a-1 CMTR CMTR/CME

Dentro de muestras (error) SCE n-a CME

Variación total SCT n-1 CMT

Regla: Rechazar Ho si la Fc de la muestra es mayor que la F de un programa informático para


un alfa dado o si el valor p correspondiente a la Fc es menor al valor alfa especificado
ANOVA – Ejemplo de datos

Métodos de enseñanza y puntaje de estudiantes

Respuesta
Método de enseñanza Puntajes de los estudiantes
A 7 7 15 11 9
B 12 17 12 18 18
C 14 18 18 19 19
D 19 25 22 19 23
E 7 10 11 15 11
Pruebas No paramétricas
2 variables cualitativas:
Prueba Chi Cuadrado
Sirve para probar Ho: Las variables son independientes (No relación)
Dos muestras independientes:
Prueba U de Mann-Whitney:
Prueba la hipótesis nula de que dos muestras aleatorias independientes
provienen de dos poblaciones iguales o de la misma población, cuando no se
cumple la suposición de normalidad.
Dos muestras dependientes:
Prueba de Wilcoxon:
Prueba la hipótesis nula de que dos muestras correlacionadas provienen de dos
poblaciones idénticas.
K muestras independientes:
Prueba H de Kruskall-Wallis:
Prueba la hipótesis nula de que K muestras independientes provienen de
poblaciones idénticas o de la misma población
K muestras correlacionadas:
Prueba F de Friedman:
Prueba la hipótesis nula de que no existe diferencia entre los k tratamientos o
que las muestras provienen de la misma población.
Prueba Chi Cuadrado
Supongamos que se quiere estudiar la posible asociación entre el hecho de
que una gestante fume durante el embarazo y que el niño presente bajo
peso al nacer. Para responder a esta pregunta se realiza un estudio de
seguimiento sobre una cohorte de 2000 gestantes, a las que se interroga
sobre su hábito tabáquico durante la gestación y se determina además el
peso del recién nacido. Los resultados de este estudio se muestran en la

Tabla de contingencia para estudiar la asociación entre fumar


durante la gestación y el bajo peso del niño al nacer. Estudio de
seguimiento de 2000 gestantes.
Recién nacido de bajo peso
Gestante Sí No Total
Fumadora 43 (a) 207 (b) 250
No fumadora 105 (c) 1645 (d) 1750
Total 148 1852 2000
Prueba Chi Cuadrado
Ho: No hay asociación entre las variables (en el ejemplo, el bajo peso del
niño y el hecho de fumar durante la gestación son independientes, no
están asociados).
H1: Sí hay asociación entre las variables, es decir, el bajo peso y el fumar
durante la gestación están asociados.

Bajo la hipótesis nula de independencia, se sabe que los valores del


estadístico Ji Cuadrado se distribuyen según una distribución conocida
denominada Ji-cuadrado, que depende de un parámetro llamado “grados
de libertad” (g.l.).
Para el caso de una tabla de contingencia de r filas y k columnas, los g.l.
son igual al producto del número de filas menos 1 (r-1) por el número de
columnas menos 1 (k-1). Así, para el caso en el que se estudie la relación
entre dos variables dicotómicas (Tabla 2x2) los g.l. son 1.

 2
Prueba Chi Cuadrado
Limitaciones:
• Las frecuencias esperadas no debe ser pequeñas(< 5) si
esto ocurre en muchas (> 20%) debe usarse, la Prueba
Exacta de Fisher.
• Si las muestras son muy grandes, la prueba dará
significativos incluso donde posiblemente consideremos
que las diferencias no son de relevancia clínica.
• Si las variables tienen muchos niveles la prueba no
resulta de mucho interés.
• 2 sirve para contrastar independencia, debe usarse como
medida de asociación.
PRUEBA: Mann-Whitney-U-Test
• Se utiliza cuando la variable es por lo menos de escala ordinal.
• Se utiliza para probar si dos grupos independientes son iguales
(provienen de la misma población) o son diferentes (provienen
de poblaciones distintas)
• Es una de la pruebas más poderosas y constituye una
alternativa frente a la prueba paramétrica T de Student para
muestras independientes.

• H0: Las medias provienen de la misma población


• H1: Las medias provienen de poblaciones distintas
n1 = Tamaño de la muestra 1
• Test:
n2 = Tamaño de la 2da muestra

n n  1 R1 = Rango
T1  n1  n2  1 1  R1
2
Prueba Mann-Whitney U Test

APLICACIÓN:
Tras una intervención terapéutica, se pretende examinar si el grado de
satisfacción con el resultado de la intervención es igual entre hombres y
mujeres. La satisfacción es valorada mediante un cuestionario validado de
10 items. La puntación del cuestionario oscila entre 0 (totalmente
insatisfecho) y 10 (totalmente satisfecho).
Los datos se presentan en la siguiente tabla.

Puntuaciones

Hombres 8 5 6 4 7 8 8 6 7

Mujeres 4 7 4 4 5 5 4 4 7
Prueba Mann-Whitney U Test

RESULTADOS:
PRUEBA: Kruskall-Wallis Test

• Realizar el análisis de varianza de una clasificación por rangos


(variables por lo menos en escala ordinal)
• Sirve para “comparar promedio entre grupos”
• K-W-T examina las siguientes hipótesis
Ho: Las k muestras proceden de la misma población (son
iguales)
H1: Las k muestras no proceden de la misma población (son
diferentes)
• Es una pruebas alternativa frente a la prueba paramétrica Analisis de
Varianza (ANVA) de un factor
PRUEBA: Kruskall-Wallis Test
APLICACIÓN:
Se realiza un estudio en ratas para evaluar el efecto de la Deficiencia
Subclínica de Vitamita A en la actividad de la enzima mieloperoxidasa
(MPO) administrándose la dosis de Vitamina A. La hipótesis del investigador
es que la ingesta deficiente de Vitamina A (00UI de Vit A) disminuye la
actividad de la mieloperoxidasa en neutrolifos de ratas.
La actividad (MPO) se midió solo una vez al final del estudio.
El número de ratas por grupo 6 y la absorbancia que tiene se mide en
unidades por lo menos escala ordinal.

Prueba de Hipótesis:
• Ho : No existen diferencias en el promedio actividad de MPO entre los
grupos de tratamiento.
• H1: Los grupos de tratamiento no tienen el mismo promedio.
PRUEBA DE WILCOXON

• Es una prueba apropiada para diseño de “antes” y


“después” con un solo grupo (crossover)
• Trabaja sobre datos por lo menos en escala ordinal.
• Se basa en calculo de la dirección (signos) y la
magnitud de diferencias.
• Es una prueba que reemplaza a la prueba T de
Student pareada
Prueba de Friedman

• Esta prueba se utiliza cuando los datos que se obtienen de k


muestras igualadas están por lo menos en escala ordinal.
• El análisis de dos clasificaciones por rangos de Friedman es útil
para probar la hipótesis de nulidad de que k muestras han sido
sacadas de una misma población.
• Se utiliza cuando se realizando en ANVA de dos vías.
Prueba de Friedman
APLICACIÓN:

Clasificación por rangos


Técnicas de Regresión y Correlación

 Análisis de Regresión
 Análisis de Correlación
ANÁLISIS DE REGRESIÓN:
• Es una técnica estadística que consisten en determinar
la relación funcional entre dos variables cuantitativas en
estudio.
• Esta relación funcional, es una ecuación matemática de
la forma Y= A + B X, que recibe el nombre también de
Función de Regresión o Modelo de Regresión.
• A la variable Y se le denomina variable dependiente, a la
variable X independiente y a A, B se les llama
parámetros de la ecuación de regresión.
• La finalidad del Análisis de Regresión es hacer
pronósticos es decir, hacer estimaciones futuros de la
variable dependiente.
ESTADISTICA
ANÁLISIS DE REGRESIÓN:
Pasos a seguir:
• Realizar el diagrama de dispersión y ver el comportamiento de la variable.
• Aplicar el método de los Mínimos Cuadrados Ordinarios para estimar los
parámetros de la ecuación. Las formulas son las siguientes:

A  Y  BX
n n n
n X i Yi   X i  Yi
B i 1
n
i 1
n
i 1

n X i2  ( X i ) 2
i 1 i 1

• Para hacer el pronóstico o el valor estimado de Y, reemplazar en la ecuación


ESTADISTICA

matemática el respectivo valor de Xo, de la siguiente manera:

Y = A + B (Xo)
Estudio de un caso:
En una empresa pesquera esta haciendo un estudio entre el número de
trabajadores y su producción de harina de pescado en miles de toneladas. Para
realizar esta investigación recurre a la oficina de Administración de la empresa y
recoge información de 6 años consecutivos obteniendo la siguiente información:

Año Nº de Producción
1. Realice el diagrama de dispersión.
trabajadores X
2. Estime la ecuación de regresión Y
lineal.
3. Estime cuanto sería la producción si 1999 50 148
se cuanta con 90 trabadores. 2000 65 172
Interprete.
4. Que tipo de relación existe entre el 2001 68 180
numero de trabajadores y la 2002 70 195
producción.
2003 72 210

Solución 2004 75 268


ESTADISTICA
GRÁFICOS DE DISPERSIÓN / PENDIENTE DE LA
RECTA
• En el caso de asumir una recta, se admite que existe una
proporción entre la diferencia de dos valores A y la diferencia entre
dos valores de B. A ese factor de ajuste entre ambas series se le
llama pendiente de la recta, y se asume que es constante a lo largo
de toda la recta.
ESTADISTICA
MÉTODO DE MÍNIMOS CUADRADOS

Para el cálculo de la recta de regresión se aplica el metodo de los


minimos cuadrado entre dos variables. Esta línea es la que hace
mínima la suma de los cuadrados de los residuos, es decir, es aquella
recta en la que las diferencias elevadas al cuadrado entre los valores
calculados por la ecuación de la recta y los valores reales de la serie,
son las menores posibles.

Y = o + 1 X
ESTADISTICA
COEFICIENTE DE DETERMINACION

Una pregunta importante que se plantea en el


análisis de regresión es la siguiente: ¿Qué parte de
la variación total en Y se debe a la variación en X?
¿Cuánto de la variación de Y no explica X?

El estadístico que mide esta proporción o porcentaje


se denomina coeficiente de determinación (R2). Si
por ejemplo, al hacer los cálculos respectivos se
obtiene un valor de 0.846. Esto significa que el
modelo explica el 84.6 % de la variación de la
ESTADISTICA

variable dependiente.
Salidas Estadísticas del Método

 Se evalúa la bondad de ajuste del modelo teórico a a través


del coeficiente de determinación R2

 La capacidad explicativa del modelo se hace a partir del


método de mínimos cuadrados (ANOVA), cuyo resultado es
testeado a través de F de Fisher

 Predice los valores de la variable dependiente a partir de


estimar el valor del coeficiente (B), el error estándar (S) y el
coeficiente R parcial (BETA) de cada una de las variables y de
la Constante

 Mide la fuerza, sentido y significancia estadística de las


ESTADISTICA

variables del modelo sobre la variable dependiente a través


de la prueba t de Student
¿CÓMO AJUSTAR MODELOS DE REGRESIÓN
LINEAL CUANDO LA FUNCIÓN NO ES LINEAL?

La regresión lineal no siempre da buenos resultados, porque a veces


la relación entre Y y X no es lineal sino que exhibe algún grado de
curvatura. La estimación directa de los parámetros de funciones no-
lineales es un proceso complicado. No obstante, a veces se pueden
aplicar las técnicas de regresión lineal por medio de transformaciones
de las variables originales.
ESTADISTICA
AJUSTE DE VARIABLES A FUNCIONES NO
LINEALES
• Hacer el diagrama de dispersión de las dos variables y evaluar si el
patrón resultante sigue la forma lineal o alguna otra función.

• Identificada dicha función, substituir los valores de una variable con


sus valores cuadrados, raíz cuadrada, logarítmicos o con alguna otra
modificación, y hacer de nuevo la matriz de correlación.

• Identificar la función que mejor ajuste por medio de un paquete


estadístico y determinar los coeficientes para la construcción de esa
ecuación.
ESTADISTICA

FUNCIONES NO LINEALES

Exponencial: Logarítmica: Polinómica:

y = a + bx y = a + log b x y = a + b x + c x2
ESTADISTICA
ESTADISTICA
ESTADISTICA
ANÁLISIS DE CORRELACIÓN:

El análisis de correlación es una técnica estadística


que mide el grado de asociación o afinidad entre
las variables cuantitativas consideradas en un
estudio.

Se llamará CORRELACION SIMPLE cuando se


trata de analizar la relación entre dos variables. Se
llamará CORRELACION MÚLTIPLE cuando se trata
de evaluar la relación entre tres y mas variables.
ESTADISTICA

El COEFICIENTE DE CORRELACION DE PEARSON, es el estadígrafo que mide


el grado de asociación o afinidad entre las variables cuantitativas y se denota por
“r” la cual se define como:
ANÁLISIS DE CORRELACIÓN:

n n n
n X iYi   X i  Yi
r n
i 1
n
i 1
n
i 1
n
n X  ( X i )
i
2 2
n Yi  ( Y1 ) 2
2

i 1 i 1 i 1 i 1

Interpretación:

• Si 0.00 ≤ r < ± 0.20 existe correlación no significativa


* Si ± 0.20 ≤ r < ± 0.40 existe una orrelación baja.
* Si ± 0.40 ≤ r < ± 0.70 existe una correlación significativa.
ESTADISTICA

* Si ± 0.70 ≤ r < ± 1.00 existe un alto grado de correlación.


* Si r = 1 existe una correlación perfecta positiva.
* Si r = -1 existe una correlación perfecta negativa.
 MATRIZ DE CORRELACIONES
Correlations

Ingres o
horario de
la Sexo Años de
ocupación (dummy: estudio
ppal 0=Varón) (aprox.)
Ingres o horario de la Pears on Correlation 1,000 -,014 ,354**
ocupación ppal Sig. (2-tailed) , ,149 ,000
N 10339 10339 10338
Sexo (dummy: 0=Varón) Pears on Correlation -,014 1,000 ,137**
Sig. (2-tailed) ,149 , ,000
N 10339 10339 10338
Años de estudio (aprox.) Pears on Correlation ,354** ,137** 1,000
Sig. (2-tailed) ,000 ,000 ,
N 10338 10338 10338
ESTADISTICA

**. Correlation is significant at the 0.01 level (2-tailed).


Enzo Aldo Bravo Burgos

Vous aimerez peut-être aussi