Académique Documents
Professionnel Documents
Culture Documents
Psicología
Definición
Conceptual
Dimensiones
Definición operacional
• Validez
– Validez de contenido
– Validez de criterio
– Validez de constructo o de concepto
• Confiabilidad
– Repetibilidad
– Confiabilidad inter observador
– Consistencia interna
a) VALIDEZ DE CONTENIDO.
Ejemplo
Una prueba de operaciones aritmética no tendrá validez de
contenido si sólo incluye problemas de suma y excluye problemas
de resta, división o multiplicación .
Validez de contenido por juicio de expertos
CLIMA LABORAL
EJEMPLO:
Formato para la
evaluación de
Jueces
El instrumento fue
evaluado por 7
jueces
Debe escanear
estos
documentos
ITEMS ORIGINALES DEL ITEMS MODIFICADOS
Si después de la
V de AIKEN los INSTRUMENTO DEL INSTRUMENTO
jueces sugieren
cambios en la
redacción de los
ítems se tienen
15.- 15.-
que evidenciar XXXXXXXXXXXXXXXXX YYYYYYYYYYYYYYYYYYYY
30.- 30.-
XXXXXXXXXXXXXXXXXXX YYYYYYYYYYYYYYYYYYYY
PROCESO DE ANÁLISIS
USANDO SPSS
1. Ingreso de datos en
SPSS
2. Prueba Binomial
3. Interpretación y
conclusión
Helfer Joel Molina
Quiñones
P promedio = 0.036
P promedio < 0.05,
La Prueba Binomial
indica que el
instrumento de
observación es valido
b) VALIDEZ DE CRITERIO
Es una medida del grado en que una prueba está relacionada con algún criterio.
Es de suponer que el criterio con el que se está comparando tiene un valor
intrínseco como medida de algún rasgo o característica.
Ejemplo
Un cuestionario para saber las preferencias electorales de los votantes de Lima en
las elecciones municipales y regionales del 2010 respecto a los candidatos a la
alcaldía de esta provincia puede validarse en criterio aplicando la encuesta dos o
tres días antes de la elección y sus resultados compararlos con los resultados
finales de la elección.
Validez de criterio:
Índice de Kappa de Cohen
Ejemplo
TEORIA
Las investigaciones hechas encontraron que “A” se
relaciona positivamente con B, C y D negativamente con
W.
CONFIABILIDAD
• Un instrumento es confiable o fiable si produce
resultados consistentes cuando se aplica en
diferentes ocasiones (estabilidad o reproducibilidad
(replica). Esquemáticamente se evalúa
administrando el instrumento a una misma muestra
de sujetos ya sea en dos ocasiones diferentes
(repetibilidad) o por dos o más observadores
diferentes (confiabilidad inter observador). Se trata
de analizar la concordancia entre los resultados
obtenidos en las diferentes aplicaciones del
instrumento.
ESTUDIO DE
CONFIABILIDAD
Cálculo de la confiabilidad
Generalmente todos los procedimientos utilizan
fórmulas que producen “coeficientes de
confiabilidad”, los cuales pueden oscilar entre 0 y 1,
donde 0 significa confiabilidad nula y 1 representa el
máximo de confiabilidad.
0% 1%
• No es confiable -1 a 0
• Baja confiabilidad 0.01 a 0. 49
• Moderada confiabilidad 0.5 a 0.75
• Fuerte confiabilidad 0.76 a 0.89
• Alta confiabilidad 0.9 a 1
1. Repetibilidad o confiabilidad test-retest Se refiere
a si, cuando se administra un instrumento a la
misma población en dos ocasiones diferentes, se
obtienen resultados idénticos o similares. Si el
instrumento es para pacientes, estos deben ser
crónicos. (perfil de salud).
Variable cualitativa coeficiente kappa
Variable cuantitativa coeficiente de
correlación intra clase.
Otras formas: - Versiones equivalentes
- Dos mitades (pares-impares)
Coeficiente de correlación intra clase
2. Confiabilidad interobservador. Se estima el
grado de concordancia entre dos o más
evaluadores (observadores). Si la confiabilidad
interobservador es alta la intra observador
también es alta. Pero, si la confiabilidad
interobservador es baja, no se puede asegurar
si es debido a diferencias entre observadores o
en un mismo observador.
Se evalúa: Variable cualitativa: índice kappa
Variable cuantitativa: coeficiente
de correlación intraclase.
Ejemplo: para medir capacidad funcional en personas de edad
avanzada, se evaluó la concordancia entre 11 observadores que
evaluaron 30 pacientes, obteniéndose coeficientes de
correlación intraclase que oscilaron entre 0,66 para el estado
físico y 0,87 para los autocuidados..
3. Consistencia interna: Se refiere si los
items que miden un mismo atributo,
presentan homogeneidad entre ellos. Esta
homogeneidad entre los ítems nos indica el
grado de acuerdo entre los mismos y, por
tanto, lo que determinará que éstos se
puedan acumular y dar una puntuación
global. Cuando una variable tiene diferentes
dimensiones debe evaluarse la consistencia
interna de cada una de ellas.
Se evalúa:- Coeficiente alfa de Cronbach.
- Fórmula 20 de K-R
Ejemplo. El cuestionario de apoyo social consta de 11 ítems
medidos en una escala de Likert con puntuaciones de 1 a 5.
El alfa de Cronbach de la escala fue de 0,90, el de la sub
escala de apoyo confidencial de 0,88 y el de apoyo afectivo de
0,79.
Coeficiente alfa de Cronbach.
• Se trata de un índice de consistencia interna que
toma valores entre 0 y 1 y que sirve para
comprobar si el instrumento que se está
evaluando recopila información defectuosa y
por tanto nos llevaría a conclusiones
equivocadas o si se trata de un instrumento
fiable que hace mediciones estables y
consistentes.
Consistencia interna: alfa de Cronbach
Persona A: Internamente consistente
Persona B: Internamente inconsistente
2
K Si
1
K 1 S
2
T
K: El número de ítems
Si^2: Sumatoria de Varianzas de los Items
ST^2: Varianza de la suma de los Items
α: Coeficiente de Alfa de Cronbach
Ejemplo 1
Items I II III Suma de Items
Sujetos
Campos (1) 3 5 5 13
Gómez (2) 5 4 5 14
Linares (3) 4 4 5 13
Rodas (4) 4 5 3 12
Saavedra (5) 1 2 2 5
Tafur (6) 4 3 3 10
(Varianza de la
Población) S Si 2 : 4.19
• K: El número de ítems : 3
• Si^2 : Sumatoria de Varianzas de los Ítems : 4.19
• ST^2 : Varianza de la suma de los Ítems : 9.14
• a : Coeficiente de Alfa de Cronbach
3 4.19
1
3 1 9.14
α = 0.81
Campos (1) 3 5 5 8 5 40 64 25
Linares (3) 4 4 5 9 4 36 81 16
Rodas (4) 4 5 3 7 5 35 49 25
Saavedra (5) 1 2 2 3 2 6 9 4
Tafur (6) 4 3 3 7 3 21 49 9
EJEMPLO 3
ITEM 1 ITEM 2 ITEM 3 ITEM 4
SUJETOS
SUMATORI
ECONOMIA DE VALOR
CALIDAD
ESCALA AGREGADO
COMPETITIVIDAD A DE ITEMS
1 15 14 16 15 60
2 19 22 21 20 82
3 15 14 15 14 58
4 15 14 16 15 60
5 18 19 19 19 75
6 15 16 16 16 63
7 14 15 16 15 60
8 13 14 14 14 55
9 20 19 20 20 79
10 19 18 20 19 76
11 18 19 20 19 76
12 16 17 18 17 68
13 14 14 15 14 57
14 17 18 17 17 69
15 14 14 15 14 57
ITEM 1 ITEM 2 ITEM 3 ITEM 4
SUMATORIA DE
SUJETOS
CALIDAD
ECONOMIA DE VALOR
COMPETITIVIDAD ITEMS
ESCALA AGREGADO
16 19 20 21 20 80
17 15 16 16 15 62
18 14 15 15 14 58
19 14 14 15 14 57
20 15 14 15 14 58
21 14 15 14 14 57
22 15 14 14 14 57
23 15 16 15 15 61
24 14 14 15 14 57
25 15 15 16 15 61
26 16 14 16 15 61
27 16 15 15 15 61
28 15 16 15 16 62
29 15 14 16 15 60
30 15 13 15 15 58
VARP (Varianza
3,232 4,929 4,366 4,179 ST2 62,517
de la Población)
S Si2 16,706
α = 4 * 1 - 16,710
( 4+1) 62,520
α = 1,33 * 0,732726
α= 0,977
Este coeficiente nos indica que entre más cerca de 1 esté α, más
alto es el grado de confiabilidad, en este caso, el resultado nos da
un valor de 0.977, entonces se puede determinar que el
instrumento empleado tiene un alto grado de confiabilidad.
Gracias