Vous êtes sur la page 1sur 131

Investigación

Científica
Dr. Giovanni Polanco
ETAPAS DE LA INVESTIGACIÓN
CIENTÍFICA

PROTOCOLO INFORME FINAL

PERFIL DE LA INVESTIGACIÓN

PLAN DE TRABAJO

PLANIFICACIÓN EJECUCIÓN

INVESTIGACIÓN CIENTÍFICA
ANALISIS DE LA SITUACIÓN DE SALUD

PROBLEMAS DE SALUD

INVESTIGACIÓN CIENTÍFICA

•PLAN DE TRABAJO
•PERFIL DE INVESTIGACIÓN
•PROTOCOLO

INFORME FINAL
Alcance de la Investigación

• Se emplean cuando el objetivo consiste en


Exploratorios examinar un tema poco estudiado o
novedoso.

• Son útiles para analizar cómo es y cómo se


Descriptivos manifiesta un fenómeno y sus componentes.

• Pretenden determinar como se relacionan o


Correlacionales vinculan diversos conceptos, variables o
características entre sí.

• Buscan encontrar las razones o causas que


Explicativos provocan ciertos fenómenos.
Hernández Sampieri, Metodología de la Investigación, 6a. edición.
Tipos de Estudio
Según la INTERVENCIÓN • Observacional
DEL INVESTIGADOR • Experimental

Según la PLANIFICACIÓN • Retrospectivo


de los datos • Prospectivo

Según el NÚMERO DE • Transversal


OCASIONES QUE SE MIDE
la variable de estudio • Longitudinal

Según el NÚMERO DE • Descriptivo


VARIABLES DE INTERÉS • Analítico
Tipos de estudio
Estudio de casos

Reporte de Casos
Serie de Casos
Clínicos
Es un tipo de
investigación
descriptiva Es un estudio epidemiológico,
descriptivo

Contribuyen a dar forma a


una base de conocimiento
científico sobre un
fenómeno determinado Se limita a la simple identificación y
descripción de un conjunto de
casos clínicos que han aparecido
en un intervalo de tiempo
Descripción de un
paciente que por sus
características generales
resulta interesante y Grupo de sujetos (Más de 10
esclarecedor casos)afectados por un
problema o patología común
• Son estudios descriptivos transversales, ya que
analizan la relación entre una enfermedad y
algunas variables en un momento concreto del
tiempo.
• Buscan hallar las características de diferentes
factores de riesgo y enfermedades, que luego
Transversales habrá que determinar las relaciones entre las
(prevalencia) mismas por estudios analíticos.
• Es de "corte transversal”, ya que enfermedad y
características se miden simultáneamente.
• Son de máxima utilidad cuando se desea
conocer la frecuencia de una característica (por
ejemplo, de una enfermedad) y caracterizar
algunos atributos de la población evaluada.
• El investigador puede encontrarse frente a las
siguientes situaciones al momento de diseñar
un estudio de prevalencia:
• Desea conocer la prevalencia de una
condición e ignora por completo la
magnitud de ella en la población que
Transversales va a estudiar. (Ejemplo: problemas de
(prevalencia) salud emergentes o inexistentes).
• Dispone de información que le
permite estimar la prevalencia de la
condición en estudio (por ejemplo, a
partir de la literatura científica o de
otras mediciones realizadas en
condiciones similares)
• Estos estudios responde a
preguntas tales como:
• ¿Qué tan frecuente es la hipertensión
en población adulta?
Transversales • ¿Qué porcentaje de pacientes
manifiesta disconformidad con la
(prevalencia) atención recibida?
• ¿Cuál es la frecuencia de bebedores
problema de acuerdo a su sexo y cual
su relación con el nivel
socioeconómico?
Estudios transversales (prevalencia)
VENTAJAS DESVENTAJAS
• No tienen problemas éticos. • No es útil para estudiar enfermedades
raras, ya que no permite ver el mecanismo
• Son de duración mínima. de producción de la enfermedad y no sirve
• Su costo es bajo. para comprobar una hipótesis previa de
• Son de fácil reproductibilidad. causalidad (es imposible conocer la
secuencia temporal porque la información
• No requieren seguimiento. sobre el factor de riesgo y la enfermedad
• Pueden utilizar información se recogen a la vez).
recolectada previamente. • No permite establecer riesgos relativos
• Pueden explorar múltiples directos.
exposiciones y efectos (útil para • No sustentan inferencia de causalidad.
planificación de salud) • Sólo permiten establecer asociaciones
generales.
• Son útiles para el estudio de
• La interpretación en este tipo de estudios
enfermedades crónicas en la
puede hacerse dificultosa en presencia de:
población. • Tendencias estacionales o seculares del
• Aptos para el estudio de fenómeno en estudio,
parámetros fisiológicos. • Cambios en la incidencia o duración,
• Movilidad de los sujetos expuestos o en
• Contribuyen a una adecuada
riesgo,
caracterización de la población • Situaciones o eventos de corta duración.
afectada • Modificación en criterios clasificatorios.
Pruebas diagnósticas Estudios de Concordancia

• Su objetivo es estimar la • Se realizan con la finalidad


capacidad de una medida de evaluar si un aparato
(prueba diagnóstica) para de medida o un
discriminar entre las cuestionario son fiables o
personas que padecen si dos observadores
una enfermedad y concuerdan con la
aquellas que no a medición de una variable
padecen pero presentan
síntomas similares
• La sensibilidad y la
especificidad son las
medidas tradicionales y
básicas del valor
diagnóstico de una
prueba
Estudios Correlacionales
Metodología descriptiva con la que se pretende comúnmente
estimar el nivel de asociación entre las variables objeto de
estudio

La naturaleza de las variable debe ser continua

La correlación No implica causalidad

Su principal limitación es que no se puede asociar la exposición


y enfermedad en un individuo en particular
Estudios Correlacionales
Estudios Correlacionales
EJEMPLO
Se presentan 3 casos con los valores obtenidos por cuatro
sujetos en dos pruebas (variables), un test de inteligencia
(variable X), y una prueba objetiva de rendimiento (variable
Y) en donde se coloca junto a la puntuación (X o Y), su
número en base al orden en que quedaron los cuatro sujetos
(1° al que tenga la puntuación más alta y 4° al que tenga la
puntuación más baja.
VARIABLE “X”:Test de inteligencia, VARIABLE “Y”: Prueba objetiva de rendimiento

Los sujetos tienen el


mismo orden en las dos
variables (el tener más
de “X” coincide con
tener más en “Y”)

Determinamos que existe


relación en la medida en
que los sujetos ocupan la
misma posición relativa
EXISTE UNA RELACIÓN en las dos variables
POSITIVA ENTRE LAS VARIABLES
VARIABLE “X”:Test de inteligencia, VARIABLE “Y”: Prueba objetiva de rendimiento

El orden entre las dos


variables es inverso (a
más de “X” corresponde
menos de “Y”)

Determinamos que
existe una relación ya
que los sujetos guardan
posiciones contrarias en
EXISTE UNA RELACIÓN
NEGATIVA ENTRE LAS
las dos variables
VARIABLES
VARIABLE “X”:Test de inteligencia, VARIABLE “Y”: Prueba objetiva de rendimiento

El orden de “X” no tiene


nada que ver con el
orden de “Y”

No existe relación en la
posición relativa de las
variables
ENTRE “X” y “Y” NO HAY
RELACIÓN
Estudios Correlacionales

Técnicas estadísticas
para la correlación:
•r de Pearson
•rho de Spearman
•tau b de Kendall
Coeficiente de correlación
“r de Pearson”
Es una medida de la relación lineal entre dos variables
aleatorias cuantitativas y que es independiente de la
escala de medida de las variables (INTERVALO O RAZÓN)

Es un índice que puede utilizarse para medir el grado de


relación entre dos variables, siempre y cuando ambas
sean CUANTITATIVAS

Uno de sus requisitos es que las variables deben de


medirse de una forma independiente para evitar
cualquier resultado sesgado
r de Pearson

Ventajas Desventajas
• El valor del coeficiente de • Requiere supuestos acerca de
correlación es independiente la naturaleza o formas de las
de cualquier unidad usada poblaciones afectadas
para medir variables • Requiere que las dos
• Mientras más grande sea la variables hayan sido medidas
muestra, más exacta será la hasta un nivel cuantitativo
estimación (por lo menos continuo y que la distribución
contar con una muestra de 80 de ambas sea semejante a la
observaciones) de la curva normal
r de Pearson
• Sus valores oscilan entre +1 y -1 (cuando “r” es positivo indica
que las variables están directamente relacionadas y cuando
“r” es negativo indica que las variables están inversamente
relacionadas)

0.70
Coeficiente de correlación
“r de Pearson”
Ejemplo
• Se realiza un estudio es un centro educativo en donde se
quería determinar la relación entre el consumo de
complementos nutricionales y el aumento de peso de los
estudiantes, Con los resultados obtenidos y haciendo la
prueba de relación de variables se obtiene un valor de r=0.84

• ¿Cuál es su interpretación?

• El signo es positivo por lo tanto el consumo de complementos


nutricionales y el aumento de peso están directamente
relacionados (muy alta)
Ejemplo
• En un centro de salud se realiza una jornada médica en donde
se establece la tensión arterial sistólica y el peso a 10
pacientes encontrándose los siguientes resultados:

• ¿Qué análisis puede hacer de estos resultados?

• Se puede observar que aquellas personas que tienen un valor de


peso mayor también tienen un valor mayor de presión arterial
sistólica
Ejemplo
• En un centro de salud se realiza una jornada médica en donde
se establece la tensión arterial sistólica y el peso a 10
pacientes encontrándose los siguientes resultados:

• ¿Tienen relación las dos variables?


Valor de r= 0.99

• ¿Qué interpretación daría a la relación entre las variables?


Ejemplo
• En un centro de salud se realiza una jornada médica en donde
se establece la tensión arterial sistólica y el peso a 10
pacientes encontrándose los siguientes resultados:

• ¿Tienen relación las dos variables?


Valor de r= 0.99

• ¿Qué tipo de relación tienen esas variables?


Estudios de incidencia
• Se define como el número de casos nuevos de una
enfermedad que se desarrollan en una población con riesgo
en un periodo de tiempo determinado (habitualmente un
año)

• Son estudios descriptivos, longitudinales y prospectivos

• Para la estimación de la incidencia se ocupan dos medidas:


• La incidencia acumulada: Proporción de sujetos sanos que a lo
largo de un periodo de tiempo determinado desarrollan la
enfermedad (mide el riesgo de un individuo a contraer la
enfermedad en un periodo de tiempo especifico)
• La densidad de la incidencia: Se trata de una medida de la
aparición de la enfermedad en un punto en el tiempo
Estudios de Casos y Controles
• Este tipo de estudio identifica a personas con una enfermedad
(u otra variable de interés) que estudiemos y los compara con
un grupo control apropiado que no tenga la enfermedad.
• La relación entre uno o varios factores relacionados con la
enfermedad se examina comparando la frecuencia de
exposición a éste u otros factores entre los casos y los
controles.
• A este tipo de estudio que es de los más utilizados en la
investigación se le podría describir como un procedimiento
epidemiológico analítico, no experimental con un sentido
retrospectivo, ya que partiendo del efecto, se estudian sus
antecedentes, en el que se seleccionan dos grupos de sujetos
llamados casos y controles según tengan o no la enfermedad.
Casos y Controles
• En los estudios de casos y controles tenemos casos expuestos (a), casos
no expuestos (c), controles expuestos (b) y controles no expuestos (d).
• En este estudio la frecuencia de exposición a la causa entre los casos (a/c)
se compara con la frecuencia de exposición en una muestra que
represente a los individuos en los que el efecto no se ha producido y entre
los que la frecuencia de exposición es (b/d).
Casos y Controles
• Si la frecuencia de exposición a la causa es mayor en el grupo
de casos de la enfermedad que en los controles, podemos
decir que hay una asociación entre la causa y el efecto.

• La medida de asociación que permite cuantificar esta


asociación se llama "odds ratio" (razón de productos
cruzados, razón de disparidad, razón de predominio,
proporción de desigualdades, razón de oposiciones, oposición
de probabilidades contrarias, cociente de probabilidades
relativas, oportunidad relativa)
Casos y Controles
• Los grandes temas que se deben abordar al realizar un estudio
de casos y controles son después de la definición de caso, la
selección de los controles y las fuentes de información sobre
la exposición y la enfermedad .

• Estos estudios deben:


• Establecer de forma clara y explícita la definición de la
enfermedad y los criterios de inclusión.
• Los casos deben ser incidentes ya que los casos prevalentes:
• Cambian sus hábitos en relación con la exposición.
• Los casos prevalentes pueden ser los sobrevivientes de casos
incidentes y la supervivencia puede estar relacionada con la
exposición.
Casos y Controles
• La selección del grupo control debe tener en cuenta:
• La función del grupo control es estimar la proporción de
exposición esperada en un grupo que no tiene la enfermedad.
• Los controles deben ser representativos de la población de
donde provienen los casos. Los casos y los controles no deben
entenderse como dos grupos representativos de dos poblaciones
distintas, sino como dos grupos que proceden de una misma
población.

• Los controles deben ser comparables a los casos en el sentido


de haber tenido la misma probabilidad de haber estado
expuestos.
En resumen
• Constituyen un procedimiento sencillo para investigar causas
de enfermedad, en especial en enfermedades infrecuentes

• Se elige a un grupo de individuos que tienen un efecto o una


enfermedad (CASOS) y otra en la que esta ausente
(CONTROLES)

• Son estudios observacionales, transversales y retrospectivos

• La medida de asociación o de efecto de la exposición que se


utiliza es la razón de Odds (OR, odds ratio)
Estudios de Casos y Controles
Expuesto
CASOS
No
expuesto
Población
Expuesto
CONTROLES
No
expuesto

DIRECCIÓN DE LA INVESTIGACIÓN
Odds Ratio
• Es el cociente entre la
probabilidad de que un
evento suceda frente a la
probabilidad de que no
ocurra

• En estudios de casos y
controles: odds ratio es el
cociente entre el Odds de
exposición observada en
casos y la Odds de
exposición del grupo
control
Odds Ratio
No hay asociación
Ejemplo
• En un estudio de pacientes se pretende investigar la posible
asociación entre la probabilidad de padecer cáncer epitelial de
ovario y el uso de anticonceptivos orales. Para ello se analiza
una muestra aleatoria de 4720 pacientes observando los
siguientes resultados:
Ejemplo
• En un estudio de pacientes se pretende investigar la posible
asociación entre
El valor de la
ORprobabilidad
es diferente de de
1 porpadecer cáncer
lo tanto se puedeepitelial
establecerde
ovario y elque
uso de de
el uso anticonceptivos orales.
anticonceptivos orales Pararelación
si tiene ello seconanaliza
el
una muestra aleatoria cáncer epitelialpacientes
de 4720 de ovario observando los
siguientes resultados:
Ya que el valor de OR es MENOR de 1 se puede establecer que el
uso de anticonceptivos orales tiene una relación de protección
para la aparición de cáncer epitelial de ovario
Intervalos de confianza
• El Odds ratio es una estimación de la asociación de un determinado
factor con una enfermedad, por lo que resulta necesario calcular una
medida de variabilidad de esta estimación.
• El intervalo de confianza es el rango en el que se encuentra el
verdadero valor de Odds ratio.
• Determina la significancia de la medida
Intervalos de confianza
Estudios de Cohorte (o de
seguimiento)
• En este tipo de estudio los individuos son identificados en
función de la presencia o ausencia de exposición a un
determinado factor.
• En este momento todos están libres de la enfermedad de
interés y son seguidos durante un período de tiempo para
observar la frecuencia de aparición del fenómeno que nos
interesa.
• Si al finalizar el período de observación la incidencia de la
enfermedad es mayor en el grupo de expuestos, podremos
concluir que existe una asociación estadística entre la
exposición a la variable y la incidencia de la enfermedad.
Estudios de cohorte
• La cuantificación de esta asociación la podemos calcular
construyendo una razón entre la incidencia del fenómeno en
los expuestos a la variable (le) y la incidencia del fenómeno
en los no expuestos (lo). Esta razón entre incidencias se
conoce como riesgo relativo y su cálculo se estima como:
Estudios de Cohorte
Estudios de cohorte
• En este tipo de estudio debido a que los participantes están libres de
la enfermedad al inicio del seguimiento, la secuencia temporal entre
exposición y enfermedad se puede establecer más claramente.
• A su vez este tipo de estudio permite el examen de múltiples efectos
ante una exposición determinada.
• Los estudios de cohortes pueden ser prospectivos y retrospectivos
dependiendo de la relación temporal entre el inicio del estudio y la
presencia de la enfermedad.
• En los retrospectivos tanto la exposición como la enfermedad ya han
sucedido cuando el estudio se inició.
• En los prospectivos la exposición pudo haber ocurrido o no, pero
desde luego lo que aún no ha sucedido es la presencia de la
enfermedad. Por tanto se requiere un período de seguimiento en el
futuro para determinar la frecuencia de la misma.
En resumen
• Son diseños de observación con seguimiento y sentido hacia
adelante en el tiempo, partiendo de la exposición se estudia
el efecto.

• Se seleccionan los individuos “sanos” para ser observados y


seguidos en el tiempo para detectar los casos de enfermedad
y el momento en que se presentan

• Son estudios observacionales, longitudinales, prospectivos o


retrospectivos

• La medida de asociación o de efecto de la exposición que se


utiliza es el RIESGO RELATIVO (RR)
Estudios de Cohorte
Riesgo Relativo
• Es la razón entre la incidencia de la enfermedad en el grupo de
expuestos (Ie+) y la incidencia de enfermedad en el grupo de
no expuestos (Ie-)

• Mide la fuerza de asociación entre la incidencia de la


enfermedad y el factor de exposición que se esta estudiando

• Expresa la probabilidad de sufrir una enfermedad entre


quienes están expuestos al factor considerado causal,
respecto a los no expuestos

• Es decir cuántas veces la enfermedad es más frecuente en


expuestos que en no expuestos
Riesgo relativo
Riesgo Relativo
No hay asociación

expuestos (Ie+)
no expuestos (Ie-)
Ejemplo
• Se realiza un estudio con respecto a la eficacia de la heparina a
dosis bajas en la prevención de nuevos infartos de miocardio,
en donde entre los resultados encontrados se trataba de hacer
la relación entre la utilización de heparina a dosis bajas y la
mortalidad por todas las causas, encontrándose:

0.030
0.48
0.063

34 694
Ejemplo
• Se realiza un estudio con respecto a la eficacia de la heparina a
dosis bajas en es
El valor la menor
prevención delonuevos
que 1 por infartosque
que se considera desimiocardio,
en dondehay entre
asociación
los resultados
y que la heparina
encontrados
a bajas dosis
se trataba
es un de hacer
factor
la relación protector
entre con respectode
la utilización a laheparina
mortalidadaendosis
inartobajas y la
de miocardio
mortalidad por todas las causas, encontrándose:

0.030
0.48
0.063

34 694
SESGOS
SESGOS
• Independientemente del tema y los objetivos de un estudio, que
pueden ser de mayor o menor interés para el lector o para la
comunidad científica, lo que siempre se debe perseguir es que el
estudio sea preciso y válido.

• Todo estudio debe ser entendido como un ejercicio de medida en


cada uno de los apartados de planificación, ejecución e
interpretación.

• Es por tanto necesario formular unos objetivos de forma clara y


cuantitativa para dejar muy bien sentado desde el principio que es
lo que se quiere medir.

• Si este primer paso es deficiente o poco claro la calidad de un


estudio se tambalea
SESGOS
• La meta fundamental que todo estudio debe perseguir es la
agudeza en la medición. Por ello, que todo lo que amenace
esta correcta medición debe ser identificado y corregido.

• Los elementos que amenazan estas mediciones son: El Error


Aleatorio y el Error Sistemático.
SESGOS
• La carencia de error aleatorio se conoce como precisión y se
corresponde con la reducción del error debido al azar. Para reducir
este error el elemento más importante del que disponemos es
incrementar el tamaño de la muestra y con ello aumentamos la
precisión.

• Los intervalos de confianza y el error estándar se reducen al


aumentar el tamaño muestral. Es por tanto necesario desde un
principio preocuparse por el tamaño muestral del estudio que
vamos a realizar definiendo la precisión y la seguridad del mismo.

• La precisión también se puede mejorar modificando el diseño del


estudio para aumentar la eficiencia de la información que obtengo
de los sujetos del estudio.
SESGOS
• La carencia del error sistemático se conoce como validez.
• Esta validez tiene dos componentes:
• La validez interna, que es la validez de las inferencias a los
sujetos reales del estudio (validez real a las personas que
participan)
• la validez externa o generalización en tanto se aplica a individuos
que están fuera de la población del estudio.

• La validez interna es por tanto un prerrequisito para que


pueda darse la extrema.

• La validez interna que es la que implica validez de inferencia


para los propios sujetos de estudio. Se ve amenazada por
varios tipos de sesgos.
SESGOS
• Entendemos por sesgos los errores sistemáticos en un estudio
epidemiológico que producen una estimación incorrecta de
asociación entre la exposición y la enfermedad. En definitiva
producen una estimación equivocada del efecto.
• Cuando realizamos un estudio o interpretamos los resultados
del mismo nos podemos preguntar: ¿Podrían los resultados
deberse a algo que los autores no han tenido en
consideración?, como por ejemplo:
• Los grupos del estudio no son comparables debido a como fueron
seleccionados los pacientes (sesgos en la selección).
• Los grupos de pacientes del estudio no son comparables debido a
como se obtuvieron los datos (sesgos en la información).
• Los autores no han recogido información (o la han obtenido pero
no la han utilizado) sobre un factor que se relaciona a la vez con
la exposición y con el efecto estudiados (factor de confusión).
Selección
Sesgos
Información u
Observación
Sesgo de selección
• Este sesgo hace referencia a cualquier error que se deriva del
proceso de identificación de la población a estudiar.

• La distorsión resulta de la forma en que los sujetos han sido


seleccionados.

• Estos sesgos se pueden cometer:


• Al seleccionar el grupo control.
• Al seleccionar el espacio muestral donde se realizará el estudio.
• Por pérdidas en el seguimiento.
• Por la presencia de una supervivencia selectiva.
Sesgo de selección
• Los sesgos de selección son un problema fundamental en los
estudios de casos y controles y en los estudios de cohortes
retrospectivos donde la exposición y el resultado final ya han
ocurrido en el momento que los individuos son seleccionados
para el estudio.
• Los sesgos de selección son poco probables en los estudios de
cohortes prospectivos porque la exposición se determina
antes de la presencia de enfermedad de interés.
• En todos los casos, cuando el sesgo de selección ocurre, el
resultado produce una relación entre exposición y
enfermedad que es diferente entre los individuos que
entraron en el estudio que entre los que pudiendo haber sido
elegidos para participar, no fueron elegidos.
Sesgo de selección
• La evitación de los sesgos de selección depende en gran
medida de que el investigador conozca las fuentes de sesgo
potenciales.
• En los estudios de casos y controles para evitar sesgos de
selección, se recomienda al menos teóricamente, ya que
desde el punto de vista práctico es muy costoso, utilizar dos
grupos control. Uno de ellos una muestra poblacional, lo que
posibilita el detectar el posible sesgo de selección al hacer
estimaciones del efecto por separado.
• En los estudios de seguimiento se debe asegurar un
seguimiento completo en ambos grupos.
Sesgo de información u
observación
• Este sesgo incluye cualquier error sistemático en la forma en
que se mide la información sobre la exposición a estudiar o
los resultados.
• Los sesgos de observación o información se derivan de las
diferencias sistemáticas en las que los datos (sobre exposición
o resultado final) se obtienen de los diferentes grupos.
• El rehusarse o no responder en un estudio puede introducir
sesgos si la tasa de respuesta está relacionada con el status de
exposición.
• El sesgo de información es por tanto una distorsión en la
estimación del efecto por errores de medición en la
exposición o enfermedad o en la clasificación errónea de los
sujetos.
Sesgo de información u
observación
• Las fuentes de sesgo de información más frecuentes son:

• Instrumento de medida no adecuado.


• Criterios diagnósticos incorrectos.
• Omisiones.
• Imprecisiones en la información.
• Errores en la clasificación.
• Errores introducidos por los cuestionarios o los
encuestadores.
Sesgo de información u
observación
• La prevención y control de sesgos potenciales debe prevenirse
durante el diseño del estudio ya que en el análisis no va a ser posible
solucionar los sesgos de selección e información.

• Por el contrario los factores de confusión sí pueden ser controlados


en el análisis. Dichos factores de confusión van a producir una
distorsión en la estimación del efecto, en el sentido de que el efecto
observado en la población en estudio es una mezcla de los efectos
debidos a una tercera (o más) variables.

• Los sesgos, el azar y la presencia de variables confusoras deben


finalmente siempre, tenerse en cuenta, como explicación posible de
cualquier asociación estadística ya sea esta positiva, negativa o no
existente
SIGNIFICACIÓN ESTADÍSTICA
Tipos de
errores

Error Error
Tipo I (α) Tipo II (β)
Error de Tipo I (α)
• Al realizar el test estadístico, podríamos correr el riesgo de
equivocarnos al rechazar la hipótesis nula.
• La probabilidad de rechazar la hipótesis nula cuando en
realidad es verdadera (error de tipo I) se le denomina nivel
de significación y es la "p". Esta probabilidad de rechazar la
hipótesis nula cuando es verdadera se le conoce también
como error alfa. La "p" no es por tanto un indicador de
fuerza de la asociación ni de su importancia.
• La significación estadística es por tanto una condición
resultante del rechazo de una hipótesis nula mediante la
aplicación de una prueba estadística de significación.
Error de Tipo I (α)
• El nivel de significación es el riesgo o la probabilidad que
voluntariamente asume el investigador de equivocarse al
rechazar la hipótesis nula, cuando en realidad es cierta. Este
riesgo se establece normalmente en 0.05 ó 0.01.
• El proceso de poner a prueba una hipótesis involucra una
toma de decisiones para rechazar o no la hipótesis
nula. Aunque los valores de la "p" son los de una variable
continua, se utiliza para forzar una decisión cualitativa,
tomando partido por una u otra hipótesis.
• Si p < 0.05 se considera significativo, en cuyo caso se rechaza
la hipótesis nula y no significativo si p> 0.05 en cuyo caso no
se rechaza. Una "p" pequeña significa que la probabilidad de
que los resultados obtenidos se deban al azar es pequeña.
Error Tipo II (β)
• El riesgo alfa a ("p") indica la probabilidad de cometer un
error de tipo I (falso positivo). El error de tipo I, es por lo
tanto rechazar la Ho cuando en realidad es verdadera.
• Se podría considerar que para evitar este tipo de error
deberíamos de elegir un nivel de confianza más elevado, sin
embargo al aumentar el nivel de confianza aumenta la
probabilidad de cometer el error de tipo II.
• El error de tipo II consiste en aceptar la hipótesis nula cuando
es falsa y esto se conoce como el error de tipo II o Beta (β)
(falso negativo)
Tipos de errores
Recomendaciones para
disminuir el error de Tipo I
• Disponer de una teoría que guíe la investigación, evitando el
"salir de pesca" con el ordenador buscando asociaciones entre
variables.
• Disminuir el número de test estadísticos llevados a cabo en el
estudio.
• Depurar la base de datos para evitar errores de valores
extremos que puedan producir hallazgos significativos.
• Utilizar valores de alfa más reducidos (0.01 ó 0.001).
• Reproducir el estudio. Si al reproducir el estudio se obtienen
resultados similares, estaremos más seguros de no estar
cometiendo el error de tipo I.
Recomendaciones para
disminuir el error de Tipo II
• Incrementar el tamaño de la muestra.
• Estimar el poder estadístico del estudio.
• Incrementar el tamaño del efecto a detectar.
• Incrementar el valor de alfa.
• Utilizar test paramétricos (más potentes) en lugar de test no
paramétricos.
Significación estadística….
RECORDAR QUE…..
• La realización de cualquier estudio clínico-epidemiológico
pretende poner de manifiesto al final del mismo si existe o no
asociación entre diferentes variables.

• Esta asociación puede ser resultado de que realmente exista la


asociación indicada, pero esta asociación también puede ser
producto del azar, de la presencia de sesgos o de la presencia
de variables de confusión.
Significación estadística…
RECORDAR QUE…
• Una de las aplicaciones de la estadística es hacer inferencias a
poblaciones, a partir de muestras.
• En la realización de este proceso inferencial, siempre existe el
riesgo de error o imprecisión ya sea por el azar o la
variabilidad biológica del fenómeno a estudiar.
• La carencia de error aleatorio debido al azar se conoce como
precisión. Cuanto más grande es el tamaño muestral, mayor
es la precisión y la variabilidad explicada por el azar
disminuye.
• El papel del azar debe ser siempre contemplado, evaluado y
medido, realizando test de hipótesis o construyendo
intervalos de confianza para conocer la precisión de nuestra
estimación dentro de una seguridad previamente definida.
Significación estadística…
RECORDAR QUE…
• A pesar de las limitaciones de la estadística, el término
"estadísticamente significativo" invade la literatura médica y
se percibe como una etiqueta que indicase "garantía de
calidad".
• El considerar el término significativo implica utilizar términos
comparativos de dos hipótesis.
• Los test de hipótesis son test de significación estadística que
cuantifican hasta que punto la variabilidad de la muestra
puede ser responsable de los resultados de un estudio en
particular.
• La Ho (hipótesis nula) representa la afirmación de que no hay
asociación entre las dos variables estudiadas y la Ha (hipótesis
alternativa) afirma que hay algún grado de relación o
asociación entre las dos variables
Significación estadística
• El mecanismo de los diferentes test se realiza aunque con
matices siempre de la siguiente forma:
• En primer lugar se mira la magnitud de la diferencia que hay
entre los grupos a comparar (A y B).
• Si esta magnitud o valor absoluto es mayor que un error
estándar definido multiplicado por una seguridad definida,
concluimos que la diferencia es significativa entre A y B. Por
tanto aceptamos la hipótesis alternativa y rechazamos la
hipótesis nula.

El proceso de aceptación o rechazo de la hipótesis lleva implícito un riesgo


que se cuantifica con el valor de la "p", que es la probabilidad de aceptar la
hipótesis alternativa como cierta, cuando la cierta podría ser la hipótesis
nula.
Ejemplo
• Disponemos de 2 tratamientos ( A y B). El tratamiento A lo
reciben 25 pacientes y el tratamiento B otros 25 pacientes. 15
pacientes responden favorablemente al tratamiento A y 20 al
tratamiento B.
• ¿Existe diferencia significativa entre ambos tratamientos?

• Ho (hipótesis nula) = No hay diferencia entre ambos


tratamientos.
• Ha (hipótesis alternativa) = Sí existe diferencia.
Magnitud o valor absoluto >
error estándar*seguridad
definida (Z)
Magnitud o valor absoluto >
error estándar*seguridad
definida (Z)
Significación estadística
• El valor de "p" que indica que la asociación es estadísticamente
significativa, ha sido arbitrariamente seleccionado y por consenso se
considera en 0.05. Una seguridad del 95% lleva implícito una p < de
0.05 y una seguridad del 99% lleva implícita una p < 0.01.
• Cuando rechazamos la Ho (hipótesis nula) y aceptamos la Ha (hipótesis
alternativa) como probablemente cierta afirmando que hay una
asociación, o que hay diferencia, estamos diciendo en otras palabras
que es muy poco probable que el azar fuese responsable de dicha
asociación.
• Del mismo modo si la p>0.05 decimos que el azar no puede ser
excluido como explicación de dicho hallazgo y no rechazamos la
Ho (hipótesis nula) que afirma que ambas variables no están asociadas
o correlacionadas
Significación estadística
• Conviene por otra parte considerar que la significación estadística
entre dos variables depende de dos componentes fundamentales.
• El primero es la magnitud de la diferencia a testar: Cuanto más
grande sea la diferencia entre las dos variables, más fácil es
demostrar que la diferencia es significativa. Por el contrario si la
diferencia entre ambas variables es pequeña, las posibilidades de
detectar diferencias entre las mismas se dificulta.
• El segundo componente fundamental a tener en cuanta al testar
diferencias entre dos variables es el tamaño muestral: Cuanto más
grande sea dicho tamaño muestral más fácil es detectar diferencias
entre las mismas. Pequeñas diferencias se pueden detectar con
grandes tamaños muestrales y grandes diferencias entre variables
necesitan muchos menos pacientes o individuos a ser estudiados.
• Cualquier diferencia puede ser estadísticamente significativa si se
dispone del suficiente número de pacientes.
Ejemplo
• En el ejemplo anterior objetivamos que no hay diferencia entre 60% y 80% (0.60 y
0.80). Supongamos que realizamos ahora el estudio con 900 pacientes en cada
grupo (MANTENIENDO SIEMPRE EL 60% y 80% DE RESPUESTA):
Ejemplo
La magnitud o valor absoluto supera el valor 0.0423 y por lo tanto
concluimos que la diferencia entre 0.60 y 0.80 sí es estadísticamente
• En elsignificativa. A la
ejemplo anterior vista de los
objetivamos resultados
que por tanto
no hay diferencia rechazamos
entre 60% y 80%la
(0.60 y
0.80).HoSupongamos
(hipótesis nula) y aceptamos
que realizamos la Hela (hipótesis
ahora estudio conalternativa) como
900 pacientes en cada
grupo (MANTENIENDO
probablemente SIEMPRE
cierta. EL 60% y 80%
Como podemos DE RESPUESTA):
objetivar en este segundo ejemplo
ahora, si podemos decir que la diferencia entre 60% y 80% es
estadísticamente significativa (p< 0.05).
Significación estadística
• El tamaño muestral afecta a la probabilidad de la significación
estadística a través del error estándar que se hace más pequeño
cuantos más pacientes tenga el estudio.
• Así pues el valor de la "p" es función de la magnitud de la
diferencia entre los dos grupos o dos variables y del tamaño de la
muestra.
• Por esta razón una pequeña diferencia puede ser estadísticamente
significativa si disponemos de un tamaño muestral lo
suficientemente grande y por el contrario un efecto o diferencia
relativamente grande puede no alcanzar la significación estadística
si la variabilidad es grande debida a un pequeño tamaño
muestral.
• Por estas razones los valores de la "p" deben ser considerados
solo como una guía y no como base de conclusiones definitivas e
irrevocables.
Selección de una prueba
estadística
Criterios para obtener una
Tipos de Pruebas
prueba estadística

Paramétricas Tipo de Estudio

No Paramétricas Nivel investigativo

Diseño de investigación

Objetivos estadísticos

Escala de medición

Comportamiento de los datos


Pruebas estadísticas

• Se llaman así porque su cálculo implica una


Paramétricas estimación de los parámetros de la población
con base en muestras estadísticas

• Son pruebas estadísticas que no hacen


suposiciones sobre la constitución de los datos
No de la población, no asumen acerca de los
parámetros de distribución, ni se preocupan por
paramétricas el tipo de distribución, sino que trabajan con
simple ordenación y recuento
Aspectos a tomar en cuenta
Paramétricas No paramétricas

• Las variables tienen • Datos de distribución


que ser cuantitativas libre (no
medidas en escalas de necesariamente
intervalo o razón normal)
• Los datos siguen una • Puede ser datos
distribución normal cuantitativos, ordinales
• Las varianzas son y nominales
iguales • Con varianza grande
• Muestras iguales • Al trabajar con
(n>30) muestras pequeñas
ASOCIACIÓN DE VARIABLES
CUALITATIVAS (CATEGÓRICAS)
PRUEBA DE CHI CUADRADO
En la investigación
biomédica nos
encontramos con
Es una prueba estadística
frecuencia con datos o
para evaluar la hipótesis
variables de tipo Se calcula a través de una
con respecto a la relación
cualitativo mediante las tabla de contingencia
entre dos variables
cuales un grupo de
categóricas
individuos se clasifican
en dos o más categorías
mutuamente excluyentes
Chi cuadrado
• Requisitos para utilizar Chi cuadrado:
• Las observaciones tienen que ser independientes
• Pierde eficacia cuando se aplica a más de 50 casos
• Las frecuencias teóricas o esperadas en cada casilla no deben ser
inferiores a 5

• En cualquier tipo de test hay:


• Frecuencia observada
• Frecuencia esperada
• Grados de libertad
Formula
de Chi
cuadrado
Tipos de Chi cuadrado
Chi Bondad de Compara la distribución

cuadrado Una ajuste


de una muestra con la
distribución teórica que
se supone que describe
variable a la población de la cual
se extrajo

Comprueba si una o más


Prueba de
Dos homogeneidad
muestras pertenecen a
la misma población

variables
Comprueba si dos o más
Prueba de variables que se miden
independencia en una misma muestra
están o no relacionadas
entre sí
Prueba de independencia
• Determina si el valor observado de una variable depende del
valor de otra variable, es decir permite determinar si dos
variable cualitativas están o no asociadas

• Tipo de hipótesis a contrastar:


• Ho: Las variables “X” y “Y” son independientes (No están
relacionados)
• Ha: Las variables “X” y “Y” son dependientes (Están relacionadas)
Prueba de independencia
• Para poder determinar el nivel de significancia se debe
establecer o calcular el valor de chi cuadrado crítico

• PARA PODER ACEPTAR LA HIPÓTESIS NULA EL VALOR


ENCONTRADO O ALCANZADO DE CHI CUADRADO DEBE SER
MENOR O IGUAL QUE EL VALOR DE CHI CUADRADO CRÍTICO

• Para determinar el valor crítico se necesita el valor del grado


de libertad y el valor de p que se obtiene :
• p = 1 - nivel de significancia
Ejemplo
• Un investigador conjetura que el uso del cinturón de seguridad
en los conductores, está relacionado con el género, por lo que
realiza una tabla de contingencia utilizando chi cuadrado con
un nivel de significancia del 1%
• Ho: El uso del cinturón es independiente del género
• Ha: El uso del cinturón de seguridad no es independiente del
género

Uso de cinturón de seguridad


Género Si No Total
Femenino 50 25 75
Masculino 40 45 85
Total 90 70 160
Ejemplo
Uso de cinturón de seguridad
Género Si No Total
Femenino 50 25 75
Masculino 40 45 85
Total 90 70 160
Uso de cinturón de seguridad
Género Si No Total
Femenino 50 25 75
Masculino 40 45 85
Total 90 70 160
Uso de cinturón de seguridad
Género Si No Total
Femenino 50 25 75
Masculino 40 45 85
Total 90 70 160

CALCULAR CHI CUADRADO CRITICO


Ejemplo

• Se acepta la hipótesis nula la cuál es: “El uso del cinturón de


seguridad es independiente del género”
Ejemplo
• Se toma una muestra aleatoria de 2200 familias y se les
clasifica en una tabla de doble entrada según su nivel de
ingresos (alto, medio o bajo) y el tipo de colegio a la que
envían a sus hijos. Obteniéndose:

• ¿A un nivel de significancia del 1% hay razón para creer que el


ingreso y el tipo de colegio no son variables independientes?
Ejemplo
• Hipótesis a plantearse son:
• Ho: No hay relación entre el nivel de ingreso y el tipo de colegio
• Ha: Si hay relación entre el nivel de ingreso y el tipo de colegio
Ejemplo
Ejemplo
• Hipótesis a plantearse son:
• Ho: No hay relación entre el nivel de ingreso y el tipo de colegio
• Ha: Si hay relación entre el nivel de ingreso y el tipo de colegio
Ejemplo
• Hipótesis a plantearse son:
• Ho: No hay relación entre el nivel de ingreso y el tipo de colegio
• Ha: Si hay relación entre el nivel de ingreso y el tipo de colegio

Si el valor de la significancia asintótica es menor al valor de


significancia establecido se rechazará la hipótesis nula
Prueba de homogeneidad
• Comprueba si dos o más muestras pertenecen a la misma
población:

• Se extraen muestras independientes de varias poblaciones y


se prueban para ver si son homogéneas con respecto a algún
criterio de clasificación

• Tipo de hipótesis a contrastar:


• Ho: Las muestras son homogéneas
• Ha: Las muestras no son homogéneas
Ejemplo
• Con el fin de probar la efectividad de una vacuna contra cierta
enfermedad, se realizó un experimento utilizando un error del
5% observando a 200 personas, 110 de ellas vacunadas y las
otras 90 sin vacunar, encontrándose:

• Hipótesis a plantearse:
• Ho: La proporción de personas vacunadas que contraen la
enfermedad es igual a la proporción de personas no vacunadas
que contraen la enfermedad
• Ha: La proporción de personas vacunadas que contraen la
enfermedad es diferente a la proporción de personas no
vacunadas que contraen la enfermedad
Ejemplo
Ejemplo
• Ho: La proporción de personas vacunadas que contraen la enfermedad es igual
a la proporción de personas no vacunadas que contraen la enfermedad
• Ha: La proporción de personas vacunadas que contraen la enfermedad es
diferente a la proporción de personas no vacunadas que contraen la
enfermedad
Ejemplo
• Ho: La proporción de personas vacunadas que contraen la enfermedad es igual
a la proporción de personas no vacunadas que contraen la enfermedad
• Ha: La proporción de personas vacunadas que contraen la enfermedad es
diferente a la proporción de personas no vacunadas que contraen la
enfermedad

Error: 5%
=0.05
Ejemplo
• Ho: La proporción de personas vacunadas que contraen la enfermedad es igual
a la proporción de personas no vacunadas que contraen la enfermedad
• Ha: La proporción de personas vacunadas que contraen la enfermedad es
diferente a la proporción de personas no vacunadas que contraen la
enfermedad

Error: 5%
=0.05
Prueba de bondad de ajuste
• Se trata de la comparación de la proporción evaluada en un
grupo, comparada con el parámetro de la población.

• Se utiliza para la comparación de la distribución de una


muestra con alguna distribución teórica que se supone
describe a la población de la cuál se extrajo

• Las hipótesis a contrastar son:


• Ho: Las proporciones de la muestra no difieren de la población (la
variable tiene comportamiento normal)
• Ha: Las proporciones de la muestra difieren de la población (la
variable no tiene comportamiento normal)
Ejemplo
• Se realiza una encuesta nacional para determinar los rangos
de dad de compradores de música pregrabada. Una encuesta
local produjo los siguientes valores:

• ¿Si se trabaja con un error del 5% se tendría que rechazar la


distribución de edades propuestas por la encuesta nacional?
Ejemplo
• Hipótesis planteadas:
• Ho: Los resultados encontrados en la encuesta local no difieren de la distribución por
edades propuesta por la encuesta nacional (los resultados encontrados en la encuesta
local tienen una distribución normal)
• Ha: Los resultados encontrados en la encuesta local difieren de la distribución por
edades propuesta por la encuesta nacional (los resultados encontrados en la encuesta
local NO tienen una distribución normal)
Ejemplo
• Hipótesis planteadas:
• Ho: Los resultados encontrados en la encuesta local no difieren de la distribución por
edades propuesta por la encuesta nacional (los resultados encontrados en la encuesta
local tienen una distribución normal)
• Ha: Los resultados encontrados en la encuesta local difieren de la distribución por
edades propuesta por la encuesta nacional (los resultados encontrados en la encuesta
local NO tienen una distribución normal)

Error del 5%
=0.05
Ejemplo
• Hipótesis planteadas:
• Ho: Los resultados encontrados en la encuesta local no difieren de la distribución por
edades propuesta por la encuesta nacional (los resultados encontrados en la encuesta
local tienen una distribución normal)
• Ha: Los resultados encontrados en la encuesta local difieren de la distribución por
edades propuesta por la encuesta nacional (los resultados encontrados en la encuesta
local NO tienen una distribución normal)

Error del 5%
=0.05
Consideraciones
• Si las frecuencias esperadas en alguna casilla de la variable es
menor a 5, se deberán de hacer una corrección y utilizar otras
pruebas para poder determinar la asociación entre las
variables:

• Regla de decisión para frecuencias esperadas:


t de student
Distribución t

n<30
Distribución
normal

Muestras Muestras
Una sola muestra
relacionadas independientes
Supuestos para el contraste de
medias
La variable cuantitativa debe de distribuirse normalmente

Las varianzas de la distribución de la variable cuantitativas en las


poblaciones de las que provienen los grupos que se comparan deben
ser homogéneas

En cuanto a los supuestos antes mencionados el más exigente es el


de la prueba de normalidad

Para el caso de muestras relacionadas la diferencia entre las dos


variables deberán poseer una distribución normal

En el caso de que no se cumplieran los supuestos entonces se procederá a


pruebas no paramétricas
Muchas gracias por
la atención prestada

Vous aimerez peut-être aussi