Académique Documents
Professionnel Documents
Culture Documents
MIC – Dr. Cristian Papuzinski- 24/08/2018 campana de Gauss, tiene descrita la normalidad
Transcribe: Gabriela Salamanca, Pilar Salas, Eduardo Salgado, Lucas Sanchez
Revisa: Gabriela Salamanca estadística, en una muestra que se distribuya de esta
forma existen probabilidades teóricas de encontrar
cierto porcentaje de la población en relación a ciertas
desviaciones estándar respecto a la media.
GENERALIDADES P VALUE
Como no se puede trabajar con la población se debe tomar una muestra, la cual debiese ser representativa de Se refiere a cuál es la probabilidad de que se esté cometiendo realmente un error tipo 1. La hipótesis
la población, ya que se calcularán datos con respecto a esta muestra que se inferirán al universo o a la nula que dice que no hay diferencias, establece lo que es normal o aceptado, el error tipo 1 consiste en
población, por lo tanto, se utiliza estadística inferencial. rechazar la hipótesis nula o asumir la hipótesis alterna/ H1, pero cuando se equivoca, por lo tanto,
Si existiese la opción de utilizar a toda la población no sería necesaria la estimación, ya que el valor cambiará la realidad, es por ello que el valor de p debe ser pequeño. El valor de p se establece por
encontrado es el valor real. Por ejemplo, si se realiza un censo o una encuesta nacional de salud a toda la convención que no sea mayor al 5% (p<0.05).
población de Chile y se observa que el 25% es hipertenso no es necesario estimar el riesgo de ser hipertenso
SELECCIÓN DE LA PRUEBA IDEAL Existen múltiples formas de presentación:
Cuando se realiza cruce de variables existen distintas alternativas, por ejemplo: • Riesgo absoluto
• Riesgo relativo
• Cruzar una variable categórica con otra categórica • Reducción de riesgo absoluto
• Cruzar una variable cualitativa con una cualitativa • Reducción de riesgo relativo
• Cruzar una variable cuantitativa con una cualitativa. • Razón de disparidad
Para cada una habrá distintos test que permitirán buscar asociaciones entre una u otra. • Número necesario a tratar/ Número necesario a dañar
Control C D C+D
CUALITATIVA-CUANTITATIVA
➢ Ejemplo: Comparar si existen diferencias significativas en el peso de recién nacidos respecto a si la
A+C B+D A+B+C+D
madre fumaba o no durante el embarazo. Se usa la tabla de contingencia tetracórica. Se completa según las letras en cada cuadrante.
o Si la distribución es normal se utilizará T student.
o Si la variable no sigue una distribución normal o el n es pequeño Mann Whitney. RIESGO ABSOLUTO
Es la probabilidad bruta de presentar un evento.
La diferencia entre T student con Mann Whitney es que no se comparará el promedio, sino que la suma de los Se puede calcular a partir de la intervención o de la
rangos de cada uno de los datos de esa muestra, se hace un ranking y se compara buscando si es que comparación.
existen diferencias en ese ranking (Mann Whitney).
El riesgo absoluto podría leerse como: “¿Cuál es la
probabilidad bruta de presentar el evento dado que el
CUANTITATIVA-CUANTITATIVA paciente recibió la intervención?”.
Se utilizan pruebas de regresión o correlación (Pearson). En este caso, es 10/260 [A / (A+B)], lo cual corresponde a 3,85%.
RIESGO RELATIVO
RIESGO
Cuociente de riesgos: es el cuociente entre el riesgo de grupo intervenido y el riesgo de un control.
➢ Ejemplo: Si una mujer fuma y tiene un porcentaje de sus hijos con bajo peso se verá la probabilidad Se trata del estimador más “grande” al reportar los datos, sobreestimando a la intervención. Se debe usar
de tener bajo peso dado que la madre fume, ya que no todo niño con bajo peso tiene una madre que siempre con cautela.
fumaba, es la probabilidad de ocurrencia de un evento dado un factor. A esto se le llama riesgo, en
● Son, probablemente, los que más se usan en la literatura médica, especialmente en metaanálisis.
este ejemplo vendría siendo el riesgo de que el RN tenga bajo peso dado que la madre fumaba. El ● Independiente del riesgo basal 2.
riesgo involucra una definición que puede ser deletérea o beneficiosa, el riesgo es la probabilidad ● Parámetro aplicable a poblaciones con distinto riesgo1.
de ocurrencia de un evento. Generalmente el riesgo tiene una connotación negativa, pero en ● Puede sobrestimar el efecto real de una intervención1.
términos epidemiológicos no tiene ninguna connotación, es por ello que existen factores protectores ● Preferidos por industrias farmacéuticas para promocionar sus productos1.
los cuales se calculan a partir de un “riesgo de”. Se calcula dividiendo los pacientes con el outcome “sí” en el grupo intervenidos, dividido por los pacientes con
outcome “sí” en el grupo no intervenidos.
Este cálculo entregará un valor en torno al 1, el cual se interpreta de la siguiente manera:
1 2
Cuando Fisher crea su test este se calculaba a mano. PPT
● Valores = 1 Outcome es igualmente probable Se nota que sí parece haber una asociación entre el bajo peso y las madres fumadoras, pero el Odds Ratio
en grupos intervenidos v/s no intervenidos. permite conocer el riesgo de tener un niño con bajo peso dado que la mamá fumó. Ese valor es 2.02, en un
● Valores > 1 Outcome es más probable en intervalo de confianza de 1.02 – 3.96.
grupos intervenidos, es decir, el factor estudiado
¿Cómo se interpreta eso? “Es 2,02 veces más probable que nazca un niño bajo peso de una mamá fumadora
es de riesgo.
que de una no fumadora. Esto en un rango donde la diferencia puede estar entre 1,02 a 3,96”.
● Valores < 1 Outcome es menos probable en grupos intervenidos, es decir, el factor estudiado es
protector. REDUCCIÓN DEL RIESGO RELATIVO (RRR)
El riesgo relativo suele usarse en estudios prospectivos, como los de cohorte y los ensayos clínicos. Esta, junto con la reducción del riesgo absoluto, son mucho menos usadas.
ODDS RATIO O RAZÓN DE DISPARIDAD Es la diferencia de tasa de eventos en 2 grupos, expresada como proporción relativa de esta en
relación con el grupo control.
Es una herramienta para estimar el riesgo (odd = probabilidad).
Es independiente del riesgo basal sin tratamiento:
● También se le llama “razón de productos cruzados”, en relación con cómo se calcula
● Es similar al cálculo de riesgo relativo en cuanto a su interpretación, pero NO se trata de riesgos. ● Sobreestima el riesgo cuando los eventos
● Muy utilizados en estudios retrospectivos y como parte de análisis multivariado. a tratar son muy raros.
− Los estudios retrospectivos no pueden estimar causalidad ● Subestima el riesgo cuando los eventos a
− Forman parte habitual del análisis de regresión tratar son muy frecuentes.
Se calcula como “los pacientes con el evento en el grupo intervención(A)” partido por “pacientes sin el evento Se calcula de la siguiente forma:
en el grupo intervención(B)”. Los anterior se divide por Se usa la fórmula de arriba, sin embargo, cuando
“pacientes con el evento en el grupo control (C)” partido por el factor es protector, se puede calcular
“pacientes sin evento en el grupo control (D)”. simplemente como “1 – RR” (fórmula de abajo).
Lo anterior quedaría como “(A/B) / (C/D)”, lo que corresponde a
una razón de productos cruzados, y se representa con la REDUCCIÓN DEL RIESGO ABSOLUTO (RRA)
siguiente fórmula simplificada Es la diferencia en la tasa de eventos de un grupo control v/s la de un grupo experimental.
STATA
A continuación, se muestran ejemplos de los indicadores vistos antes: La comparación entre RRR y RRA tiene las
siguientes diferencias:
En las tablas se muestran dos variables cualitativas: tabaco y
bajopeso. En la Tabla (1) se ven las frecuencias absolutas de
cada uno en relación con el total de sujetos estudiados, además (No se usan mucho en estadística).
de las frecuencias relativas y relativas acumuladas.
Son importantes en el momento en que la
El peso aquí está categorizado y se ha pasado de cuantitativo a industria utiliza esos valores para
cualitativo. sobreestimar la eficacia de una
Luego, se puede hacer una tabla más grande, que es la Tabla (2), intervención.
para calcular un valor de estimación, si existen o no diferencias. Como se habla de “reducción de riesgos”, si
Para eso se utiliza el test exacto de Fisher. algo reduce mucho, podría ser muy bueno,
Y, suponiendo que este estudio fuera un Casos y Controles, pero también podría no ser así. Eso depende
podría calcularse un Odds Ratio, en la Tabla (3), que da la mucho del valor absoluto.
estimación (Point Estimate). Eso puede ejemplificarse en el siguiente
(1) Frecuencias de variables tabaco y bajopeso.
ejemplo:
La RRR del Estudio 1 v/s la del Estudio 2 es de
25%. Es igual. Sin embargo, la RRA del segundo
estudio es mucho menor, pues pensándolo en
números absolutos, fue menor lo que redujo del
riesgo.
¿Qué intervención es más eficaz desde el punto
de vista de cantidades? El Estudio 1.
En chile se tiene una visión utilitarista de las políticas sanitarias, en el sentido de que se busca entregar la
mayor cantidad de cobertura a la mayor cantidad de personas posibles, por lo que se busca una enfermedad
de alta prevalencia o que por una revuelta mediática se ven forzados a la hora de invertir.
1
Una constante es lo que no tiene capacidad de variar
1
3
El implante coclear fue finalmente incluido durante la reforma a la Ley Ricarte Soto en el año 2015
TIPOS DE ANÁLISIS EST ADÍSTICOS Por ejemplo, el valor de sodio normal se encuentra entre 135-145 mEq/L. Si el dato <135mEq/L, se
denomina “hiponatremia”, y si es >145 mEq/L, sería “hipernatremia”. Entonces, si tenemos una variable
Existen dos tipos: cuantitativa que sea de 0-135 podría considerarse como “hiponatremia”, y >135 como "no hiponatremia". O
también podrían ser crearse tres categorías:
ANÁLISIS ESTADÍSTICO DESCRIPTIVO
1. <135 mEq/L= "hiponatremia" 2. Entre 135-145 mEq/L="normal" 3. >145 mEq/L= "hipernatremia"
- Deriva de la aritmética de estado
- Busca describir la información disponible acerca de lo investigado
Estas corresponderían a “variables cualitativas ordinales”. A estos rangos se les denomina “clases”. Ahora
- Resume, clasifica y presenta las variables estudiadas.
bien, para crear estas clases, la regla más importante es que un dato específico solo puede estar contenido
- No formula ninguna hipótesis.
en una sola clase. El número de clases que se quiera hacer queda a criterio del investigador, no hay restricción
en este punto. Entonces, para tabular los datos se requiere primero elaborar “clases”.
ANÁLISIS ESTADÍSTICO INFERENCIAL
- Busca relaciones a partir de los datos descriptivos Ahora, cuando no hay un criterio clínico para establecer una división, hay algunas reglas que se puedan usar,
- Busca determinar si lo encontrado en comparaciones de la información es relevante como emplear "la raíz del número de datos que se tengan" para conocer la cantidad de clases a usar (no suele
- Utiliza múltiples pruebas descritas usarse mucho). Por ejemplo, si hay 100 datos, entonces estos deberían estar divididos en al menos 10 clases
- Ofrece afirmaciones basadas en probabilidades (raíz cuadrada de 100). Esto es solo una regla de formato, por lo tanto, no es primordial usarla. Lo más sencillo
es usar el criterio clínico para establecer una división, y si no lo hay mejor analizarlo como dato cuantitativo en
El análisis inferencial nunca tendrá 100% de certeza en sus conclusiones, ya que nunca se trabaja con el vez de transformarlo a cualitativo.
universo completo, debido a que por definición el universo es inabarcable. En algunas ocasiones, cuando se
posee muchos recursos se puede trabajar con toda una población, pero aun así la conclusión estaría limitada a MEDIDAS DE TENDENCIA CENTRAL
solo la población estudiada. Habitualmente se trabaja con una muestra . Respecto a cómo se describen los datos cuantitativos, se debe buscar un dato que represente adecuadamente
a la muestra completa. Para esto, se recurre a una serie de herramientas que se denominan medidas de
ESTADÍSTICA DESCRIPT IVA: PARA MOSTRAR UN REALIDAD tendencia central, dentro de las que se encuentran:
MEDIDAS DE DISPERSIÓ N.
8
Datos parecidos tienen medidas de dispersión pequeñas, y datos muy diferentes medidas de dispersión grandes (PPT).
9
No confundir con el "recorrido intercuartílico", que es la distancia que separa estos dos valores (p25 y p75). El rango
intercuartílico son específicamente estos dos valores.
4 5
HISTOGRAMA DE FRECUENCIAS CONTRASTE DE HIPÓTESIS
Consiste en poner a 2 ideas mutuamente excluyentes. Se utiliza para determinar los valores p.
Se disponen los datos como en una curva normal y se usa
para evaluar la distribución de datos cuantitativos, no para ● 𝑯𝟎 10: hipótesis de nulidad; no hay ninguna asociación en lo que se está estudiando, y lo que se ve es
mostrar la variabilidad de un dato cuantitativo (aunque se
atribuible al azar.
podría deducir, no es su objetivo, para eso está el box plot).
● 𝑯𝟏 : si hay diferencias entre los grupos, y las diferencias NO son atribuibles al azar.
Comando para Stata: histogram variable, normal (para ver Para determinar cuál es correcta, se utiliza el valor p: probabilidad de que el evento observado sea atribuible
si es una distribución normal o no). al azar, asumiendo que la hipótesis nula es cierta.
Por lo tanto, si, por ejemplo, se tiene que p=0.30, quiere decir que el evento pasa en un 30% de oportunidades
al azar asumiendo que 𝐻0 es cierta. Como 30% es frecuente, se prefiere asumir que 𝑯𝟎 sigue siendo
verdadera.
GRÁFICO DE PUNTOS (DE CORRELACIONES) El valor de corte para rechazar 𝑯𝟎 , por convención, es de p<0.05 (5%). O sea, el evento sucede 5% de las
Se usa para buscar una asociación entre 2 datos veces al azar asumiendo que no hay asociación, y es lo suficientemente improbable como para aceptar 𝑯𝟏 .
cuantitativos. Es un paso previo a toda prueba de Esto se llama Paradigma frecuentista de interpretación de un valor p, basado en la frecuencia11. Aun así, existe
correlación (Pearson y Kendall, las que SOLAMENTE la posibilidad de que NO haya asociación, la cual es muy baja. En caso de que eso suceda (que se acepte algo
buscan relaciones lineales entre variables). como significativo cuando no lo es), se está frente un error tipo I.
Siempre hacer un gráfico de puntos antes de hacer una El valor corte para escoger una hipótesis frente a la otra es el valor 𝛼, que se establece como un umbral.
correlación.
● Todo lo menor a 𝛼 es muy improbable, por lo que se acepta que la 𝑯𝟏 es verdad.
Comando stata: scatter variableY variable x ● Este valor no siempre es 0.05; se puede trabajar con menos si se quiere ser más estricto, pero en
general no puede ser mayor a él (por convención, y por lo tanto un estudio con un 𝛼>0.05 no será
ESTADÍSTICA INFERENC IAL publicado).
El azar determina la mayoría de las cosas de la vida, y la estadística inferencial se encarga de excluir ● Esto también representa el punto de corte de probabilidad de estar cometiendo un error tipo, o sea,
razonablemente su rol en la investigación. Esto abre la puerta para hacer asociaciones y luego determinar que la 𝑯𝟎 siga siendo cierta, pero que el experimento haya dado con un falso positivo.
la causa de los eventos que suceden. Como no se trabaja en el universo completo, las afirmaciones que se No se puede saber, en un estudio específico, si su resultado fue realmente un falso positivo. Lo que se calcula
hacen están basadas en probabilidades, con un cálculo de posibilidad de estar equivocadas, esto quiere decir con el valor p la probabilidad de equivocarse, pero no asegura que la afirmación del estudio sea correcta. Sin
que nunca habrá un 100% de certeza en lo que se afirme. embargo, si bien no es posible determinar que un estudio en específico presentó un error aleatorio, se puede
confirmar el resultado si este es replicable y similar en otros estudios.
Para determinar estas probabilidades, se utilizan pruebas de inferencia estadísticas, para las cuales es
necesario saber de antemano el tipo de variable y la distribución de los datos (en caso de haber variables
cuantitativas). Ambos factores serán explicados más adelante.
EJEMPLO “VALOR DE P”
INFERENCIA ESTADÍSTI CA
Trabajo realizado por el Dr. en pediatría. Este estudio se hizo para determinar la efectividad del diagnóstico
- Se tiene una población inicial, y se trabaja con una pequeña parte de ella, la cual se debe hacer lo posible
de pielonefritis aguda (PNA), ya que la clínica en los niños no es tan clara como en adultos (la fiebre, que en
para asegurarse que represente fielmente el universo.
los adultos es un indicador de gravedad, en los niños es inespecífica, y un niño que llora a la puño percusión
- Para describir esta muestra, se utilizan estadísticos, estadígrafos, o estimadores (o sea, estadística
podría estar haciéndolo por otra causa que no sea el dolor).
descriptiva).
- La estadística inferencial, por su parte, va más allá, y en ella se extrapolan datos hacia poblaciones externas Por ello, en pediatría se toma una batería de exámenes que reflejan inflamación en el paciente, y, debido a
a la muestra inicial: eso se llama inferencia estadística. Esto se hace a través de que la PNA es una situación grave, estos parámetros deberían estar muy elevados.
● Valor p.
● Estimación de un parámetro: valor de alguna variable de la muestra, pero que aplica a la población.
Por ejemplo, si el promedio de edad de una muestra es 60 años, se obtiene a partir de ella el parámetro
de edad, o sea una estimación para el resto de la población (Ej: entre 58 y 62 años). Esto es una
estimación por intervalo de confianza. 10
La definición real de hipótesis nula es todo lo que esté aceptado en el conocimiento, y no necesariamente que no hay
asociación.
11
Existe el paradigma bayesiano, de probabilidad condicional, sobre el cual no se ahonda.
6 7
Se utilizó el Gold standard para el diagnóstico de PNA, (cintigrama con ácido dimercaptosuccínico [DMSA]) para estas pruebas, 𝑯𝟎 es que no difiere de la normalidad, y 𝑯𝟏 sí. Por lo tanto, un p no significativo indica
determinar los 2 grupos: quienes tienen PNA, y quienes no. Luego se obtuvieron los datos de medias y que la distribución es paramétrica, y un p significativo indica que no lo es.
desviaciones estándar de la batería de exámenes (PCR, VHS, y RGB), los cuales indicaron que:
TIPOS DE VARIABLES
● Aquellos pacientes con PNA tienen valores más
altos en la PCR, con p<0.001. Esto significa que la CUALITATIVA - CUALITATIVA
posibilidad de observar esa diferencia, y que
Escenario más común en investigación clínica12. Se utilizan:
esta sea por azar es menor al 0.1%, asumiendo
que 𝑯𝟎 (no hay relación entre la PCR y el a.- Prueba de Chi-cuadrado: tiende a equivocarse cuando:
diagnóstico de con o sin PNA) es verdadera. Por
lo tanto, se prefiere asumir que 𝐻1 (existe relación ● El tamaño muestral es pequeño.
entre la PCR y el diagnóstico de PNA) es verdadera, ● Alguna de las celdas tiene un n<513.
donde la posibilidad de estar equivocado es menor a 0.1%. b.- Prueba exacta de Fischer: como su nombre lo indica, es mucho más exacta en comparación. Inicialmente
● Aquellos pacientes con PNA tienen valores más altos de VHS, con p<0.001. se diseñó para tamaños muestrales pequeños (debido a la dificultad de su fórmula con un n muy elevado),
● Aquellos pacientes sin PNA tienen valores más altos de RGB, con p=0.30. pero hoy en día se puede calcular fácilmente en programas de computador.
Eso significa que hay una posibilidad de 30% de que el resultado haya ocurrido por azar, por lo tanto se
Fischer no requiere que haya una tabla de 2x2, y puede utilizarse a cualquier cantidad de grupos (2x3, 3x3,
rechaza la asociación.
etc). Sin embargo, si el valor p es significativo, no determina entre cuáles grupos se presenta la relación.
ELECCIÓN DE LA PRUEBA ESTADÍSTICA
Para eso se utilizan subpruebas adicionales. En la práctica, los
grupos con la diferencia más grande son sí o sí los
Para la correcta decisión, se tiene que tener en cuenta relacionados.
● Los tipos de variable (cuantitativa/ cualitativa). Ejemplo: estudio BAFTA, en el que se demostró que era mejor
● La distribución de los datos. utilizar warfarina en relación a AAS para la prevención de
accidente cerebrovascular (ACV), en pacientes en tratamiento
DISTRIBUCIÓN DE LOS DATOS por fibrilación auricular (FA). Como ambas variables son
Si bien hay muchas distribuciones (normal, geométrica, cualitativas (tratamiento con warfarina/ AAS y
hipergeométrica, de Poisson, binomial, etc), se dividen en presencia/ausencia de ACV), se utilizó una prueba de Chi-
aquellas que son: cuadrado, que determinó un p<0.01.
● Gaussianas (normal)
CUALITATIVO-CUANTITATIVO
● No gaussianas
- Es frecuente de encontrar.
Las características de una distribución normal son:
- Permite efectuar comparaciones entre variables numéricas y un outcome dicotómico.
- Curva con forma de campana, simétrica a los dos lados. - Es usado en escalas de riesgo y mortalidad
- La media, mediana y moda están en un mismo punto. - Se necesitan saber 2 elementos: Si es cualitativo o cuantitativo y como se distribuye, si es normal o no.
- Ciertos puntos de inflexión se relacionan a percentiles específicos.
PARA DETERMINAR SI ES PARAMÉTRICA:
Para determinar si una distribución es normal, se plantea la Teoría central del límite. Esta dice que si se alcanza a. Si el estudio tiene más de 30 individuos por grupo, sigue la normal siendo paramétrico. Las variables de
un tamaño muestral suficientemente grande, la distribución que rige a todo lo cuantitativo que provenga de ella, tiempo jamás se deben distribuir en normales por más de que los individuos del estudio superen los 30
va a seguir una distribución normal. Por lo tanto, sólo es necesario que la individuos.
muestra sea lo suficientemente grande, el cual fue establecido como b. Puede utilizarse el histograma
n>20, aunque en medicina, por los altos grados de variabilidad, se c. Pruebas de distribución (generan falsos + y falsos-, por tanto, no es recomendable su uso)
establece que n debe ser mayor a 30 por grupo.
En caso de n<30, se debe recurrir a:
● Histograma de frecuencias: se observa y se decide si parece o no
una distribución normal (imagen).
12
● Pruebas estadísticas: pruebas de Kolmogórov-Smirnov, Shapiro- Debido a que la mayoría de los estudios en este contexto corresponden a aquellos de tratamiento vs resultado (ambas
variables cualitativas).
Wilk, y D’Agostino. No son muy fiables, ya que se ven muy 13
Existe la corrección de Yates, que intenta solucionar estos problemas de Chi-cuadrado, pero Fischer sigue siendo
afectadas por el tamaño de la muestra. Se establece que al realizar superior.
8 9
✓ Si la distribución es normal se utilizará la prueba de ese entonces dio super significativo, por tanto, significa que no distribuye normal, porque la H=0 indica que
T de Student existe una distribución normal y la H=1 o alterna indica que no es normal, entonces con ese valor de P no es
✓ Si la distribución no es normal se utilizará la prueba normal.
de Mann Whitney.
Como el grupo no es normal se debe utilizar otro tipo de prueba, pudiendo ser de Mann Whitney o de
La utilización de ambas pruebas se da en el 95% de los casos Wilcoxon, dependiendo si es una muestra por pareo o no. Como se está comparando a pacientes vivos con
cuando se trabaja con dos grupos que no están relacionadas pacientes fallecidos no se está comparando pacientes vivos entre sí, ni muertos entre sí. Por lo tanto, son
entre sí, pero en epidemiologia, se ha creado un tipo de muestras independientes siendo su distribución no normal, por lo que se hizo la prueba de Mann Whitney y
muestreo por pareo, que consiste en que a cada expuesto que solamente resulto significativo para el último valor de P (0.019) significando que, los pacientes que
se tenga, se le asigna un control que se parezca de manera sobrevivían poseen una PCR mayor que los pacientes que fallecían, en teoría se dice que las personas
artificial, cosa de reducir las variables de confusión. más inflamadas son las que fallecen, por ello, se explicó de diversas formas el posible. Se siguió el estudio y
se publicó cuando se alcanzó un n = 200 pacientes, la P desapareció ya que se hizo no significativa, dándose
Cuando la muestra esta pareada y sigue siendo paramétrica, se usa la T de Student, pero existe una variante un error tipo 1 porque no estaba descrito.
que es para muestra pareada ya que la T de Student le cuesta menos encontrar una p significativa porque la
reducción de la variabilidad te lleva a considerar como anormal o muy poco frecuente cosas muy pequeñas. Si existen más de 2 grupos se debe determinar si se
distribuye normal o no,
EJEMPLO 1
Supongamos que se está estudiando cáncer renal y se quiere saber si el tamaño del tumor se asocia a ✓ Si se distribuye normal se realiza la prueba de
pronostico. Existen muchos factores que se asocian a pronostico como la edad, morbilidades, etc. Si se quiere Anova.
hacer un estudio así, mediante un muestreo por pareo, entendiendo que la edad y otros elementos van a influir ✓ si no distribuye normal se utiliza la prueba de
en que el paciente viva o muera, se debería tener a un paciente hombre de 65 años que tiene un tumor de 5 kruskall y Wallis.
cm (esa es la variable que interesa) y que es diabético, si se hace un grupo control se debe tener a un paciente
con un tumor más pequeño o que tenga un tumor renal o bien, un paciente que tiene un tumor renal, que sea
hombre de 65 años, y que también sea diabético, de esta manera se tiene pareja la situación y se puede evaluar CUANTITATIVO-CUANTITATIVO
los otros factores de riesgo, obteniéndose un muestreo por pareo.
• Es más raro de ver. Más bien usadas en estudios de pronóstico y de pruebas diagnósticas.
EJEMPLO 2 • Ocurre cuando se quiere asociar dos variables cuantitativas
Otra manera de que eso ocurra automáticamente es que sea la misma persona que cada cierta cantidad de • Suelen ser exámenes de laboratorio, por ejemplo, glicemia con colesterol y hemoglobina con carga viral
en VIH.
tiempo sea evaluada. Ejemplo: se tiene a un deportista de alto rendimiento y usa eritropoyetina para mejorar su
• Existen dos pruebas que son las más usadas:
rendimiento. Su hematocrito inicial de 40% y al inyectarse eritropoyetina, volviéndose a medir esta a la semana - Prueba de correlación de Pearson: Busca una relación lineal entre dos variables cuantitativas. Se
siguiente, posee un hematocrito de 50%. Como es la misma persona antes y después de la eritropoyetina la puede usar siempre y cuando la distribución sea normal, por lo tanto, se debe tener más de 30
variabilidad está reducida y se considera automáticamente pareada observaciones.
- Prueba de correlación de Kendall: Se utiliza cuando la distribución de los datos cuantitativos no
Si se está con un muestreo pareado y la distribución no es normal se utilizará la prueba de Wilcoxon sigue una distribución normal o con variables ordinales.
INTERPRETACIÓN Y EJEMPLO
CUANTITATIVO-CUANTITATIVO
Volviendo al estudio de la PCR, en la imagen se puede ver las Además del p value que dice "esto es estadísticamente
fórmulas del ingreso a las 24 y 48 horas entre pacientes que significativo o no", se informa un coeficiente de
sobrevivieron y fallecieron. Se tienen desviaciones estándar correlación. En el caso de Pearson es “r de Pearson” y
con los promedios de ambos grupos. Se tiene que la PCR es en el caso de Kendall es “Tau de Kendall” 14. Los dos se
una variable cuantitativa (porque es medible) y la variable vida leen igual.
o muerte es de tipo cualitativa entonces, lo que falta es
determinar si se sigue la normal o no, para ello se evaluará El coeficiente de correlación es la dirección de la
viendo el n de cada grupo; el grupo de pacientes asociación lineal que existe entre las dos variables y la
sobrevivientes tiene un n= 55 personas por ende sigue la fuerza que tiene.
normal. En el caso de los fallecidos, su n= 27 por ende no • 0: no hay ninguna relación lineal entre las dos variables.
sigue la normal. Lo que se debió haber hecho en el grupo de • +1: hay una relación directa perfecta entre las dos variables.
pacientes fallecidos es ver si de verdad la distribución era
normal mediante un histograma de frecuencia. El P value en 14
Existen dos: a y b.
10 11
• -1: hay una relación inversa perfecta entre las dos variables • Para encontrar un error tipo 1 se tiene que haber encontrado un p value significativo
Mientras más extremo de 0 más potente la asociación. Los puntos de corte son muy discutidos. En general en
medicina <0,3 es “penca”, entre 0,3-0,5 más o menos, entre 0,5-0,7 y 0,7-0,9 es mejor, >0,9 es muy bueno y 1 ERROR TIPO 2 ( β)
perfecto. • Significa que se pasó algo por alto
• No rechazar la hipótesis nula cuando esta era falsa, es decir, considerar algo como no
Entonces, además de decir si es por azar o no, esta prueba también indica que tan fuerte es la asociación. estadísticamente significativo siendo que en realidad si lo era.
• Es menos grave que cometer un error α. Si se comete un error α se cambia el paradigma con el cual
se está entendiendo alguna enfermedad o proceso y se podría hacer teorías nuevas, mientras que, con
Ejemplo 1: La relación entre la glicemia de ayunas con la hemoglobina glicosilada es de 0,84. Quiere
el β, se dejan las cosas tal y cual como estaban.
decir que hay relación directa importante y fuerte entre las dos variables. Esto no quiere decir que por • Habitualmente no se trabaja con el concepto de β, sino que, al revés. Es decir, con la probabilidad que
cada punto que sube la glicemia, la glicosilada sube 0,841 ya que la prueba de correlación simplemente tiene el estudio de encontrar lo que se plantea que se tiene que encontrar.
busca informar la fuerza de asociación entre dos variables. • Dicho de forma más simple: el estudio en vez de trabajar con la posibilidad de no encontrar algo, trabaja
con la posibilidad que tiene de encontrarlo, lo cual será el inverso de β (1 – β).
• Como beta es 20% máximo por consenso, 1 – β es 0,8. Es decir, 80% es la mínima potencia con la que
Ejemplo 2: Hemoglobina con CD4 en paciente con VIH. Se ve una relación inversa negativa -0,136. Existe se puede trabajar.
relación entre las dos, pero es de poca relevancia clínica. • ¿Qué significa ese 80%? → “Cuando se diseña un estudio se debe tener al menos un 80% de
posibilidades de encontrar lo que piensa que se va a encontrar”.
• Para que un estudio cometa un error tipo 2 tiene que haber encontrado un p value no significativo.
ERROR Y CONTRASTE DE HIPÓTESIS
RESUMEN
Siempre que se trabaja con pruebas de hipótesis existe una probabilidad de error:
• La estadística es una herramienta vital en el análisis científico. Hay que saber leerla y entenderla, no
• Cuando se acepta H0 (p>0.05) está la probabilidad de necesariamente desfragmentarla y crearla de nuevo.
que existan diferencias. • La estadística descriptiva quiere mostrar la realidad, mientras que la inferencial permite establecer
• Cuando se acepta H1 (p<0.05) está la probabilidad de explicación a lo observado.
que no existan diferencias.15 • La estadística inferencial ofrece afirmaciones probabilísticas, nunca van a tener un 100% de certeza
Cuando se trabaja con muestras puede haber porque nunca trabajan con el universo.
equivocaciones al tomar una conclusión que afecte a la • La selección de la prueba es muy importante para saber calcular el valor p, para eso se necesita saber
población. En base a la investigación realizada, nunca se va el tipo de variable con la cual se está trabajando y si es cuantitativa, saber cómo se distribuye.
a poder saber si se cometió un error o no, pero sí se puede
saber la probabilidad de haberlo cometido.
• El error aleatorio es un error impredecible, por azar y deriva de haber trabajado con una muestra en
lugar de una población o universo. La mejor manera de corregirlo es aumentar el tamaño muestral
porque mientras más muestra se tiene más se parece a la población.
• Los sesgos o errores sistemáticos son producidos por defectos en el diseño de estudio, pudiendo
invalidarlo, son predecibles, corregibles y controlables. Existen varios subtipos.
ERROR TIPO 1 ( α )
• Consiste en rechazar la hipótesis nula cuando es cierta, es decir, en la práctica considerar algo como
estadísticamente significativo siendo que en la realidad de la población no era una tan importante.
• Es inherente a trabajar con inferencia estadística.
• Es poco probable pero no imposible.
• Por consenso se estima un valor crítico de ocurrencia de esta posibilidad en 5%
15
PPT
12 13