Académique Documents
Professionnel Documents
Culture Documents
0. INTRODUCCIÓN
Una de las propiedades más importantes de un método analítico es que debería estar libre
de errores sistemáticos. Esto significa que el valor dado para la cantidad de analito debería ser el
valor verdadero. Esta propiedad de un método analítico se puede contrastar al aplicar el método a
una muestra de ensayo estándar que contenga una cantidad conocida de analito. Sin embargo,
incluso si no existieran errores sistemáticos, los errores aleatorios hacen poco probable que la
cantidad medida sea exactamente igual que la cantidad patrón conocida. Para deci dir si la diferencia
entre la cantidad medida y la cantidad conocida se puede atribuir a estos errores aleatorios, se puede
aplicar una prueba estadística denominada contraste de significación. Esta aproximación contrasta si
son significativas las diferencias entre los dos resultados, o si se pueden justificar sólo por variaciones
aleatorias. Los contrastes de significación se utilizan ampliamente en la evaluación de los resultados
experimentales.
1
Supóngase, por ejemplo, que se investiga la orina de un deportista bajo la sospecha de que
ha incurrido en dopaje. Sobre el espectro de masas aparece un pico de altura x i = 0,9. Para saber si ha
habido dopaje es necesario decidir si dicho pico es significativo, o si se trata de una desviación
anormalmente alta de la línea base. Tomando la línea base como valor de referencia igual a cero, la
hipótesis nula es Ho: x i = 0. Si en un estudio aparte se ha establecido la desviación estándar de la
línea base, cuyo valor es σ = ±0,5, entonces el valor tipificado de x i es zi = 1,8. Por otro lado, se habrá
tomado la decisión de rechazar Ho para un cierto porcentaje de casos extremos, αc · 100%.
Supóngase que se adopta como límite de decisión α c = 0,05, esto es, Ho se rechazará
equivocadamente, como máximo, para el 5% de los casos. Dichos casos extremos (ver UT2) son los
que están más allá de z = 1,64, que es el valor de z a cuya dere cha se encuentra el 5% del área bajo la
curva. Puesto que zi = 1,8, la probabilidad de que Ho, siendo cierta, se rechace incorrectamente, es
menor del 5%. Por tanto, se rechaza Ho, esto es, el dopaje queda demostrado con un nivel de con-
fianza del 95%.
2
2. ERRORES α Y β.
Cuando la hipótesis nula, siendo cierta, se rechaza incorrectamente, se dice que se comete
un “error α” o de “tipo I”. La probabilidad de incurrir en un error a es igual al nivel de signifi cación
observado. En el ejemplo del dopaje, si z i = 1,8, el error a es del 3,6%. Análogamente, si se adopta
como límite de decisión α c = 0,05, el error a del caso crítico es del 5%. En el ámbito de los ensayos de
laboratorio, el error a es la probabilidad de incurrir en un “falso positivo” cuando se quiere verificar
la ausencia de un analito. Por ejemplo, se decide que el deportista se ha dopado cuando en realidad
no es así, o que el paciente está enfermo cuando en realidad no lo está, o que se ha vertido un
contaminante al ambiente cuando no es cierto, etc.
El error contrario, aceptar Ho cuando en reali dad es falsa, se denomina “error β” o de “tipo
II“. El valor del error β depende del valor de a con el que se tome la decisión de aceptar o rechazar
Ho, y también del valor o valores que realmente ten gan los parámetros poblacionales desconocidos
cuyos estimadores se están comparando. En la figura siguiente se esquematiza esta situación para el
caso de la comparación de una medida cualquiera con una media muestral, Ho: x i = X. La variable se
ha tipificado de modo que X = 0 y s = ±1. Para un nivel de significación de α c = 0,05, el límite de
decisión se encuentra en el valor crítico zc = 1,64.
La parte superior de la figura representa el caso de que Ho sea en realidad cierta. Puesto que
Ho se rechaza para cualquier medida que caiga a la derecha de este límite, el error a es del 5%.
La parte inferior de la figura representa el caso de que Ho sea en realidad falsa, y de que el
valor verdadero de la magnitud, el que se obtendría repitiendo las medidas un elevado número de
veces, sea mayor que z c = 1,64, tal como por ejemplo z i = 3,13. Las medidas presentarían una
distribución en torno a z v, tal que un cierto porcentaje de las mismas caerían a la izquierda de la línea
3
decisoria zc = 1,64. Dicho porcentaje corresponde al área subtendida bajo la curva a una distancia por
debajo de zv de valor 3,13 - 1,64 = 1,49. Dicha área es β = 0,068 = 6,8%. En el ámbito de los ensayos
de laboratorio, el error β es la pro babilidad de incurrir en un “falso negativo”: no se acepta el dopaje
cuando en realidad sí lo hubo, no se acepta la presencia del contaminante cuan do en realidad sí hubo
vertido, etc.
Observando la figura anterior se advierte que para una muestra con un valor dado de z v el
error β aumenta cuando se reduce el error α, y vice versa. Salvo si existe una especial razón en contra,
suele adoptarse el valor de compromiso αc = 0,05, si bien el valor αc = 0,01 es también muy habitual.
Se adoptan valores bajos de α c cuando rechazar Ho puede acarrear consecuencias graves. Así, en el
ejemplo del dopaje la decisión de rechazar Ho implica una sanción con consecuencias graves para la
vida profesional del deportista, por lo que es probable que Ho se compruebe con α c = 0,001, lo que
implica un riesgo de falso positivo del 0,1%. El riesgo de tomar una decisión equivocada es mucho
menor si el resultado se comprueba con otro método.
4
3. LA HIPÓTESIS ALTERNATIVA.
a) H1 de dos lados o dos colas: los parámetros que se comparan son distintos.
b) H1 de un lado o una cola: un parámetro es mayor que el otro no siendo posible el caso inverso, en
el que dicho parámetro sea menor que el otro.
- Para el ejemplo del dopaje, sólo es posible la hipótesis alternativa, H 1: xi > 0, puesto que es
absurdo el caso contrario, que correspondería a un pico negativo sobre el espectro. El ensayo
que se ha aplicado en los apartados anteriores es el de un lado.
- Si se comparan las varianzas obtenidas al aplicar el mismo método a la misma muestra en dos
laboratorios distintos, puesto que no hay ninguna razón por la que uno de los laboratorios
deba obtener resultados más precisos que el otro, el ensayo es el de dos lados. Se tiene H1: s1
≠ s2.
5
- En un estudio ambiental se desea saber si las concentraciones de contaminantes y nutrientes
han variado con respecto a las observadas el año anterior. Puesto que es igualmente
probable que las concentraciones aumenten o disminuyan, el ensayo adecuado para
comparar las medias de dos años consecutivos es el de dos lados. Se tiene H 1: X1 ≠ X2.
- Para el mismo ejemplo anterior, se quiere saber si con la puesta en funciona miento de una
depuradora de aguas residuales se ha conseguido reducir la contaminación. Si existen
razones suficientes para creer que la contaminación no puede haber aumentado por otras
causas, el ensayo a aplicar es el de un lado, H 1: X1 > X2, siendo X1 la media del año anterior a
la puesta en marcha de la depuradora.
6
Finalmente, la comparación de la varianza observada con una varianza de referencia permite
comprobar la calidad o estado de conservación de la instrumentación científica, o también, la calidad
de los procedimientos de análisis y su correcta puesta a punto en un laboratorio dado. En estos casos,
el ensayo es de un lado puesto que no se espera que la varianza hallada sea mejor que la de
referencia, sino tan sólo que no sea peor. Por ejemplo, si se quiere saber si la incertidumbre de un
instrumento se encuentra dentro de sus especificaciones, la hipótesis alternativa es H1: s2 > sr2, siendo
sr2 la varianza de referencia indicada por el fabricante.
La hipótesis nula para rechazo de resultados anómalos o atípicos, x*, es Ho: x* = X, siendo H1:
x* ≠ X. Salvo en casos especiales, muy poco frecuentes, los ensayos de rechazo de datos anómalos
son de dos lados. Es así porque el dato anómalo tiene la misma probabilidad de produ cirse hacia el
extremo inferior que hacia el extre mo superior de la serie. Rechazar Ho equivale a afirmar que el dato
no es representativo de esa población, por lo que su eliminación de la mues tra mejora los
estimadores X y s.
7
4.1. ENSAYO ks.
8
4.3. CONTRASTE DE GRUBBS.
Otro contraste utilizado frecuentemente para datos anómalos es el contraste de Grubbs, que
compara la desviación entre el valor sospechoso y la media muestral, con la desviación estándar de la
muestra. Este contraste lo recomienda ISO preferiblemente al de Dixon.
Para usar el contraste de Grubbs para un valor anómalo, todas las medidas proceden de la
misma población, se calcula el estadístico G:
Go = /x* - X/ / s
El contraste supone que la población es normal. Los valores críticos de G para α = 0,05 están
en la tabla siguiente. Si el valor Go supera al valor crítico G c, se rechaza la hipótesis de que el dato
sospechoso no es anómalo.
9
4.4. CONSIDERACIONES SOBRE EL RECHAZO DE DATOS ANÓMALOS.
Es importante tener en cuenta que para un nivel de significación del 5% hay todavía un 5% de
riesgo, o 1 de cada 20, de rechazar incorrectamente el valor sospechoso. Esto puede tener un efecto
considerable a la hora de estimar la precisión de un experimento.
Es de gran importancia ser cauto al rechazar datos anómalos. Cuando las medidas se repiten
solo unas pocas veces (lo que es normal en un trabajo analítico), el rechazo de un valor origina una
gran variación sobre la media y sobre la desviación estándar. En concreto, el hecho de tomar tres
medidas y rechazar la que difiere más de las otras dos debe evitarse. Se puede demostrar que se
obtiene una estimación más fiable de la media, en promedio, utilizando la mediana que utilizando la
media de os dos que no fueron rechazados.
10
El valor calculado es inferior al crítico para α = 0,05. Claramente el posible valor anómalo ha
sido enmascarado por el otro valor anómalo posible (2,9), dando un valor de Q pequeño. Una
situación diferente sería la b), donde los datos sospechosos están en lugares opuestos del conjunto
de datos. Esto trae consigo un valor grande para el intervalo. Como resultado Q es pequeño y, por
tanto, no significativo. Las extensiones del contraste de Grubbs proporcionan contrastes para parejas
de datos anómalos.
Los contrastes de datos anómalos descritos suponen que las muestras proceden de una
distribución normal. Es importante señalar que un resultado que parece ser un valor anómalo
suponiendo una población normal, puede que no sea un valor anómalo si la muestra procede
realmente de otro tipo de distribución, log-normal por ejemplo. Estas dificultades explican la
utilización de métodos estadísticos no paramétricos, al ser menos sensibles a los datos extremos, o al
menos tienen poco peso en los cálculos, evitándose el problema de si se rechazan o no los datos
anómalos.
11
5. ENSAYOS DE COMPARACIÓN DE VARIANZAS.
Para comparar dos varianzas muestrales se utiliza el ensayo F. La hipótesis nula es: Ho: s12 =
s22, y la hipótesis alternativa H1: s12 > s22; para el ensayo de un lado, y H1: s12 ≠ s22, para el de dos lados.
Si se acepta Ho se dice que las series son “homogéneas” u “homocedásticas”, y en el caso opuesto
las series son “heterogéneas” o “heterocedásticas”. El ensayo se basa en el cálculo del estadístico F,
que es el cociente entre la varianza mayor y la menor:
Fo = s12 / s22
12
13
5.2. COMPARACIÓN DE UNA VARIANZA MUESTRAL CON UN VALOR DE REFERENCIA.
En el segundo caso, el ensayo F no debe aplicarse porque sr2 es un valor fijo que se conoce
con certeza, esto es, no tiene sentido hablar de grados de libertad de sr2. Por ello, σ2 = sr2, y se
formula la hipótesis nula Ho: s2 = σ2. Para comprobar esta hipótesis para un nivel de significación
crítico, αc, se calculan los límites de confianza inferior y superior de la varianza muestral, Li y Ls:
Li = (n - 1) · s2 / χα2
Ls = (n - 1) · s2 / χ(1-α)2
El cuadro siguiente, para valores crecientes del número de grados de libertad, τ = (n - 1), se
muestran los valores de χ2.
14
Si el ensayo es de dos lados, Ho se acepta si Li < σ2 < Ls, donde los límites se calculan para α =
αc /2. Una forma más simple de aplicar el ensayo es calcular χo 2:
χo2 = (n – 1) · s2 / σ2
- Si H1: s2 < σ2, la hipótesis nula se acepta si χo2 > χ(1-α)2, siendo α = αc.
- Si H1: s2 > σ2, la hipótesis nula se acepta si χo2 < χα2, siendo α = αc.
Los valores de χ(1-α)2 y χα2 se obtienen del cuadro anterior para τ = (n-1) y α.
15
6. ENSAYOS DE COMPARACIÓN DE MEDIAS.
to = /X - µ/ · n1/2 / s
El valor de to se compara con el valor crítico, tc, tomado de la tabla de Student de uno o de
dos lados para un determinado nivel de significación y n-1 grados de libertad. Si to < tc, se acepta Ho.
16
6.2. COMPARACIÓN DE DOS MEDIAS MUESTRALES HOMOGÉNEAS.
El ensayo que debe utilizarse para comparar dos medias muestrales es distinto dependiendo
de que las varianzas de las dos muestras sean homogéneas o heterogéneas. Para comprobar este
punto se realiza un ensayo F. Si se acepta Ho: s12 = s22, ambas varianzas pertenecen a la misma
población, esto es, son estimaciones de la misma varianza poblacional, por lo que es posible calcular
una varianza conjunta o promedia, s2. El valor de s2 se obtiene como media pondera da, utilizando
los grados de libertad de las dos series como pesos:
Es lógico que sea así, puesto que la varianza que se conoce con más grados de libertad debe
influir más en el cálculo de la varianza conjunta. La ventaja de realizar este cálculo es que aumenta el
número de grados de libertad con el que se conoce la varianza común de las dos series, que ahora es
τ = n1 + n2 - 2.
La hipótesis nula es Ho: X1 = X2, siendo H1: X1 > X2 para el ensayo de un lado, y H1: X1 ≠ X2
para el de dos. A continuación, se calcula to mediante:
Finalmente, se busca en la tabla de Student de uno o dos lados el valor crítico de t para n1 +
n2 - 2 grados de libertad, tc, y se compara con to. Si to < tc, se acepta Ho, esto es, no se habrá
demostrado que exista diferencia entre las medias para el nivel de significación exigido.
17
Este ensayo se utiliza cuando no puede calcularse la varianza conjunta por ser las series
heterogéneas. El valor de to se obtiene mediante la ecuación de Cochran:
Para hallar tc es necesario calcular antes el número de grados de libertad. Para ello, se utiliza
la fórmula aproximada:
τ = {(s12 / n1 + s22 / n2)2 / [(s12 / n1)2 / (n1 +1) + (s22 / n2)2 / (n2 + 1)]} - 2
El valor de τ es el número entero más próximo al resultado. Si to < tc, se acepta Ho.
18
tratamiento. El individuo es un factor significativo, puesto que el parámetro es distinto de un
individuo a otro, y el efecto del tratamiento es el factor cuya significación se quiere evaluar.
Para realizar el ensayo se hallan las diferencias, di = xi – yi, para cada pareja (con su signo), y
se calcula la media aritmética de las diferen cias, Xd, y su desviación estándar, s d. La hipótesis nula es
Ho: Xd = 0, y el estadístico a calcular:
to = /Xd/ · n1/2 / sd
n: número de parejas.
En la comparación de tres o más varianzas se decide, con una cierta probabilidad, si son
19
todas iguales, o si, por el contrario, al menos una de ellas es distinta de las demás. Esta comparación
es útil en calibración analítica, para establecer si la varianza de un método de análisis se mantiene
constante, o si varía al aumentar la concentración de analito. Es importante tomar una decisión
sobre este particular puesto que, en cada caso, la recta de calibrado se construye con una regresión
distinta: ordinaria si hay homogeneidad, o ponderada en caso contrario. También es útil en los
ejercicios de comparación interlaboratorio, en los que se compara la precisión obtenida por varios
laboratorios que aplican el mismo método a porciones de una misma muestra. Si se demuestra que
las varianzas no son homogéneas, al menos uno de los laboratorios trabaja con una precisión distinta
que los demás. Finalmente, para poder estudiar conjuntos de tres o más series de medidas mediante
las herramientas estadísticas del ANOVA (análisis de la varianza), es necesario demostrar pre-
viamente la homogeneidad de las series.
20
simultáneamente varias medias muestrales. Las medias se comparan para establecer si son todas
iguales (hipótesis nula), o si al menos una de ellas es distinta de las demás (hipótesis alternativa) .
Para las series de resultados 1, 2, 3,..., j,..., h, Ho se formula como sigue:
El nombre de ANOVA hace alusión a que la comparación de más de dos medias se realiza
mediante el cálculo y la comparación de dos varianzas, pero se debe tener presente que el objetivo
es comparar medias y no varianzas.
Igualmente, el ANOVA es útil para comparar los efectos producidos por diversos cambios en
las condiciones de trabajo (pH, concentraciones de reactivos, tiempos de reacción, etc) sobre los
resultados de los experimentos. En este sentido, el ANOVA es una herramienta esencial cuando se
optimizan procedimientos de laboratorio, o industriales en general, examinando las diversas
variables implicadas a varios niveles.
Para que pueda aplicarse el ANOVA se han de cumplir, al menos de forma aproximada, las
21
tres condiciones siguientes:
a) Independencia: cada serie de datos debe ser independiente de las demás, esto es, los datos de
una serie no deben estar correlacionados con los de otra.
b) Normalidad: la distribución interna de cada serie debe ser normal, lo que conviene comprobar con
un ensayo de normalidad.
c) Homogeneidad: las varianzas de las series deben ser iguales, esto es, debe ser aceptable Ho: s12 =
s22 =…= sj2 =…= sh2.
Si estos requisitos no se cumplen en un grado satisfactorio, los resultados del ANOVA serán
incorrectos.
El ANOVA de una entrada se aplica a series de datos como las que se muestran en el cuadro
siguiente. Para su aplicación, en primer lugar, deben hallarse las medias y varianzas de las series (ver
segundo cuadro). A continuación, y para mayor sencillez, se expone el caso particular en el que todas
las series tienen el mismo tamaño, esto es, para todo valor de j: n j = n.
En primer lugar, se calcula la media global, o media de las h medias, y su desviación estándar.
Se tiene: Xm ± sm. Si se cumple Ho, la dispersión de los datos dentro de cada serie y la dispersión de
las medias de las series son ambas debidas a una única fuente de varianza, que es la asociada al
22
método de medida, y que se conoce como “varianza del error aleatorio”, o “varianza residual”, sres2.
Por ello, si se cumple Ho existen dos formas de estimar la varianza residual:
sres2 = Σ sj2 / h
sres2 = n · sm2
que es cierta sólo si es aceptable Ho. Al multiplicar por n se tiene en cuenta que la varianza de las
medias es n veces menor que la varianza de los datos individuales.
Fo = n · sm2 / sres2
a) Para el numerador (fila de la tabla de F): τ1 = h - 1, puesto que se pierde un grado de libertad al
calcular la media global, que es necesaria para conocer s m2.
b) Para el denominador (columna de la tabla de F): τ2 = h · (n - 1), puesto que se pierde un grado de
libertad al calcular la media de cada serie.
El ensayo es de un lado porque n·s m2, sólo puede ser igual o superior a sres2. Si se rechaza Ho
queda demostrada la hipótesis alternativa, H1: n.sm2 > sres2, esto es, existe una fuente de varianza
adicional; el factor que distingue las medias aumenta significativamente la dispersión entre ellas.
Cuando se rechaza Ho se dice que el resul tado es “positivo”.
23
Un resultado positivo indica que al menos una de las medias es distinta de las demás . Antes
de continuar con el estudio de los resultados, es necesario distinguir entre dos tipos de resultados
positivos:
a) El factor o factores que distinguen las medias no son de naturaleza aleatoria. En este caso,
dependiendo de cómo se hayan diseñado los experimentos, las medias se distribuirán en uno o
varios grupos, o incluso, serán todas distintas entre sí.
b) El factor que distingue las medias es alea torio. En tal caso es absurdo preguntar qué medias son
distintas de cuáles, puesto que se distribuyen al azar. A cambio, tiene sentido, y puede tener interés,
calcular la varianza del factor que distingue las medias, o varianza de comparación, sc2.
El análisis de los resultados del ANOVA para los casos a) y b) se realiza de distinta manera.
Cuando el factor o factores implicados no son aleatorios, se aplican diversos ensayos que permiten
averiguar qué medias forman grupos, siendo iguales entre ellas y distintas de las demás. Un ensayo
muy sencillo es el de la “diferencia significativa menor” (DSM). Las medias se ordenan de menor a
mayor, y se calculan las diferencias que las separan. Además, se calcula la DSM como:
t se lee en la tabla de Student de dos lados para τ = h · (n - 1) grados de libertad. El ensayo es de dos
lados porque, en principio, cualquier media puede ser mayor o menor que otra. Las medias se
separan de forma individual, o por grupos, por los lugares donde la diferencia entre dos medias
sucesivas supera la DSM.
24