Vous êtes sur la page 1sur 8

TRATAMIENTO ESTADÍSTICO DE DATOS

ERRORES
Los errores son una parte inherente del mundo cuantificable en el que vivimos. Por lo tanto, es
imposible realizar un análisis químico sin errores. Toda medición está influenciada por
incertidumbres que combinadas producen una dispersión en los resultados como se muestra en la
figura 1. Por lo tanto, es importante conocer la confiabilidad de los resultados experimentales, ya
que los datos de calidad desconocida carecen de valor. Por otro lado, algunos resultados que
parecen poco precisos pueden resultar muy valiosos si se conocen los límites de incertidumbre. La
confiabilidad se puede evaluar de diferentes maneras. Se pueden realizar experimentos diseñados
para hacer evidente la presencia de errores o también se pueden analizar disoluciones estándar de
composición conocida y después comparar los resultados del análisis con dicha composición. Sin
embargo, al final se debe realizar pruebas estadísticas a los datos para determinar la exactitud de los
resultados.

Figura 1: resultados de análisis de 6


réplicas de cantidad de hierro(III) en
soluciones

TIPOS DE ERRORES
Error aleatorio o indeterminado: provoca que los datos se distribuyan de más o menos una forma
simétrica alrededor de la media, por lo cual se puede decir que el error aleatorio se ve reflejado en la
precisión de los datos.
Los errores aleatorios se revelan por pequeñas diferencias en mediciones sucesivas hechas por el
mismo analista bajo condiciones prácticamente idénticas, y no se pueden predecir ni estimar. Estos
errores no se pueden eliminar completamente, lo que se hace es minimizarla analizando más
replicas. La aleatoriedad de las mediciones hace que sea posible aplicar leyes matemáticas de
probabilidad.
Para determinar el error aleatorio se parte del supuesto caso en que los errores de los resultados
analíticos siguen una distribución gaussiana o normal y se aplican las expresiones estadísticas como
la media y la desviación estándar para calcular la expresión del error.
Error sistemático o determinado: provoca que la media en un conjunto de datos adquiera un valor
diferente del valor aceptado. Podemos calcular este error con la media de los resultados y el error
relativo. Por ejemplo, la media de los resultados en la figura 1 tiene un error sistemático de
aproximadamente – 0,2 ppm de Fe.
Los errores sistemáticos instrumentales surgen por el comportamiento no ideal de los instrumentos.
Por ejemplo, cuando las pipetas o buretas entregan volúmenes un poco distintos de aquellos
indicados por su graduación, o también cuando los cambios de temperatura provocan variaciones en
muchos componentes electrónicos. Los errores sistemáticos de método son producidos
generalmente por el comportamiento químico o físico poco ideal de los reactivos y reacciones sobre
los que se basa un análisis. Por ejemplo, cuando se quiere descomponer ácido nicotínico con ácido
sulfúrico, pero la descomposición ocurre de forma incompleta. También existen errores sistemáticos
de tipo personal, y es cuando ocurre una falta de cuidado o atención por parte del analista.
Los errores instrumentales se pueden solucionar con una calibración periódica de los equipos, y en
el caso de que hubiera una interferencia se pueden utilizar métodos como separación o dilución para
eliminar o minimizar la influencia de estas. Los errores de método son difíciles de detectar por eso
se utilizan pasos como el análisis de muestras estándar o el análisis independiente. Los errores
personales, en su mayoría, se pueden resolver llevando a cabo un trabajo cuidadoso y disciplinado.

PARÁMETROS ESTADÍSTICOS
MEDIA: es el valor característico de una serie de datos cuantitativos.

DESVIACIÓN ESTÁNDAR: es una medida del grado de dispersión de los datos con respecto con
respecto a la media.

 Desviación estándar muestral.

 Desviación estándar poblacional

VARIANZA: medida de dispersión que representa la variabilidad de una serie de datos respecto a
su media.

 Varianza muestral
 Varianza poblacional

COEFICIENTE DE VARIACIÓN: es la proporción


de la desviación estándar con respecto a la media.

ERROR RELATIVO: es la proporción del error absoluto con respecto al valor real.

Donde:

VALIDACIÓN DE METODOS
La validación de métodos es un proceso que nos permite confirmar si un método analítico es
adecuado para el uso previsto y es de suma importancia ya que nos permite demostrar que los
métodos usados proporcionan resultados confiables. Por consiguiente, se debe validar cualquier
método que no esté normalizado.
Antes de iniciar con la validación es muy importante considerar un entorno de trabajo que asegure
la integridad y confiabilidad de los datos que se obtengan. Para que esto se cumpla es importante
asegurar una adecuada implementación de las BPL’S (buenas prácticas de laboratorio) y así poder
disminuir la variación aleatoria y eliminar o controlar la variación sistemática.
Durante la validación de los métodos es imprescindible utilizar herramientas estadísticas para
demostrar que las variaciones aleatorias o sistemáticas no tienen efecto significativo en los
resultados del análisis. Se pueden utilizar herramientas como pruebas de hipótesis T y F e intervalos
de confianza, análisis de varianza, regresión lineal, etc.
Para realizar la validación se tiene que clasificar el método analítico escogido en una de las 4
categorías establecidas por la USP (United States Pharmacopeial):
1. Métodos analíticos utilizados para la cuantificación de los componentes principales.
1.1 se utilizan los parámetros: exactitud, precisión, especificidad y linealidad.
2. Métodos analíticos utilizados para la cuantificación de impurezas cuantitativa y
semicuantitativa.
2.1 en cuantitativa se utilizan los parámetros: exactitud, precisión, especificidad, límite de
cuantificación y linealidad.
2.2 en semicuantitativa se utilizan los parámetros: especificidad, límite de detección y
dependiendo de la naturaleza del método se analiza la exactitud.
3. Métodos analíticos utilizados para evaluar características de desempeño.
3.1 se utilizan los parámetros: precisión y dependiendo de la naturaleza del método se
analiza exactitud, especificidad, límite de detección, límite de cuantificación y linealidad.
4. Métodos utilizados para la identificación cualitativa.
4.1 se utiliza el parámetro de especificidad.
Esta clasificación ayudará a establecer los parámetros de desempeño que requieren evaluación
como:

 Exactitud (sesgo): expresa la proximidad entre un valor de referencia y un valor


encontrado experimentalmente.
 Precisión (dispersión): expresa la proximidad de los valores medidos obtenidos en
mediciones repetidas de un mismo proceso bajo las mismas condiciones.
 Linealidad: es la capacidad que tiene el método para proporcionar resultados que
son directamente proporcionales a la concentración del analito, dentro de un rango
dado. Se recomienda que se tome 5 niveles de concentración (ejemplo: 80, 90, 100,
110, 120%) y se analice en orden creciente. Luego con los datos obtenidos se
realiza una regresión lineal de concentración vs respuesta para estimar el
coeficiente de correlación, coeficiente de determinación, pendiente e intercepto.
Con este tipo de procedimiento podemos determinar la linealidad del sistema y del
método.
 Especificidad: se define como la capacidad de un método analítico para medir
exacta y específicamente el analito sin interferencias de impurezas.
Para los limites se establece una señal o ruido a partir de la medición de réplicas de un
blanco o placebo (matriz de la muestra con todos los ingredientes menos el analito).

 Límite de cuantificación: es la menor concentración de analito que puede


determinarse con cierta precisión y exactitud, bajo condiciones experimentales bien
definidas y que proporcione una señal 10 veces superior a la señal base.

 Límite de detección: es la cantidad o concentración mínima de sustancia que puede


ser detectada con fiabilidad por un método analítico determinado y que proporcione
una señal 3 veces superior a la señal base.
PRUEBAS DE SIGNIFICANCIA
PRUEBAS t
La desviación estándar para un conjunto de datos nos indica que tan preciso es el procedimiento o
análisis especifico, pero no nos dice la exactitud. Sin embargo, la teoría estadística permite estimar
el intervalo dentro del cual podría caer el valor verdadero dentro de una probabilidad dada, definida
por la media experimental y la desviación estándar. Este intervalo se llama intervalo de confianza y
sus límites se conocen como límites de confianza. La probabilidad de que el valor verdadero caiga
dentro del intervalo se llama probabilidad o nivel de confianza, y en general se expresa como
porcentaje. El nivel de confianza está dado por:

donde t es un factor estadístico que depende


del número de grados de libertad y el nivel de confianza que se desea. El número de grados de
libertad es uno menos que el número de mediciones. Obsérvese que el nivel de confianza es
simplemente el producto de t y la desviación estándar de la media.
Valores de t para grados de libertad para varios niveles de confianza.
Ejemplo

PRUEBAS F
Ésta es una prueba diseñada para indicar si hay una diferencia significativa entre dos métodos con
base en sus desviaciones estándar. F se define en términos de las varianzas de los dos métodos,
donde la varianza es el cuadrado de la desviación estándar:

Hay dos grados de libertad diferentes, 1 y 2, y se definen como N - 1 para cada caso. Si el valor de
F calculado por la ecuación excede un valor tabulado de F en el nivel de confianza
seleccionado, entonces hay una diferencia significativa entre las varianzas de los dos métodos.
Valores de F al nivel de confianza 95%.
Ejemplo
BIBLIOGRAFÍA

 Fundamentos de Química Analítica. Skoong, West. Novena edición. Recuperado


de:file:///C:/Users/corei5/Desktop/quimica%20analitica/Fundamentos%20de
%20Qu%C3%ADmica%20Anal%C3%ADtica%20-%20Skoog,%20West%20-
%209na%20Edici%C3%B3n.pdf.
 Química Analítica. Gary D. Christian. Sexta edición. Recuperado de:
file:///C:/Users/corei5/Desktop/quimica%20analitica/Quimica_analitica_Gary.pdf
 Validación de métodos analíticos. Recuperado de :
https://www.youtube.com/watch?v=AvT3xtEpMEU