Vous êtes sur la page 1sur 30

INTRODUCCIÓN A LA TEORÍA DE ERRORES

“ Cuanto mayor sea el número de observaciones y menos


difieran entre sí, más se acercarán los resultados a la
verdad. Llenamos ésta última condición mediante la
elección adecuada de los métodos de observación, la
precisión de los instrumentos y el cuidado que tomemos
de observar atentamente. Luego determinamos por
medio de la teoría de probabilidades los resultados
promedio mas ventajosos o aquellos que den el menor
error. Pero eso no es suficiente, es necesario estimar
además la probabilidad de que los errores de estos
resultados estén dentro de límites dados, sin esto
tendremos solamente un conocimiento imperfecto del
grado de exactitud obtenido. "
Una MAGNITUD física o química es un atributo o
propiedad que puede ser medida, es decir que puede
determinarse cuantitativamente. Ejemplos de
magnitudes son la longitud, la masa, la potencia, la
velocidad, concentración de una solución, Absortividad
molar volumen de un líquido, absorbancia, etc. A la
magnitud de un objeto específico que estamos
interesado en medir, la llamamos mesurando o MEDIDA.
Por ejemplo, si estamos interesado en medir la
concentración de un analito, esa concentración será el
mesurando o MEDIDA, es decir que la MEDIDA es la
determinación experimental de la MAGNITUD.
A toda MAGNITUD que permite diferenciar
entre si a los componentes de una población se
denomina VARIABLE. Al proceso que nos da una
información física o química acerca de los
componentes de una muestra o de la propia
muestra lo llamamos ANÁLISIS. A los distintos
componentes que nos interesan de una muestra
química los denominamos ANALITOS. Al análisis
de una muestra con el fin de medir la
concentración u otra propiedad química del
analito los llamamos DETERMINACIÓN.
Las exigencias industriales justifican el uso de
equipos precisos y sofisticados. Para que puedan
cumplir con la función para la que fueron diseñados
es necesario asegurar que sus características
metrológicas se mantengan dentro de las
especificaciones para su correcto funcionamiento.

La calibración de los patrones e instrumentos


de medida se ha convertido en un requisito de los
sistemas de calidad
Medida y errores
Nunca conoceremos el valor exacto de una magnitud
medida, debido a que en el proceso de medición se van a
cometer errores de diversos tipos

Por ello será importante garantizar la capacidad


metrológica del instrumento utilizado y conocer su
incertidumbre, que se determinará por medio de la
calibración de dicho instrumento

Además se establecerá como tratar los resultados


de las medidas para minimizar errores sistemáticos y
aleatorios
INCERTIDUMBRE EN LAS MEDIDAS

Medir consiste en comparar una magnitud con otra que


utilizamos como patrón (unidad). Este proceso lleva
siempre implícito una indeterminación, es decir siempre
que medimos, por razones muy diversas y, en general,
difíciles de evitar, corremos el riesgo de no “acertar”
con el valor exacto de la magnitud que queremos
conocer. Unas veces esto es debido a la imperfección de
nuestros instrumentos, o al diseño del proceso de
medida, o a factores ambientales, etc. De manera que
cuando expresamos el valor “medido” de una magnitud
debemos siempre hacer una estimación del grado de
confianza con el que hemos realizado la medida
PRECISIÓN DE LOS INSTRUMENTOS
Tanto los instrumentos que usamos para medir como
las magnitudes mismas son fuente de incertezas al
momento de medir. Los instrumentos tienen una
precisión finita, por lo que, para un dado instrumento,
siempre existe una variación mínima de la magnitud
que puede detectar. Esta mínima cantidad se
denomina la apreciación nominal del instrumento. Por
ejemplo, con una regla graduada en milímetros, no
podemos detectar variaciones menores que una
fracción del milímetro. Otros autores denominan a la
mínima cantidad que un instrumento puede detectar,
sensibilidad y/o precisión del instrumento. Entonces
hay que tener cuidado con el vocabulario conceptual
que se escoja para definir los conceptos.
A su vez, las magnitudes a medir no están definidas con
infinita precisión. Imaginemos que queremos medir el
largo de una mesa. Es posible que al usar instrumentos
cada vez más precisos empecemos a notar las
irregularidades típicas del corte de los bordes o, al ir
aun más allá, finalmente detectemos la naturaleza
atómica o molecular del material que la constituye. Es
claro que en ese punto la longitud dejará de estar bien
definida. En la práctica, es posible que mucho antes de
estos casos límites, la falta de paralelismo en sus bordes
haga que el concepto de la "longitud de la mesa"
comience a hacerse cada vez menos definido, y a esta
limitación intrínseca la denominamos denomina incerteza
intrínseca o falta de definición de la magnitud en
cuestión.
exactitud
Otra fuente de error que se origina en los instrumentos además
de la precisión, es la exactitud de los mismos. Como vimos, la
precisión de un instrumento o un método de medición está
asociada a la sensibilidad o menor variación de la magnitud que se
pueda detectar con dicho instrumento o método. Así, decimos que
un tornillo micrométrico (con una apreciación nominal de 10 mm)
es más preciso que una regla graduada en milímetros; o que un
cronómetro es más preciso que un reloj común, etc.

La exactitud de un instrumento o método de medición está


asociada a la calidad de la calibración del mismo. Imaginemos que
el cronómetro que usamos es capaz de determinar la centésima de
segundo pero adelanta dos minutos por hora, mientras que un
reloj de pulsera común no lo hace. En este caso decimos que el
cronómetro es todavía más preciso que el reloj común, pero menos
exacto. La exactitud es una medida de la calidad de la
calibración de nuestro instrumento respecto de patrones de
medida
En la figura se puede observar desde otra perspectiva los
conceptos exactitud y precisión, es el caso de disparos a
un blanco:

A, preciso y exacto

B, preciso y poco exacto

C, exacto y poco preciso


ERRORES SISTEMÁTICOS

Son aquellos que ocurren siempre en una misma


dirección. Por ejemplo, si la aguja de la balanza del
señor que nos vende verdura en el mercado está un
poquito corrida del cero, ya sea a la derecha o a la
izquierda, el valor del peso de verdura que nos pese
sufrirá sistemáticamente una incertidumbre por
exceso o por defecto respectivamente. Cuando
midamos en otra balanza calibrada más correctamente,
nos daremos cuenta del error y podremos informar a
nuestro verdulero para que efectúe la corrección
necesaria. No obstante, es probable que si no le
avisamos, este señor no tome conocimiento del error
de su balanza, puesto que como mide siempre con el
mismo instrumento, será difícil que se percate de
dicho error sistemático.
El error sistemático proporcional puede deberse a un cambio en
la concentración del testigo para un método en particular.
Concluimos entonces que un error sistemático no es fácilmente
detectable, porque se producen siempre en una misma
dirección, lo podemos identificar cuando usamos otros
aparatos u otros métodos de medición. Así podemos cometer
errores sistemáticos de medición cuando:

*el instrumento está mal calibrado

*fallas en el aparato de medición (balanza mal construida,


milímetros más grandes o chicos )

*operador con poca o nada de experiencia en las mediciones


(mala ubicación del ojo para mirar es decir error de paralaje)

*influencia del ambiente (aumento de la temperatura)


Una vez conocidos es posible eliminarlos.
ERRORES ACCIDENTALES

Son los resultantes de la contribución de numerosas


fuentes incontrolables que desplazan el valor medido
por encima y por debajo del valor real. Idealmente
puede considerarse que su contribución es
absolutamente al azar, de forma que aunque son
imposibles de eliminar totalmente, pueden ser
estimados y de esta forma obtener el grado de
confianza con el que hemos realizado la medida.
CASUALES O ACCIDENTALES

Son aquellos que se cometen en forma azarosa, es decir, no


podemos predecir cuales son las causas y corregirlas. Los valores de
las magnitudes medidas, se cometen por exceso o por defecto.
Admiten por lo tanto, para una cantidad grande de medidas un
tratamiento estadístico a diferencia de los anteriores. Algunos
ejemplos de estos son:

variaciones de las condiciones externas en forma accidental


(variación de la tensión domiciliaria)

error en la apreciación del instrumento (no se estima


correctamente la división de la escala con la que se esta midiendo)

limitaciones impuesta por el propio objeto (superficie rugosa)


Error absoluto (E)

Es la diferencia entre el valor verdadero (V) y


el valor medido (Vm). Pero nosotros sabemos que
por mas exacto que sea el instrumento, por más
experimentados que sea el operador, y aún
condicionando otras circunstancias, el valor
verdadero de una magnitud física no existe, Por lo
que el error absoluto no pasa de ser una definición
teórica que podemos estimar con el error de
apreciación

E = Vv - Vm
ERROR ABSOLUTO

Tomaremos como valor del error en la medida


la mayor de sus estimaciones, es decir: o la
desviación estándar o la precisión de los
instrumentos. El error absoluto se expresa en
las mismas unidades que la magnitud que se
está midiendo en la forma

X =( X + σ X)
ERROR DE APRECIACIÓN (EA)

es la menor lectura que puede efectuarse con el


instrumento. Por ejemplo, si medimos con una regla
milimetrada, el:

EA = 1 Mm. = 0,1 cm. = 0,001 m

si medimos con una regla en centímetro, el

EA = 1cm = 0,1 DM = 0.02 m


ERROR DE ESTIMACIÓN (EE) :

Un operador podría considerar que si está midiendo


con una regla milimetrada puede “ver” hasta la mitad
o 1/2 de la menor apreciación del instrumento, es
decir 0,5 mm. En este caso el error cometido en la
medición recibe el nombre de error de estimación. Es
decir, es la menor medida que un operador puede
estimar con un determinado instrumento de medición.
ERROR RELATIVO

EL ERROR RELATIVO ES LA RAZÓN DEL ERROR ABSOLUTO Y EL


VALOR CONVENCIONALMENTE VERDADERO

ERROR RELATIVO = ERROR ABSOLUTO / VALOR


CONVENCIONALMENTE VERDADERO

COMO EL ERROR ABSOLUTO ES IGUAL A LA LECTURA MENOS EL


VALOR CONVENCIONALMENTE VERDADERO, ENTONCES:
ERROR RELATIVO = (VALOR LEÍDO - VALOR REAL) / VALOR REAL

CON FRECUENCIA, EL ERROR RELATIVO SE EXPRESA COMO UN


PORCENTAJE DE ERROR, MULTIPLICÁNDOLO POR CIEN:
PORCENTAJE DE ERROR = ERROR RELATIVO*100%
Error Relativo
El cuociente entre el error absoluto y el mejor valor de la magnitud,
éste nos da la importancia del error.

Error relativo porcentual:


es la incertidumbre relativa multiplicada por 100.
Imaginemos que medimos el espesor de un alambre (cuyo
diámetro es d » 3 Mm.) y su longitud (L » 1 m) con la misma regla
graduada en milímetros.

Es claro que los errores absolutos de medición, dados por la


apreciación del instrumento, es en ambos casos es la misma
(Dd = DL = 1 Mm.). Sin embargo, resulta evidente que la
determinación de la longitud del alambre es mucho mejor que
la del diámetro. El error relativo porcentual refleja esta
diferencia, ya que para el caso del diámetro su valor es ε % =
33% (1mm / 3mm x 100 = 33%), y para el caso de la longitud
tenemos el Ε % = 0,1% (1mm / 1000mm x 100 = 0,1%).

El ER % es un índice inverso de la exactitud de un análisis.


En la práctica, el valor accesible es la media aritmética de una
serie de medidas, por lo tanto podemos expresar los errores de
la siguiente manera:
Los errores estadísticos o aleatorios pueden ser estimados
realizando un cierto número de veces, n, el
experimento. A estas medidas repetidas de una cierta magnitud, x1,
x2, x3, … xn, las llamaremos datos.

VALOR MEDIO

El mejor valor que podemos entonces ofrecer para la magnitud


medida es la media, o valor medio de acuerdo con la expresión
bien conocida:

X = xi

n
DESVIACIÓN

Se define la desviación de cada medida como la


diferencia entre el valor medido y el valor verdadero.
Como el valor verdadero es imposible de medir,
tomaremos como desviación de cada medida la
diferencia entre su valor y el valor medio, y la
denominaremos desviación estimada:

de = Xi - X
DESVIACIÓN ESTÁNDAR

Para estimar el error cometido en una serie de


medidas se puede realizar una media de sus
desviaciones.
Como éstas se producen al azar para que no se compensen
unas con otras lo mejor es promediar sus cuadrados. En
estadística se llama desviación estándar a este promedio
de desviaciones, de acuerdo con la expresión

Ф = √ 1/n-1* ∑ ( x i- x )2
INCERTIDUMBRE DE LA DESVIACIÓN
ESTÁNDAR

Para estimar la incertidumbre de la desviación estándar


se debe dividir la Desviación estándar por la raíz
cuadrada de n (número de medidas tomadas).

Фm = Ф /√n
ERRORES EN OBSERVACIONES INDIRECTAS

Es muy frecuente que el valor de una magnitud se obtenga a


partir de una o varias medidas directas aplicando las
correspondientes operaciones matemáticas. A esto le
llamaremos observación indirecta y en este caso los errores
cometidos en las observaciones directas de los datos influirán
en el error con el que obtendremos el resultado en función de
la fórmula utilizada.

SUMA Y DIFERENCIA

Al ser el error producto del azar, puede tener cualquier signo.


Así pues, cuando sumemos o restemos dos cantidades
medidas, deberemos considerar el error absoluto
estimado del resultado como la suma de los errores
absolutos estimados de cada medida.
CRITERIO DE CHAUVENET

Según el criterio de Chauvenet’s una lectura puede ser


rechazada si la probabilidad de obtener esta desviación
en particular con respecto a la media es menor de 0.5 n .
Para aplicar este criterio, tanto la media como la
desviación estándar del ensayo se determinan utilizando
todos los datos obtenidos. Luego las desviaciones de los
puntos individuales son divididos por la desviación
estándar del ensayo y comparados con los valores dados
en la Tabla Nº 3
Todos los puntos cuya razón desviación / desviación
estándar es mas alta que la que indica la Tabla Nº 3 se
rechaza y una nueva media y desviación estándar se
determina.
Criterio de Chauvenet’s para rechazar una lectura
Razón de máxima aceptación
Numero de lecturas Desviación / Desviación Estándar
n d max. / 
2 1.15
3 1.38
4 1.54
5 1.65
6 1.73

7 1.80
10 1.96
15 2.13
25 2.33
50 2.57

100 2.81
300 3.14
500 3.29
1000 3.48

Vous aimerez peut-être aussi