Vous êtes sur la page 1sur 5

TERMINOLOGIA DE LA INSTRUMENTACION

Los procesos industriales exigen control en la fabricación de los diversos


productos obtenidos, los procesos son muy variados y abarcan muchos tipos de
productos, la fabricación de los productos derivados del petróleo, de los productos
alimenticios, las centrales generadoras de energía, la siderurgia, los tratamientos
térmicos, la industria papelera, la industria textil.
En todos estos procesos es absolutamente necesario controlar y mantener
constantes algunas magnitudes tales como presión, caudal, el nivel, la
temperatura, el ph, la conductividad, la velocidad, la humedad etc. Los
instrumentos de medición y control permiten el mantenimiento y la regulación de
estas constantes en condiciones más idóneas que las que el propio operador
podría realizar. Los procesos industriales a controlar pueden dividirse en dos
categorías: procesos continuos y procesos discontinuos. En general en ambos
tipos deben mantenerse las variables (presión, caudal, nivel, temperatura) bien en
un valor deseado fijo, bien en un valor variable con el tiempo de acuerdo a una
relación predeterminada, bien guardando una relación determinada con otra
variable. El sistema de control que permite este mantenimiento de las variables
puede definirse como aquel que compara el valor de la variable o condición a
controlar con un valor deseado y toma una acción de corrección de acuerdo a la
desviación existente sin que el operario intervenga en lo absoluto.
Campo de medida: Es el
conjunto de valores dentro de
los límites superior e inferior de
medida, en los cuales el
instrumento es capaz de trabajar
en forma confiable. Por ejemplo,
un termómetro de mercurio con
rango de 0 a 50 grados Celsius.
Espectro o conjunto de valores
de la variable de medida que
están comprendidas dentro de
los limites superior inferior de la
capacidad de medida o de
transmisión del instrumento.
Tiene expresado estableciendo
los dos valores extremos.

Otro termino derivado es el de


dinámica de medida o rangeabilidad
que es el cociente entre el valor de
medida superior e inferior de un
instrumento. Por ejemplo una
válvula de control lineal que regule
linealmente el caudal desde el 2%
hasta el 100% de su carrera tendrá
una rangealibidad de 100/2=50.
Exactitud: La exactitud es la cualidad de un
instrumento de medida por la que tiende a dar
lecturas próximas al valor verdadero de la magnitud
medida. En otras palabras es el gado de
conformidad de un valor indicado a un valor
estándar aceptado o valor ideal, considerando este
valor ideal como si fuera el verdadero, el grado de
conformidad independiente es la desviación máxima
entre la curva de calibración de un instrumento y
una curva característica especificada, posiciona de
tal modo que se reduce al minimo dicha desviación
máxima.
La exactitud define los limites de los errores
cometidos cuando el instrumento de emplea en
condiciones normales de servicio durante un
periodo de tiempo determinado (normalmente 1
año) si queremos entender esto con un ejemplo
más práctico citemos el siguiente caso: si tomamos
como ejemplo un Voltímetro este puede dejar de ser
exacto con el paso del tiempo, si al principio lo
probamos con un valor real de 5V y después de un
año lo probamos de nuevo y nos da 4.7 V implica
que este tiene un margen de error de 0.3 V lo cual indica que ya no es exacto, la
función de la calibración es reducir ese error a su mínima expresión posible
asiendo que ese 0.3 se convierta en 0.0003 V, siempre existirá un margen de error
esa es una ley que quizá no se enseña muy a menudo pero para el diseño de
circuitos es un factor a tomar en cuenta.
Precisión: El la
cualidad de un
instrumento por la que
tiende a dar lecturas muy
próximas unas a otras, es
decir es el grado de de
dispersión delas mismas.
Un instrumento puede
tener una pobre
exactitud, pero una gran
precisión. Por lo tanto los
instrumentos de medida
estarán diseñados por los
fabricantes para que
sean precisos y como
periódicamente se
descalibran, deben
reajustarse para que
sean exactos. Para
comprender esto
digamos que tenemos un
Voltímetro y una fuente
de poder fija a 5 V, esta fuente a sido desarrollada para tener ese voltaje de salida
para comprobar la precisión de los instrumentos, ósea estos 5 Volts son nuestro
valor predeterminado, ahora tomamos nuestro Voltímetro y medimos la salida de
nuestra fuente, imaginemos que realizamos esta prueba 10 veces bajo las mismas
condiciones (al hablar de las mismas condiciones nos referimos a cualquier fuerza
o magnitud física que pueda cambiar la medición como por ejemplo la
temperatura, la humedad, etc.
Retomando lo anterior supongamos que tuvimos los siguientes valores en las 10
mediciones:
5, 4.9, 5, 4.8, 5, 4.9, 5, 4.8, 5, 5
como podemos observar en 6 de las 10 pruebas el valor fue de 5 Volts lo cual
indica que el instrumento es preciso, una cosa importante es que si 4.9 fuera el
valor que más se repite entonces el instrumento también sería preciso aun que ya
no sería exacto, esto es debido a que la precisión te indica cuantas veces se repite
una medición bajo las mismas condiciones comparado con un valor
predeterminado, entre menor sea la diferencia entre los valores repetidos y el valor
predeterminado se puede decir que el instrumento es preciso.
La forma de determinar esto es muy sencilla, generalmente a la hora de comprar
un instrumento de medición este trae un instructivo o manual el cual indica cual es
el porcentaje de error, osea que si el valor es de 5 volts y el porcentaje de error es
del 2% estaríamos hablando de un error de 0.1 V lo cual llevaría a medir 4.9 Volts
lo cual indica que es preciso y exacto.

Vous aimerez peut-être aussi