Vous êtes sur la page 1sur 46

Medición

Medición del diámetro con un calibre.

La medición es un proceso básico de la ciencia que consiste en comparar un patrón


seleccionado con el objeto o fenómeno cuya magnitud física se desea medir para ver
cuántas veces el patrón está contenido en esa magnitud.

Proceso de medición

La tecnología convencional, desarrollada sobre los conceptos de la mecánica clásica, no


plantea problemas serios para el proceso de medición. Así, para algunos autores el
proceso de medición requiere caracterizaciones relativamente simples, como por ejemplo:

Definición 1. Una medición es un acto para determinar la magnitud de un objeto


en cuanto a cantidad.

Aunque caben definiciones más complejas y descriptivas de cómo es el proceso, como la


siguiente definición sobre la medición de una magnitud geométrica:

Definición 2. Una medición es comparar la cantidad desconocida que queremos


determinar y una cantidad conocida de la misma magnitud, que elegimos como
unidad. Al resultado de medir se le denomina medida.

Los procesos de medición de magnitudes físicas que no son dimensiones geométricas


entrañan algunas dificultades adicionales, relacionadas con la precisión y el efecto
provocado sobre el sistema. Así, cuando se mide alguna magnitud física, se requiere en
muchas ocasiones que el aparato de medida interfiera de alguna manera sobre el sistema
físico en el que se debe medir algo, o entre en contacto con dicho sistema. En esas
situaciones se debe poner mucho cuidado, en evitar alterar seriamente el sistema
observado. De acuerdo con la mecánica clásica no existe un límite teórico a la precisión o
el grado de perturbación que dicha medida provocará sobre el sistema (esto contrasta
seriamente con la mecánica cuántica o con ciertos experimentos en ciencias sociales
donde el propio experimento de medición puede interferir en los sujetos participantes).
Por otro lado, no hemos de perder de vista que las medidas se realizan con algún tipo de
error, debido a imperfecciones del instrumental o a limitaciones del medidor, errores
experimentales, por eso, se ha de realizar la medida de forma que la alteración producida
sea mucho menor que el error experimental que pueda cometerse. Por esa razón, una
magnitud medida se considera como una variable aleatoria, y se acepta que un proceso
de medición es adecuado si la media estadística de dichas medidas converge hacia la
media poblacional. En mecánica clásica, las restricciones para el grado de precisión son
siempre de carácter tecnológico o práctico, sin embargo, en mecánica cuántica existen
límites teóricos para el grado de precisión que puede alcanzarse.

Tipos de mediciones

Principalmente, podemos hablar de dos tipos de mediciones:

- Medición directa

Las mediciones directas son aquéllas en las cuales el resultado es obtenido


directamente del instrumento que se está utilizando. Por ejemplo, para
medir la corriente que circula por un circuito podemos utilizar un
amperímetro apropiado.

- Medición indirecta

Las mediciones indirectas son aquéllas en que el resultado deseado no lo


obtenemos directamente de las lecturas realizadas con los instrumentos
utilizados, sino que es necesario emplear los datos obtenidos para hallar la
cantidad deseada mediante algunos cálculos. Por ejemplo, el valor de una
resistencia lo podemos determinar de la siguiente forma: Con un
amperímetro medimos la corriente que circula por ella, y con un voltímetro
la caída de voltaje entre sus terminales cuando circula la corriente medida
anteriormente. Con estas dos lecturas podemos calcular la resistencia
aplicando la ley de Ohm.

También existe otro tipo de medición, llamada Medición Estadística:

Es aquella que al efectuar una serie de comparaciones, entre la misma variable y el


aparato de medida empleado, se obtienen distintos resultados cada vez.

Ejemplo: Determinar el número de personas que leen este artículo diariamente.

Aunque se obtienen resultados diferentes cada día, se puede obtener un valor


medio mensual o anual.
Unidades de Medida
Una unidad de medida es una cantidad estandarizada de una determinada magnitud
física, definida y adoptada por convención o por ley. Cualquier valor de una cantidad física
puede expresarse como un múltiplo de la unidad de medida.

Una unidad de medida toma su valor a partir de un patrón o de una composición de otras
unidades definidas previamente. Las primeras unidades se conocen como unidades
básicas o de base (fundamentales), mientras que las segundas se llaman unidades
derivadas.

Un conjunto de unidades de medida en el que ninguna magnitud tenga más de una


unidad asociada es denominado sistema de unidades.

Todas las unidades denotan cantidades escalares [tipo de magnitud física que se expresa


por un solo número y tiene el mismo valor para todos los observadores]. En el caso de
las magnitudes vectoriales, se interpreta que cada uno de los componentes está
expresado en la unidad indicada.

Se conocen algunos sistemas convencionales para establecer las unidades de medida: El


Sistema Internacional y el Sistema Inglés. Al patrón de medir le llamamos también Unidad de
medida. Debe cumplir estas condiciones:

1. Ser inalterable, esto es, no ha de cambiar con el tiempo ni en función de quién realice
la medida.
2. Ser universal, es decir utilizada por todos los países.
3. Ha de ser fácilmente reproducible.

Reuniendo las unidades patrón que los científicos han estimado más convenientes, se han
creado los denominados Sistemas de Unidades.

Tipos de unidades de medidas

Dependiendo de las magnitudes físicas que se requieran medir, se utilizan diferentes tipos
de unidades de medida. Entre estos podemos mencionar los siguientes tipos:

1. Unidades de capacidad 6. Unidades de masa


2. Unidades de densidad 7. Unidades de peso específico
3. Unidades de energía 8. Unidades de potencia
4. Unidades de fuerza 9. Unidades de superficie
5. Unidades de longitud 10.Unidades de temperatura
11.Unidades de tiempo
12.Unidades de velocidad
13.Unidades de viscosidad
14.Unidades de volumen
15.Unidades eléctricas

Errores de medición

El error de medición se define como la diferencia entre el valor medido y el valor


verdadero. Afecta a cualquier instrumento de medición y puede deberse a distintas
causas. Las que se pueden de alguna manera prever, calcular, eliminar mediante
calibraciones y compensaciones, provocan los llamados errores determinísticos
o sistemáticos y se relacionan con la exactitud de las mediciones. Las que no se pueden
prever, pues dependen de causas desconocidas o estocásticas, dan origen a los errores
que se denominan aleatorios; estos están relacionados con la precisión del instrumento.

Tipos de errores

El origen de los errores de medición es muy diverso, pero pueden distinguirse los
siguientes tipos, de acuerdo a la ocurrencia de dichos errores:

 Error sistemático
 Error aleatorio

Respecto a la cuantificación de los errores se tiene:

 Error absoluto
 Error relativo

- Errores sistemáticos

Los errores sistemáticos son aquellos errores que se repiten de manera conocida en


varias realizaciones de una medida. Esta característica de este tipo de error permite
corregirlos a posteriori. Un ejemplo de error sistemático es el error del cero, en una
báscula, que a pesar de estar en vacío, señala una masa no nula. Otro error que aparece
en los sistemas GPS es el error debido a la dilatación del tiempo que, de acuerdo con
la teoría de la relatividad general sufren los relojes sobre la superficie de la tierra en
relación a los relojes de los satélites.
- Errores aleatorios

Los errores aleatorios se producen de modo no regular, sin un patrón predefinido,


variando en magnitud y sentido de forma aleatoria, son difíciles de prever, y dan lugar a la
falta de calidad de la medición. Si bien no es posible corregir estos errores en los valores
obtenidos, frecuentemente es posible establecer su distribución de probabilidad, que
muchas veces es una distribución normal, y estimar el efecto probable del mismo, esto
permite establecer el margen de error debido a errores no sistemáticos.

- Error absoluto

Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede ser
positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale
positiva o negativa). Tiene unidades, las mismas que las de la medida.

- Error relativo

Es el cociente de la división entre el error absoluto y el valor exacto. Si se multiplica por


100 se obtiene el tanto por ciento (%) de error. Al igual que el error absoluto, éste puede
ser positivo o negativo (según lo sea el error absoluto) porque puede ser por exceso o por
defecto, no tiene unidades.

Nonio de un micrómetro.
La metrología de precisión. Inicios

El primer instrumento para medidas de precisión en longitudes es el micrómetro, cuyo


nombre procede de la utilización de un husillo roscado de pequeño paso que proporciona
una amplificación mecánica que le permite apreciar longitudes muy pequeñas.

El fundamento de este instrumento de medida es atribuido a William Gascoigne,


astrónomo inglés, si bien la difusión industrial de micrómetros similares a los actuales
tardó unos 200 años en producirse.

En 1772, James Watt construyó un micrómetro que utilizó en la construcción de su


máquina de vapor.

El iniciador de la mecánica de precisión en la industria es, sin embargo, Henry Moudslay


(1781 – 1831), quien introdujo aportaciones notables y numerosas en las máquinas
herramientas y que desarrollaría un dispositivo micrométrico para controlar sus propios
trabajos. El instrumento de Moudslay permitía la realización de lecturas de 0,001”. A partir
de las ideas de Modslay, el británico Joseph Witworth (1803 – 1887) construyó un
comparador horizontal en el que con el paso de un tornillo micrométrico y un nonius era
posible efectuar lecturas de 0,00025 mm.

Si bien la primera patente de un micrómetro similar a los que se usan en la actualidad fue
la del francés Jean Laurent Palmer (1848), por lo que frecuentemente a dicho instrumento
se le denomina Palmer, a finales del siglo XIX los micrómetros estaban introducidos en la
mayoría de las industrias dedicadas a la fabricación.

SISTEMA INTERNACIONAL DE UNIDADES


La convención del metro

El sistema métrico decimal se implantó en Francia de una manera definitiva y consolidada


en 1840 y Paris se convirtió en el foco de una intensa actividad dirigida a generalizar la
utilización del sistema internacionalmente.

Las exposiciones universales de fines del siglo XIX fueron el foco impulsor de la
necesidad de consensuar un único sistema de unidades mundialmente. En 1867 se
constituyó el Comité de pesas, medidas y monedas, y sucesivamente muchas naciones
se fueron adhiriendo el mismo.

En 1872, la Comisión internacional decidió construir nuevos patrones del metro y del kilo
en platino iridiado, abandonando la definición primitiva del metro que hasta entonces
había estado definido como la diezmillonésima parte del cuadrante del meridiano
terrestre, ya que determinaciones más precisas de esta medida hubieran supuesto
modificaciones de la unidad. Esta decisión conllevaba el abandono de definiciones
naturales y universales a favor de un patrón material único para cada unidad que por
comparación permitiese derivar hacia patrones secundarios. La decisión fue tomada por
razones pragmáticas, puesto que patrones basados en medidas geodésicas no podían
asegurar una reproducibilidad de la misma calidad de la que podía obtenerse con buenos
patrones de trazos. Al mismo tiempo, y para evitar que un incendio o alguna catástrofe
pudiera destruir el patrón original, se diseminaron una serie de copias del mismo, que
pudiesen asegurar su continuidad.

Como consecuencia de una resolución de la 9ª Conferencia General de Pesas y Medidas


(1948), el Comité Internacional de Pesas y Medidas inició los estudios y consultas
necesarias para establecer un sistema práctico de unidades de medida. Tal sistema fue
adoptado por la 11ª Conferencia General de Pesas y Medidas (1960) bajo el nombre de
Sistema Internacional de Unidades, cuyas siglas internacionales son SI. A partir de
aquella fecha, prácticamente todos los países del mundo han incorporado el SI a sus
textos legales y reglamentaciones, con lo cual se ha alcanzado con creces uno de los
objetivos expresados en 1948: que el sistema fuera susceptible de ser adoptado por todos
los países signatarios de la Convención del Metro.
El SI está constituido de modo que a partir de nueve unidades (siete de base y dos
suplementarias), que corresponden a magnitudes consideradas independientes, se
obtienen en forma coherente las unidades derivadas correspondientes a las restantes
magnitudes. Esto significa que tales unidades se expresan por productos o cocientes de
unidades del grupo de partida, sin utilización de factores numéricos.

Tabla 1. Unidades de base SI

Unidad de base SI
Magnitud de base 
Nombre Símbolo

longitud  metro m
masa kilogramo kg

tiempo segundo s

corriente eléctrica  ampere A

temperatura termodinámica kelvin K

cantidad de materia  mol mol

intensidad luminosa candela cd

Tabla 2. Ejemplos de unidades SI derivadas expresadas en términos de las unidades de base

Unidad derivada SI
Magnitud derivada
Nombre Símbolo

superficie metro cuadrado m2  

volumen metro cúbico  m3

velocidad metro por segundo m/s

aceleración metro por segundo cuadrado m/s2

número de ondas recíproco de metro m-1

densidad kilogramo por metro cúbico kg/m3

volumen específico metro cúbico por kilogramo m3/kg

densidad de corriente ampere por metro cuadrado A/m2 

campo magnético  ampere por metro A/m

concentración (de cantidad de materia) mol por metro cúbico mol/m3


luminancia candela por metro cuadrado cd/m2 

índice de refracción (el número) uno 1(a)

Tabla 3. Unidades SI derivadas con nombres y símbolos especiales

Unidad derivada SI

Magnitud
Expresada en Expresada en
derivada
término de término de
Nombre Símbolo
otra unidad unidades SI
SI de base

ángulo plano radian (a) rad m·m-1 = 1 (b)

estereorradián
ángulo sólido (a)  sr(c) m2·m-2 = 1(b)

frecuencia hertz Hz s-1

fuerza newton N m·kg·s-2

presión, tensión pascal Pa N/m2 m-1·kg.s-2

energía, trabajo, cantidad de


joule J N·m m2·kg·s-2
calor

potencia, flujo energético watt W J/s m2·kg·s-3

carga eléctrica, cantidad de


coulomb C s·A
electricidad

diferencia de potencial
eléctrico, fuerza volt V W/A m2·kg·s-3·A-1
electromotriz

capacidad farad F C/V m-2·kg-1·s4·A2

resistencia eléctrica ohm Ω V/A m2·kg·s-3·A-2


conductancia eléctrica siemens S A/V m-2·kg-1·s3·A2

flujo magnético weber Wb V·s m2·kg·s-2·A-1

densidad de flujo magnético tesla T Wb/m2 kg·s-2·A-1

inductancia henry H Wb/A m2·kg·s-2·A-2

grado Celsius
temperatura Celsius ºC K
(d)

flujo luminoso lumen lm cd·sr(c) cd

iluminancia lux lx lm/m2 m-2·cd

actividad (referida a un
becquerel  Bq s-1
radionucleido)

dosis absorbida, energía


gray Gy J/kg  m2·s-2
específica (impartida),kerma

dosis equivalente, dosis


equivalente ambiente, dosis
equivalente direccional, sievert Sv J/kg m2·s-2
dosis equivalente personal,
dosis equivalente en órganos

Actividad catalítica katal kat s-1·mol

(a) El radián y estereorradián pueden ser usados con ventaja en expresiones de unidades derivadas para
distinguir entre magnitudes de diferente naturaleza pero de la misma dimensión. Algunos ejemplos de su uso
en forma de unidades derivadas son dadas en la tabla 4.

(b) En la práctica, los símbolos rad y sr son usados donde es apropiado, pero la unidad derivada “1” es
generalmente omitida en combinación con valores numéricos. 

(c) En fotometría, el nombre estereorradián y el símbolo sr son usualmente conservados en expresiones para
unidades. 

(d) Esta unidad puede ser usada en combinación con prefijos del SI. Por ejemplo miligrado Celsius, mºC.

Tabla 4. Ejemplos de unidades SI derivadas cuyos nombres y símbolos incluyen unidades SI derivadas con
nombres y símbolos especiales

Magnitud Unidad derivada SI


Expresada en término
derivada Nombre Símbolo
de unidades SI de base

viscosidad dinámica pascal segundo Pa·s m-1·kg·s-1

momento de una fuerza newton metro N·m m2·kg·s-2

tensión superficial newton por metro N/m kg·s-2

velocidad angular radián por segundo rad/s m·m-1·s-1 = s-1

radian por segundo


aceleración angular rad/s2 m·m-1·s-2 = s-2
cuadrado

densidad de flujo de calor, watt por metro


W/m2 kg·s-3
irradiancia cuadrado

capacidad térmica, entropía joule por kelvin J/K m2·kg·s-2·K-1

capacidad térmica
joule por kilogramo
específica, entropía J/(kg·K) m2·s-2·K-1
kelvin
específica

energía específica joule por kilogramo J/kg m2·s-2

conductividad térmica watt por metro kelvin W/(m·K) m·kg·s-3·K-1

densidad de energía joule por metro cúbico J/m3 m-1·kg·s-2

campo eléctrico volt por metro V/m m·kg·s-3·A-1

coulomb por metro


densidad de carga eléctrica C/m3 m-3·s·A
cúbico

coulomb por metro


desplazamiento eléctrico C/m2 m-2·s·A
cuadrado

permitividad farad por metro F/m m-3·kg-1·s4·A2

permeabilidad henry por metro H/m m·kg·s-2·A-2

energía molar  joule por mol J/mol m2·kg·s-2·mol-1


entropía molar, capacidad
joule por mol kelvin J/(mol·K) m2·kg·s-2·K-1·mol-1
térmica molar

exposición (rayos x y γ ) coulomb por kilogramo C/kg kg-1·s·A

tasa de dosis absorbida gray por segundo Gy/s m2·s-3

intensidad radiante watt por estereorradián W/sr m4·m-2·kg·s-3 = m2·kg·s-3

watt por metro


radiancia cuadrado W/(m2·sr) m2·m-2·kg·s-3 = kg·s-3
estereorradián

concentración (actividad)
katal por metro cúbico kat/m3 m-3·s-1 · mol
catalítica 

Tabla 5. Prefijos SI

Factor Nombre Símbolo Factor Nombre Símbolo

1024 yotta Y 10-1 deci D

1021 zetta Z 10-2 centi C

1018 exa E 10-3 mili M

1015 peta P 10-6 micro Μ

1012 tera T 10-9 nano N

109 giga G 10-12 pico P

106 mega M 10-15 femto F

103 kilo k 10-18 atto A

102 hecto h 10-21 zepto Z


101 deca da 10-24 yocto Y

Tabla 6. Unidades no pertenecientes al SI, aceptadas para el uso con el Sistema Internacional

Nombre Símbolo Valor en unidades SI

Minuto min 1 min = 60s

Hora h 1h = 60 min = 3 600 s

Día d 1d = 24 h = 86 400 s

Grado º 1º = (π/180) rad

Minuto ´ 1´= (1/60)º = (π/10 800) rad

Segundo “ 1” = (1/60)´= (π/648 000) rad

Litro l,L 1l = 1dm3 = 10-3 m3

Tonelada t 1t = 103 kg

Neper Np 1 Np = 1

Bel B 1 B = (1/2) ln 10 (Np)

LA HISTORIA DE LA METROLOGÍA EN ARGENTINA

La clarividencia de nuestros legisladores permitió que la Republica Argentina compartiera


con los países más adelantados del mundo la empresa de unificación de unidades y
procedimientos de medición de mayor aliento jamás encarado por el hombre.

Creado el Sistema Métrico Decimal en Francia, a fines del siglo XVIII, la simplicidad de su
manejo y sus enormes ventajas frente a los antiguos sistemas determinaron su rápida
propagación a otros países, justificando así la dedicatoria “a todos los tiempos, a todos los
pueblos”, según consta en una medalla conmemorativa acuñada en Francia en 1840.
Ya hacia 1830, las unidades métricas se conocían y eran usadas en la Confederación
Argentina. Un informe del año 1836, redactado por el señor Felipe Senillosa,
“Comisionado Especial del Gobierno para el Nuevo Arreglo y Construcción de los
Patrones de las Pesas y Medidas”, da cuenta detallada de las experiencias realizadas
para fijar las equivalencias métricas de las viejas unidades de origen español o inglés,
corrientemente en uso, con “el nuevo sistema del metro y del gramo”.

Se establece allí que “una vara de bronce, nuevamente construida, se cotejó con un metro
de acero, que fue encargado a París y se encuentra depositado en el Departamento
Topográfico, y se halló que la vara excedía en una pequeña fracción a la división de
ochocientos sesenta y seis milímetros, o milésimos de metro, la cual fue estimada por el
mismo señor comisionado y el señor presidente del Departamento Topográfico en tres
quintos de un milésimo; es decir, que la vara fue hallada en ochocientos sesenta y seis
milímetros más larga”. El empleo de este submúltiplo fue justificado – en época en que
nada hacía prever la necesidad de su utilización – en términos que hacen honor a la
sabiduría de don Felipe Senillosa y le confieren la personalidad de un precursor: “Era
conveniente que así se notase, a fin de que este dato pueda servir para ulteriores
operaciones en el Departamento Topográfico, relativas a la geografía en general, y el
perfecto conocimiento del globo terráqueo”.

El Estado de Buenos Aires, por ley del 6 de Octubre de 1857, sancionó la legalidad de las
pesas y medidas métricas decimales, con sus denominaciones técnicas y sus múltiplos y
submúltiplos.

La Republica Argentina, durante la Presidencia de Bartolomé Mitre, por Ley N°52 del 10
de Septiembre de 1863, adoptó el sistema de pesas y medidas métrico decimal y autorizó
al Poder Ejecutivo para declarar obligatorio en los diferentes departamentos de la
Administración y en todo el territorio de la República “el uso de aquellas pesas y medidas
decimales que juzgue oportunas, según estén allanados los obstáculos que se opongan a
su realización”.

El 20 de mayo de 1875 tuvo lugar en París la firma del Tratado de la Convención del
Metro, actuando en representación de nuestro país el embajador plenipotenciario señor D.
Mariano Balcarce. La ley N° 790, del 28 de agosto de 1876, aprobó la Convención del
Metro “celebrada por el ministro argentino en Francia y los demás representantes que
firman dicha convención”.

Por ley N° 845, del 13 de julio de 1877, quedó establecido que “el Sistema Métrico
Decimal de pesas y medidas adoptado por ley del 10 de septiembre de 1863 será de uso
obligatorio, en todos los contratos y en todas las transacciones comerciales, a partir del 1°
de enero de 1887. Desde la misma fecha, queda prohibido el uso de pesas y medidas de
otros sistemas”.

La ley N° 12.384, del 16 de agosto de 1938, aprobó las modificaciones introducidas a la


Convención del Metro y su reglamento en la reunión de París del 6 de Octubre de 1921
“para asegurar la unificación internacional y perfeccionamiento del Sistema Métrico”.
La ley N° 19.511, del 2 de marzo de 1972, al instituir finalmente el Sistema Métrico Legal
Argentino (SIMELA), adoptó el Sistema Internacional de Unidades, resultado del
perfeccionamiento y ampliación del ya más que centenario Sistema Métrico Decimal. A
este perfeccionamiento nuestro país ha contribuido en forma activa con la valiosa
colaboración aportada por el doctor Teófilo Isnardi, en su calidad de miembro del Comité
Internacional de Pesas y Medidas en la época en que se gestó la creación del nuevo
sistema.

El decreto N° 1.157/72, reglamentario de la ley, determina en su art. 4:

“El Instituto Nacional de Tecnología Industrial tendrá las siguientes funciones, además
de las asignadas por el decreto N° 8.698/68:

a) Proponer la actualización de las unidades, múltiplos y submúltiplos, prefijos y símbolos


del SIMELA.
b) Custodiar y mantener los patrones nacionales y sus testigos con los recaudos que fije
la reglamentación.
c) Proponer el reglamento, especificaciones y tolerancias para el servicio de patrones y
sus instrumentos de comparación.
d) Practicar la verificación primitiva y periódica de los patrones derivados.
e) Proponer y percibir las tasas y aranceles para los servicios a su cargo.
f) Organizar cursos de especialización en metrología.
g) Realizar y promover investigaciones científicas y técnicas referentes a cuestiones
metrológicas.
h) Desarrollar centros de calibración de instrumentos utilizados con fines científicos,
industriales o técnicos.
i) En el ámbito de su competencia: proponer todas las disposiciones necesarias para el
cumplimiento de la ley de Metrología y dar instrucciones y directivas tendientes a
uniformar su aplicación en todo el territorio de la Nación”.

Más tarde, este decreto y su posterior del año 1994 son derogados por el Decreto
788/2003.

ORGANIZACIÓN METROLÓGICA NACIONAL

La organización metrológica de una país puede sintetizarse representándola como una


estructura en pirámide: en el vértice de dicha pirámide metrológica tenemos el patrón
nacional o internacional, y en la base de la misma los instrumentos y equipos de medida y
control diseminados en los centros de fabricación y metrología.
Hay que tener en cuenta que la diseminación de los patrones conlleva a una pérdida de
precisión, pero esta diseminación es necesaria para hacer posible la satisfacción de las
necesidades metrológicas en los centros productivos de una manera razonable.

La pirámide metrológica representada en la Figura 1, además de mostrarnos la relación


de cualquier instrumento con su correspondiente patrón, si se recorre desde el vértice
hacia la base ilustra la diseminación de los instrumentos de medida respecto al patrón, y
si se recorre desde la base hacia el vértice pone de manifiesto la trazabilidad de cualquier
instrumento respecto a su patrona través de una serie de calibraciones con
incertidumbres conocidas (I1, I2, I3, I4, I5).

El INTI es el Instituto Nacional de Metrología de la República Argentina, custodio de los


Patrones Nacionales de acuerdo a la Ley de Metrología Nº 19511 y a su Decreto
Reglamentario Nº 788.

Cualquier instrumento de medida, por modesto o sencillo que sea, ha de estar en relación
con el patrón nacional, de la magnitud correspondiente, a través de una serie de
calibraciones que ascienden en el rango de precisión. Esta pirámide siempre tendrá como
vértice el patrón de mayor rango de la magnitud de la que se trate, y en la base se
encontraran los instrumentos de medida diseminados por los centros industriales y
talleres.

Laboratorios de metrología y ensayos

Cuando se desea materializar físicamente un sistema integrado de calidad industrial, es


necesario realizar pruebas medidas y ensayos, que han de tener lugar en laboratorios de
metrología. Tales laboratorios deben ser “trazables”, es decir, deberán disponer de
procedimientos que permitan las calibraciones de los distintos instrumentos de medida,
así como el ajuste y la puesta a punto de las máquinas de ensayo.
El Servicio Argentino de Calibración y Medición, SAC, es una red de laboratorios de
calibración supervisados por el INTI.

El objetivo del SAC es brindar a la industria la posibilidad de calibrar sus instrumentos en


laboratorios cuya competencia técnica está asegurada, los patrones de referencia
utilizados sean trazables al Sistema Internacional de Unidades (SI) y los certificados
emitidos sean técnicamente validos.

Para lograr estos objetivos el INTI supervisa a los laboratorios en base a los requisitos de
la Norma IRAM 301 ISO IEC 17025, organiza ensayos de aptitud con los laboratorios
propios y ensayos interlaboratorios a través del Servicio Argentino de Interlaboratorios
(SAI).

Desde sus orígenes, la ISO/IEC 17025:1999 fue creada para armonizar con la ISO
9001:1994. Sin embargo, al corto tiempo de su publicación e implementación, se editó la
ISO 9001:2000, originando la necesidad de alinear los aspectos del sistema de gestión de
la ISO/IEC 17025:1999 con los requerimientos de la ISO 9001 actualizada. En nuestro
país, el 5 de septiembre de 2005, el Instituto Argentino de Normalización y Certificación
(IRAM) publicó la nueva versión de la norma IRAM 301:2005, adoptando la ISO/IEC
17025:2005.

La ISO 17025 es más amplia que una norma relacionada al sistema de gestión de un
laboratorio, ésta contiene los requisitos que deben cumplir los laboratorios de ensayo y/ o
calibración para demostrar la competencia de generar resultados técnicamente válidos.
En su capítulo 4 se establecen los requisitos necesarios para una gestión sólida de las
actividades de calidad, administración y técnica del laboratorio, mientras que en su
apartado 5 se establecen los requisitos para la competencia técnica en los ensayos y/ o
calibraciones que realiza el laboratorio. La competencia técnica se basa en tres pilares
fundamentales: el personal calificado, los métodos normalizados o validados y el
instrumental calibrado y trazable a las unidades del Sistema Internacional (SI).
METROLOGÍA GENERAL

Ciencia de
Metrología
la medición

“When you can measure what you are speaking about, and express it in numbers, you
know something about it, but when you cannot express it in numbers, you knowledge is of
the meager and unsatisfactory kind”.

“Cuando podes medir aquello sobre lo que estás hablando y expresarlo en números,
significa que sabes algo sobre ello, pero si en cambio no podes expresarlo en números, tu
conocimiento resulta escaso e insatisfactorio”.

Lord Kelvin, s.XIX

Metrología general

 Problemas comunes a todas las cuestiones metrológicas (estructura de un sistema


de unidades, cambio de unidades de medida en las fórmulas), problemas de
errores de medición, etc.

Metrología aplicada

 Atañe a mediciones de una magnitud determinada, o de magnitudes que forman


parte de cierto campo (metrología de longitudes, metrología de tiempo, metrología
industrial, astronómica, médica, etc.).

Metrología legal
 Concierne a las exigencias técnicas y jurídicas reglamentadas.

La Metrología Legal es la rama de la Metrología que se ocupa de asegurar las mediciones


relacionadas con la Ley y el comercio, de proteger al consumidor, al medio ambiente y a
la sociedad en general.

En la Argentina, el Instituto Nacional de Tecnología Industrial (INTI) es el organismo oficial


responsable de las actividades de Metrología Legal. Esto implica disponer de reglamentos
y verificar que los instrumentos de medición cumplan con ellos.

Desde el año 2003, momento en que las actividades de Metrología Legal pasan a
depender del INTI, mediante el Decreto Nº 788/2003, se han logrado grandes avances en
la configuración de una estructura para la Metrología Legal y en la aplicación de la Ley
Nacional de Metrología Nº 19511/72.

Desde el Área de Metrología Legal de INTI, se desarrolla un amplio abanico de controles


metrológicos, como por ejemplo: 

 Balanzas de alta capacidad (básculas para camiones)

 Caudalímetros de molienda de trigo

 Surtidores de combustible líquido (en estaciones de servicios)

 Instrumentos para el pesaje de vehículos por ejes o tandem de ejes

 Taxímetros

Los controles o verificaciones, según las reglamentaciones, se realizan una vez por año.
De acuerdo a los resultados obtenidos luego de la verificación se aprueba o no el
instrumento.

Una vez verificado el instrumento y aprobada la verificación, el INTI coloca precintos para
evitar posibles fraudes. Los mismos están numerados y figuran en un Acta de Precintos,
de la cual también se deja copia a la empresa involucrada.

¿Qué instrumentos están sujetos a control metrológico?

Ley 19511/72

Art. 8 Es obligatorio para los fabricantes, importadores o representantes someter a


aprobación de modelo y verificación primitiva todo instrumento de medición reglamentado.

Art. 9 Es obligatoria la verificación periódica y la vigilancia de uso de todo instrumento de


medición reglamentado que sea utilizado en:
a) transacciones comerciales

b) verificaciones del peso o medida de materiales o mercaderías que se reciban o


expidan en toda explotación industrial, agropecuaria o minera

c) valoración o fiscalización de servicios

d) valoración o fiscalización del trabajo realizado por operarios

e) reparticiones públicas

f) cualquier actividad que por su importancia incluya la reglamentación

Art. 20 No se podrá tener por ningún título ni disponer en cualquier forma instrumentos de


medición reglamentados que no hayan sido sometidos a verificación primitiva.

Instrumentos de medición reglamentados

- Medidores de gas de diafragma


- Termómetros clínicos eléctricos digitales con dispositivo de medición de
temperatura máxima
- Sistemas de medición de gas natural comprimido de uso vehicular
- Sistemas de medición de gas natural con medidor ultrasónico
- Medidores de energía eléctrica activa en corriente alterna
- Medidores de agua potable fría
- Medidores de concentración de alcohol en aire exhalado (Etilómetros)
- Medidores de petróleo y sus derivados y otros líquidos distintos del agua
- Tanques fijos de almacenamiento
- Instrumentos de pesar de funcionamiento no automático
- Medidas de masa denominadas “pesas”
- Surtidores de nafta, kerosene y gasoil
- Cinemómetros
- Instrumentos para el pesaje de vehículos por ejes o tándem de ejes
- Instrumentos destinados al control de medición de molienda de trigo
(Caudalímetros)
- Metrógrafos lineales
- Medidas de capacidad (patrón y calibración)
- Medidas materializadas de longitud de uso general
- Probetas y vasos graduados
- Butirómetros
- Termómetros clínicos de mercurio en vidrio
- Taxímetros

[ CITATION INTIinstr \l 11274 ]


Metrología de la calidad

Metrología que se ocupa de las cuestiones relativas al control de la calidad. Se interesa


por el control de las mediciones y de sus resultados, que intervienen en los estudios de
calidad:

 de materias primas
 de materiales
 de aparatos
 de instalaciones industriales,

como también por los instrumentos de medición utilizados para medir, controlar y definir
las exigencias concernientes a la garantía de la calidad en la producción.

Medición

Conjunto de operaciones que tienen por objeto determinar el valor de una magnitud.

Magnitud (mensurable)

Atributo de un fenómeno, cuerpo o sustancia que puede ser distinguido cualitativamente


y determinado cuantitativamente.

- Magnitudes en sentido general: longitud, tiempo, masa, temperatura, etc.


- Magnitudes en sentido determinado: longitud de una barra dada, resistencia
eléctrica de un alambre dado.

Magnitud adimensional

Magnitud en cuya expresión dimensional todos los exponentes de las dimensiones de las
magnitudes de base se reducen a cero.

Ejemplos: dilatación lineal relativa, índice de refracción, factor de rozamiento, fracción


molar, fracción en masa.

 Dimensión de una magnitud

Expresión que representa una magnitud de un sistema de magnitudes como el producto


de potencias de factores que representan las magnitudes de base de ese sistema.
Ejemplo: en un sistema que tiene por magnitudes de base la longitud, la masa y el tiempo,
cuyas dimensiones son asignadas respectivamente por L, M y T, la dimensión de la fuerza
es LMT-2

m. d 2 I
F=
d t2

 Valor de una magnitud

Cantidad de una magnitud, expresada mediante el producto de un número por la unidad


de medida.

Ejemplos: 5m, 12kg, 20°C

 Valor verdadero de una magnitud

Valor que caracteriza a una magnitud perfectamente definida, en las condiciones que
existen en el momento en que este valor es observado.

Nota: el valor verdadero de una magnitud es una noción ideal y, en general, no puede ser
conocido. Sin embargo, se puede decir que el valor verdadero del kilogramo patrón
internacional depositado en el BIPM es, por definición y en las condiciones especificas, 1
kg.

Ejemplo: el valor verdadero de la longitud de un bloque patrón es la longitud determinada


por la distancia entre los dos planos de las caras del bloque, supuestos perfectamente
paralelos y perpendiculares al eje del mismo, cuando todas las magnitudes de influencia,
así como las condiciones operatorias han sido perfectamente definidas.

Sistema de magnitudes

Conjunto de magnitudes, en el sentido general, entre las cuales existen relaciones


definidas.

 Magnitud de base

Una de las magnitudes que, en un sistema de magnitudes, son aceptadas por convención
como funcionalmente independientes unas de otras.

 Magnitud derivada

Magnitud definida, en un sistema de magnitudes, como una función de las magnitudes de


base de ese sistema.
Unidad de medida

Magnitud particular, definida y adoptada por convención, con la cual son comparados
otros valores de la misma clase, a fin de expresarlos cuantitativamente por relación a esa
magnitud.

 Símbolo de una unidad

Signo convencional que designa una unidad de medida.

Ejemplos: m es el símbolo del metro, A es el símbolo del ampere.

 Sistema de unidades de medida: conjunto de unidades de base y de unidades


derivadas, definidas siguiendo las reglas dadas, para un sistema de magnitudes dado.

 Sistema Internacional de Unidades SI: sistema coherente de unidades adoptado y


recomendado por la Conferencia General de Pesas y Medidas.

Magnitud Unidad SI de base

nombre Símbolo

longitud metro m

masa kilogramo kg

tiempo segundo s

corriente eléctrica ampere A

temperatura termodinámica kelvin K

cantidad de materia mol mol

intensidad luminosa candela cd

Longitud: La unidad SI de longitud es el metro (m). Este es definido como la longitud del
trayecto recorrido por la luz en el vacío durante un intervalo de tiempo de 1/299 792 458
segundos.
Masa: La unidad SI de masa es el kilogramo (kg). Es la única unidad aún definida en base
a un artefacto físico, la masa de un cilindro de platino e iridio guardado en el BIPM en
Paris, Francia.

Tiempo: La unidad SI de tiempo es el segundo (s). Este es definido como la duración de


9 192 631 770 ciclos de radiación correspondiente a la transición entre los dos niveles
hiperfinos del estado fundamental del átomo de Cesio-133.

Corriente eléctrica: La unidad SI de corriente eléctrica es el ampere (A). Este es definido


como la corriente eléctrica que produce una fuerza de 2.10 -7 newton por metro de longitud
entre dos conductores infinitos, paralelos, separados ente sí por una distancia de 1 metro.

Temperatura termodinámica: La unidad SI de temperatura termodinámica es el kelvin


(K). Este es definido como 1/273,16 de la temperatura termodinámica del punto triple del
agua.

Intensidad luminosa: La unidad SI de intensidad luminosa es la candela (cd). Esta es la


intensidad luminosa en una dirección dada de una fuente que emite radiación
monocromática a una frecuencia de 540.1012 hertz, con una intensidad radiante en esa
dirección de 1/683 watt por estereorradián.

Cantidad de materia: La unidad SI de cantidad de materia es el mol (mol). Este es


definido como la cantidad de materia de un sistema que contiene tantos ítems
elementales como átomos hay en 0,012 kilogramos de carbono 12.

El SI y las constantes fundamentales

(ver cuadro página siguiente)


Uso correcto de símbolos y unidades

A continuación, se describen las reglas para la correcta escritura de las unidades y sus
símbolos, basados en la legislación mencionada.

1. Unidades

Todas las unidades de medida se escriben con minúsculas. Por ejemplo:

newton, unidad de fuerza


metro, unidad de longitud
segundo, unidad de tiempo

Notas:

- El nombre de la unidad kilogramo, por razones históricas, contiene un prefijo: k=103. En


otras palabras, la unidad de base de masa es el kilogramo, no el gramo, que es un
submúltiplo. El resto de las unidades de base no lleva prefijo.

-  La unidad de la magnitud temperatura termodinámica (T) es el kelvin (K). No es


correcto escribir ºK. Para fines prácticos, suele utilizarse la temperatura Celsius (t), cuya
unidad es el grado Celsius ºC (el nombre grado centígrado no es correcto). La relación
entre ambas magnitudes es:    

t = T – 273,15 K

2. Símbolos de unidades

Los símbolos no llevan punto ni plural. En general, se escriben con minúsculas, como por
ejemplo:

m, símbolo del metro (usos incorrectos: M, mts, m.)


kg, símbolo del kilogramo (uso incorrecto: Kg)
g, símbolo del gramo (usos incorrectos: gr, grs.)

Salvo los que corresponden a nombres propios, que comienzan en mayúscula, en


general, éstos son apellidos de científicos que propusieron o estudiaron la magnitud
unidad en cuestión. Por ejemplo:

A, símbolo del ampere, unidad de corriente eléctrica


N, símbolo del newton, unidad de fuerza 
Pa, símbolo del pascal, unidad de presión
Hz, símbolo del hertz, unidad de frecuencia
NOTA: La unidad litro, es ampliamente utilizada, si bien no pertenece al SI. Su símbolo
es l, en minúscula. Sin embargo, para evitar confusiones entre la letra  l y el número 1, se
acepta también L, en mayúscula. Por ejemplo, son expresiones correctas para el
contenido neto de una botella de gaseosa:

1,5 l, o 1,5 L, o 1 500 ml, o 1 500 mL

En cambio 1,5 lts o 1,5 Lts son incorrectos.

3. Múltiplos y submúltiplos

Los símbolos de los prefijos que denotan múltiplos y submúltiplos menores que 10 6 se
escriben con minúscula. Por ejemplo:

km (103 m, uso incorrecto: Km)


mm (10-3 m, milímetro o milésima de metro)
µm (10-6 m, micrómetro, o milésima de milímetro)
nm (10-9 m, nanómetro o millonésima de milímetro)

En cambio, los prefijos que denotan múltiplos a partir de 10 6 se escriben en mayúsculas.
Por ejemplo:

1 MHz (106 Hz, megahertz, una frecuencia de un millón de hertz)


1 GW (109 W, gigawatt, una potencia de mil millones de watt)

4. Estilos de escritura 

Las magnitudes se escriben en itálica (o bastardilla, caracteres inclinados), y los símbolos


de unidades en caracteres verticales. Por ejemplo:

g representa la magnitud aceleración de la gravedad terrestre


g representa la unidad gramo

5. Expresión de valores numéricos

En castellano es más recomendable el uso de  la coma decimal, como en   78,7kg, que el
del punto, como en 78.7 kg.

Además, para mayor claridad, se recomienda dejar un espacio cada 3 dígitos (miles,
millones, etc.). Por ejemplo,

c0 = 299 792 458 m/s(velocidad de la luz en el vacío)


ρ0 = 0,001 192 g/cm3 (densidad normal del aire húmedo)

No deben colocarse puntos para identificar miles o millones. Por ejemplo, para expresar la
distancia por ruta entre Buenos Aires y Bariloche, es correcto escribir  1 569 km y es
incorrecto 1.569 km.[ CITATION INT \l 11274 ]
Sistemas de medición

Un sistema de medición “es la colección de operaciones, procedimientos, instrumentos


de medición y otros equipos, software y personal, definidos para asignar un número a la
característica que está siendo medida”.

Un concepto básico dentro de un sistema de medición es el de “calibración”. La


calibración de un instrumento de medida permite conocer el “nivel de error” del aparato.

La definición de calibración según el VIM (Vocabulario Internacional de Metrología) es:


“Conjunto de operaciones que establecen, bajo condiciones especificadas, la relación
entre los valores de magnitudes indicados por un instrumento o sistema de medición, o
valores representados por una medida materializada o un material de referencia, y los
correspondientes valores aportados por los patrones”.

Por lo tanto, la calibración solamente se puede realizar a instrumentos de medida de


cualquier magnitud (tensión, corriente, resistencia, tiempo, frecuencia, potencia, etc.) y
que expresen la medida en las unidades básicas del Sistema Internacional (SI) o
materiales de referencia.

Cada valor de medida consignado en un punto de calibración conlleva asociado un valor


de incertidumbre que según el VIM es: “Un parámetro, asociado al resultado de una
medida, que caracteriza el intervalo de valores que pueden ser razonablemente atribuidos
al mensurando”.

La incertidumbre indica el rango de valores dentro del cual es muy probable que se
encuentre el valor verdadero de aquello que se está midiendo, en función de las
diferentes contribuciones que confluyen en la obtención de la medida.

Las calibraciones tienen una determinada trazabilidad que el VIM define como: “La
propiedad del resultado de una medida o del valor de un estándar donde éste pueda estar
relacionado con referencias especificadas, usualmente estándares nacionales o
internacionales, a través de una cadena continua de comparaciones, todas con
incertidumbres especificadas”.

Por lo tanto, la trazabilidad viene dada por el laboratorio u organización externa que
realiza la calibración de los patrones de referencia utilizados en el proceso de calibración
de un determinado instrumento.

Los resultados de las calibraciones se consignan en los certificados de calibración, cuyo


contenido mínimo debe ser el siguiente:

 Identificación del equipo calibrado.


 Identificación de los patrones utilizados y la garantía de su trazabilidad.
 Referencia al procedimiento o instrucción de calibración utilizados.
 Condiciones ambientales durante la calibración.
 Resultados de la calibración.
 Incertidumbre asociada a la medida.
 Fecha de calibración.
 Firma (o equivalente) del responsable de la calibración.

Verificación

La verificación consiste en comparar las medidas proporcionadas por el instrumento con


las de un equipo calibrado y de calidad metrológica igual o superior al equipo a verificar,
con el fin de confirmar que el equipo mide con un error menor al especificado por el
fabricante o menor del requerido para la realización de un determinado trabajo.

Las verificaciones se pueden aplicar a instrumentos de medida susceptibles de ser


calibrados, que no requieran una gran precisión por utilizarse para comprobar que los
productos se encuentran entre niveles determinados de calidad o exactitud, o que
cumplen sobradamente con determinadas especificaciones.

Una verificación se acompaña de un certificado que recoge la identificación inequívoca del


instrumento, la fecha y la indicación de: valido, correcto o apto, para las funciones a
realizar sin necesidad de especificar los resultados de las medidas realizadas.

Control de la instrumentación

El objetivo del control de los instrumentos de medida debe hacer compatible el nivel de
error de los mismos con el nivel de error que requiere la producción.

La norma ISO 9001 es la adecuada para que cualquier compañía que realice proyectos,
diseños, desarrollos, instalaciones, fabricación y mantenimiento, de productos o servicios,
pueda desarrollar un control de las operaciones de calibración o verificación de los
instrumentos de inspección.

El capítulo 7.6 de la norma contiene los requisitos que se deben cumplir en el control de
los equipos que se utilizan para realizar mediciones, para lo cual indica que:

La organización debe determinar el seguimiento, la medición a realizar, y los dispositivos


de medición y seguimiento necesarios para proporcionar evidencia de la conformidad del
producto con los requisitos determinados.

Para conseguir esto en un Sistema de calidad, primero se debe determinar qué


mediciones o verificaciones se han de realizar a cada producto. Con ello se determinan
los equipos necesarios para dichas tareas, los períodos entre calibraciones o
verificaciones y los ajustes a realizar, como consecuencia de los resultados obtenidos en
las mismas.

Las organizaciones pueden verificar o calibrar por sí mismas los instrumentos de medida
(calibración interna), o subcontratar el servicio a empresas especializadas (calibración
externa). Si se opta por la calibración interna, la organización debe contar con los medios
humanos e infraestructuras necesarios para su correcta realización y, al menos, calibrar
externamente los instrumentos que se utilicen como patrones o referencias.

Elementos de un Sistema de Medición

Patrón
Medida materializada, instrumento de medida, material de referencia o sistema de
medición destinado a definir, realizar, conservar o reproducir una unidad, o uno o más
valores de una magnitud para que sirvan de referencia.

 Patrón internacional

Patrón reconocido por un acuerdo internacional para servir como referencia internacional
para la asignación de valores a otros patrones de la magnitud considerada.

 Patrón nacional

Patrón reconocido por una decisión nacional para servir, en un país, como referencia para
la asignación de valores a otros patrones de la magnitud considerada.

1. Patrón primario

Patrón que es designado o ampliamente reconocido como poseedor de las más altas
cualidades metrológicas y cuyo valor es aceptado sin referirse a otros patrones de la
misma magnitud.

2. Patrón secundario

Patrón cuyo valor se establece por comparación con un patrón primario de la misma
magnitud.

Patrón de referencia

Patrón, en general de la más alta calidad metrológica disponible en un dado lugar o en


una dada organización, a partir del cual se derivan las mediciones realizadas en dicho
lugar.
Trazabilidad

Propiedad del resultado de una medición, o del valor de un patrón, por lo cual puede ser
relacionado a referencias determinadas, generalmente patrones nacionales o
internacionales, a través de una cadena ininterrumpida de comparaciones que tengan
todas incertidumbres determinadas.

1- Este concepto es a menudo expresado por el adjetivo “trazable”.


2- La cadena ininterrumpida de comparaciones se llama “cadena de trazabilidad”.

Concepto de trazabilidad

Cuando la palabra trazabilidad es usada en una medición o en un contexto de metrología,


significa que las unidades de una medición específica están basadas en unidades de
medida que se rigen y están definidas por ley, con lo cual las unidades usadas
significarán lo mismo para todas las partes involucradas. Esta es la razón de la existencia
de los estándares de medición. Sin embargo, los estándares de medición sólo son
beneficiosos si se les da uso. Los mejores estándares de medición resultan de poco
provecho si el que realiza la medición no la hace trazable a esos estándares.

Esto significa que los estándares de medición deben ser trazables a sus fuentes – los
prototipos estándar que definen las unidades de medición.

“Trazabilidad es más que un mero rastreo de papeles”.

Definición de trazabilidad recomendada por el Dr. Belanger del NIST:

La trazabilidad a determinados patrones designados (nacionales, internacionales, o


patrones de referencia bien caracterizados en base a constantes fundamentales de la
naturaleza) es un atributo de algunas mediciones.

Las mediciones tienen trazabilidad a patrones designados, sí y sólo sí se produce una


evidencia científicamente rigurosa con una base continua, para mostrar que el proceso de
medición está generando resultados de mediciones (datos) para los cuales se ha
cuantificado la incertidumbre total de medición, relativa a los patrones nacionales o a otros
patrones designados.

El concepto es que todo el proceso de medición, con sus correspondientes resultados e


incertidumbre de medición total, se convierte en la cosa trazable, más que el mero
artefacto patrón.
Error (de medición)

Resultado de una medición, menos un valor verdadero de la magnitud medida.

 La discordancia puede expresarse como la diferencia entre estos dos valores (error
absoluto), o bien como el cociente entre esta diferencia y el valor de la magnitud medida
(error relativo).

- Error aleatorio

Resultado de una medición menos la medida que resultaría de un número infinito de


mediciones de la misma magnitud, efectuadas bajo condiciones de repetibilidad.

- Error sistemático

Medida que resultaría de un número infinito de mediciones de la misma magnitud,


efectuadas bajo condiciones de repetibilidad, menos el valor verdadero de la magnitud
medida.

Desviación standard experimental

Para una serie de n mediciones de la misma magnitud a medir, caracterizando la cantidad


s la dispersión de los resultados, dada por la formula:
Ejemplo:
Es la diferencia entre el resultado de la medición y un valor Error
verdadero del mensurando.
Es un parámetro asociado con el resultado de la medición.
Indica un intervalo dentro del cual se estima que se encuentra el
Incertidumbre
valor del mensurando. Caracteriza la disperción de los valores
que podrían ser razonablemente atribuidos al mensurando.
Es un concepto asociado con las especificaciones. Tolerancia
Indica el rango de variabilidad aceptable para un valor dado.
valores que podrían ser razonablemente atribuidos a la magnitud medida.
Parámetro asociado con el resultado de una medición, que caracteriza la dispersión de los
Incertidumbre de medición
considerados.
siendo xi el resultado de la i-ésima medición y x la medida aritmética de los n resultados
n−1
S=
i=1
∑ ( x i− x́ )2

n
Evaluación de un SM
Los conceptos que se tienen que considerar para realizar el análisis de los elementos que
constituyen un Sistema de Medición son: exactitud, estabilidad, linealidad y precisión
(repetibilidad y reproducibilidad).
Los tres primeros definen los errores de posición de un SM y la precisión define los
errores de dispersión.

Exactitud

Se define a la exactitud “como la medida de la diferencia entre el promedio observado de


las mediciones de una característica y su valor real, verdadero o de referencia“.

El valor de referencia se obtiene promediando varias mediciones con el más exacto


equipo de medición disponible. En el esquema adjunto se puede observar en forma
gráfica que la exactitud, estadísticamente hablando, no es otra cosa que una medida de
posición de la distribución de mediciones efectuada con el SM.

Se puede calcular un índice dividiendo el valor de exactitud por la variación del proceso
(o la tolerancia), y compararlo con un criterio de aceptación pre-establecido.

Los factores que determinan valores exagerados de exactitud pueden ser los
siguientes, actuando en forma individual o combinada:

 Error en la pieza patrón.


 Piezas desgastadas.
 Dimensión equivocada.
 Instrumento mal calibrado.
 Método de uso del instrumento inapropiado.

Estabilidad
Aquí aparece el factor temporal como generador de variabilidad. Se define a la
estabilidad como “la variación en la exactitud del SM a lo largo del tiempo, sobre una
pieza considerada como pieza dada o patrón”. El gráfico adjunto refleja claramente este
concepto.

Esta característica es importante para poder predecir, con el SM que estoy seleccionando
y evaluando, la perfomance de un proceso en el futuro. Cualquier acción tomada basada
en estudios cuya estabilidad no ha sido verificada puede producir mayor daño que
beneficio. Quizás el dato más importante a considerar es que, en función de la evaluación
de la estabilidad del SM, se va a determinar el período de recalibración del
instrumento.

La estabilidad depende fundamentalmente del tiempo. Para poder determinar los factores
que pudieran influir sobre el sistema, se recomienda hacer un análisis utilizando otras
herramientas, como por ejemplo el diagrama de causa-efecto, diagramas de flujo de
procesos, etc., y establecer las prioridades para actuar.

La estabilidad se determina mediante el uso de Gráficos de Control. Se deberán graficar


los valores de Xmedia y Rango de una pieza patrón durante intervalos definidos de tiempo.
Se analizará si los puntos fuera de control son señales de la necesidad de una
recalibración o, por ejemplo, de suciedad en el patrón.

Puntos fuera de control en el Gráfico de Rangos indican inestabilidad en la


repetibilidad (ej.: algo suelto, línea de aire parcialmente bloqueada, voltaje que varía,
etc.). Puntos fuera de control en el Gráfico de Xmedia indican que la exactitud ha variado y
esto podría deberse a un desgaste.

En los casos en que se registre inestabilidad, se recomienda el uso de diseños de


experimentos (DOE) para determinar los principales factores de inestabilidad.

Linealidad
Se define a la linealidad como la variación de la exactitud a lo largo del rango operativo
del instrumento de medida. Si el sistema no tiene la linealidad esperada, verificar:

 Calibración del instrumento al principio y en el fondo de su escala.


 Si no existe desgaste del instrumento.
 El diseño del instrumento de medición.

El gráfico adjunto refuerza el concepto de linealidad.

Repetibilidad o precisión

Se define a la repetibilidad como la medida de la variabilidad de lecturas al medir


repetidas veces una misma característica. Es una medida de dispersión del sistema de
medición.

Las condiciones que influyen sobre la repetibilidad son: las variaciones debidas al
instrumento mismo y al posicionamiento de la pieza en el instrumento.

Estas variaciones quedan representadas por los rangos de los subgrupos, por lo que la
consistencia en las mediciones se puede verificar en el gráfico de rangos.

Siguiendo con el esquema inicial, el gráfico muestra el concepto de repetibilidad de una


serie de mediciones efectuadas con un sistema de medición.
Si como resultado de la visualización de las mediciones en un gráfico de control, se
encontrara un punto fuera de control, el método de ese operario no sería consistente
respecto de los demás. Si todos los operadores muestran puntos fuera de control,
entonces el SM es sensible al método de medición y necesita ser mejorado para poder
obtener información útil.

Reproducibilidad

La reproducibilidad habla de la consistencia en la variabilidad entre los operadores. Es


la medida de la variabilidad de una medición de una misma propiedad al ser efectuada
por diferentes operadores. En otras palabras, es la dispersión resultante de la
superposición de las dispersiones individuales.

El gráfico muestra este último concepto y se observa claramente que para minimizar la
variabilidad que introduce este sistema instrumento – operadores A, B y C, se debería por
ejemplo, mejorar el conocimiento de los operadores B y A sobre el proceso de medición.

Metodología para el estudio de un SM


Existen distintos métodos para analizar la variabilidad que introduce un SM. La utilización
de uno u otro, depende de distintos factores: Aptitud del proceso que se quiere controlar,
tolerancia de la cota a verificar con el SM, grado de conocimiento de las herramientas
estadísticas, etc.

A los efectos de ponderar estos factores y seleccionar una u otra metodología, se debe
efectuar un adecuado planeamiento del estudio de aptitud de los instrumentos de
medición. El método más difundido y que mejor se adapta a los requerimientos de las
normativas de calidad actuales es el método R y R (repetibilidad y reproducibildad).

Planeamiento del sistema de medición

Para la preparación de un estudio de un SM se deben considerar los siguientes aspectos:

 Cantidad de mediciones en función de la criticidad de la medida y en función de la


pieza (ej.: si es pesada: menos muestras, más repeticiones).
 Operarios que usualmente usan el instrumento.
 Las piezas deben ser tomadas del proceso y ser representativas de todo el rango
operativo del proceso. Cada pieza debe ser numerada.
 El instrumento debe tener una discriminación de 0,1 de la variación del proceso. Por
ejemplo, si el proceso varía 0,01, el equipo debe poder leer un cambio de 0,001.
 Seguir el procedimiento de medida.
 Las mediciones deben ser realizadas en forma aleatoria (cambio del orden de los
operadores).
 Los valores deben redondearse a la graduación más próxima o a la mitad de la
graduación más próxima.

Estudios de repetibilidad & reproducibilidad (R&R)

Estos estudios son aplicables tanto a sistemas de medición por atributos como a
sistemas de medición por variables.

1. Estudios R&R por atributos

Genéricamente hablando, un calibre de atributos es una comparación para cada pieza


dentro de un ajuste específico de límites. La mayoría de estos calibres se ajustan
utilizando piezas patrones y, a diferencia de un calibre por variables, este no puede decir
cuán bien y cuán mal esta una pieza. Un ejemplo típico de sistemas de medición
atributivos son los calibres pasa / no pasa.

Conforme a la cantidad de piezas y controles, existen dos metodologías: el método corto y


el método largo.

1.1. Método Corto

Recursos: 20 piezas y 2 operadores que efectúan dos controles por cada pieza.
Procedimiento:
1.1.1. Seleccionar 20 piezas de manera que algunas estén ligeramente por
debajo y otras ligeramente por arriba de las especificaciones.
1.1.2. Seleccionar dos operadores, preferentemente los que usualmente utilizan
el calibre, e identificarlos como A y B.
1.1.3. Identificar las piezas en orden numérico del 1 al 20.
1.1.4. El operador A controla las piezas en orden numérico y el coordinador
registra los resultados.
1.1.5. El operador B realiza el mismo control sin mirar los resultados de A.
1.1.6. Se repiten los últimos 2 pasos.

Criterio de aceptación: Todas las inspecciones, cuatro por pieza, deben concordar, de
lo contrario se revisa el calibre o el método de control y se repite el procedimiento.

1.2. Método Largo

Se diferencia del anterior porque se utilizan 8 piezas y cada operador efectúa 20


controles por cada pieza. El procedimiento seguido y el criterio de aceptación son
iguales a la anterior metodología.

2. Estudios R&R por variables

Existen tres metodologías: el método corto o del rango, el método largo o del promedio y
rango, y el método de Anova.

2.1. Método del rango

Es un estudio rápido, preliminar, para conocer la aptitud de un SM. La ventaja de esta


metodología es que da una rápida aproximación a la variabilidad del sistema. Su
desventaja es que no permite distinguir entre repetibilidad y reproducibilidad, esto
significa que no permite discernir entre el error que introduce el operador y el
error que introduce el instrumento.

Recursos: Requiere sólo de 2 operadores, quienes deben medir una única vez un
grupo de 5 piezas seleccionadas al azar.

Procedimiento:
Una vez que cada operador ha completado la medición de las cinco piezas, se
establece para cada pieza la diferencia entre las mediciones de cada operador
(rangos). Se calcula el promedio de los rangos sumando todos los valores que surgen
como diferencias y dividiendo por 5. Luego, el error del SM se obtiene afectando al
promedio de rangos por un factor estadístico (4,33) que surge del tamaño de la
muestra.

Criterio de Aceptación: Si el valor de R&R expresado porcentualmente respecto de la


variación del proceso ( o del intervalo de tolerancia es menor o igual al 20%, se
considera que el SM es apto. De lo contrario se rechaza, se repara, se revé el
método y/o se instruye a los operadores y se evalúa nuevamente.

Teniendo en cuenta las nuevas exigencias del mercado y el énfasis en la mejora


continua, se considera más adecuado referir el valor de R&R respecto de la variación,
más que de los límites de especificación.
Recordemos por otro lado, que en esta metodología, el valor de R&R incluye el error
de la propia persona, la diferencia entre personas y la diferencia de pieza a pieza.
Debido a este último punto es que cuando se evalúa siguiendo esta metodología, un
SM empleado para controlar determinadas características que dependen de la
homogeneidad del material (ej.: dureza y torque), hay que asegurarse que una falta de
homogeneidad no introduzca error (variación dentro de la pieza).

2.2. Método del promedio y rango

Este es un estudio más completo para determinar el error de un SM que, a diferencia


del anterior, provee una indicación de las causas del error, y distingue entre
repetibilidad (error asociado al instrumento o método de medición) y
reproducibilidad (error asociado al operador).

En esta metodología no se discrimina la variabilidad dentro de la parte (ejemplo:


condiciones fuera de curvatura, etc.), la cual queda enmascarada en la repetibilidad.
Para evitar esto se deberían disponer las piezas en una forma que se mida la
condición de máximo de la característica. Tampoco discrimina la interacción entre
operador y calibre a no ser que, como vamos a ver, se efectúe específicamente el
análisis de la influencia de esta variable.
Recursos: Requiere de 2 o 3 operadores que efectuarán 2 o 3 mediciones de la
característica seleccionada, sobre 10 piezas seleccionadas al azar.

Procedimiento:

2.2.1. A los efectos de facilitar el procedimiento existen tablas específicamente


diseñadas.
2.2.2. Numerar las piezas del 1 al 10 sin que resulte visible para los operadores.
2.2.3. Verificar el instrumento con un patrón.
2.2.4. El primer operador (A), mide las 10 piezas y se registran los resultados en
la columna específica de la tabla. Lo mismo hacen a continuación los
operadores B y C.
2.2.5. Se repite el paso anterior pero alterando el orden de las 10 piezas.
2.2.6. De aplicarse una tercera medición se vuelcan los resultados en las
columnas específicas.
2.2.7. Se efectúan los cálculos siguientes:

 Cálculo de la repetiblidad o variación del equipo (VE), como el producto


del promedio de rangos por un coeficiente K1, cuyo valor se obtiene de
tabla en función de la cantidad de mediciones por operador (2 ó 3).
 Cálculo de la reproducibilidad o variación del operador (VO), como el
producto del rango de los promedios de las lecturas por un coeficiente K 2,
cuyo valor se obtiene de tabla en función de la cantidad de operadores ( 2
o 3 ).
 Cálculo de R&R como la raíz cuadrada de la suma de los cuadrados de
VE y VO.
 Estudio de porcentajes absorbido por cada error, que como vimos en la
metodología anterior puede referirse a 6o al intervalo de tolerancia. En
caso de tolerancias unilaterales, se recomienda utilizar la diferencia entre el
límite de control superior (LCS) y el límite de control inferior (LCI) de un
proceso correspondiente y bajo control estadístico.
Criterio de aceptación: Si el valor de R&R expresado porcentualmente es inferior a 10%
se aprueba el SM, si está ubicado entre 10 y 30% se acepta condicional y temporalmente,
y si es superior a 30% se considera inaceptable.

Análisis del Resultado: Si el error de reproducibilidad es grande respecto del de


repetibilidad esto sugiere la necesidad de entrenar al operador en el uso y lectura del
instrumento y/o mejorar la visión del dial o elemento de lectura. Si el error de repetibilidad
es grande respecto del de reproducibilidad, esto sugiere efectuar mantenimiento del
instrumento y/o dispositivo de medición, o rigidizar el dispositivo de medición y mejorar el
posicionamiento o fijación de la pieza en el instrumento.

Método del promedio y rango

Cuantificación de la variación dentro de la parte

Sin cuantificar la variación D


dentro de la parte

D1
Cuantificando la variación D2
dentro de la parte

Dentro del método del promedio y el rango, y dado que hasta ahora la variación dentro
de la pieza está incluida dentro del valor de repetibilidad, existe la posibilidad de
considerar y separar del valor de repetibilidad esta variable, mediante la realización de
cálculos adicionales.

Como se observa en el gráfico adjunto, un ejemplo típico es el control de la ovalización


cuando se mide el diámetro de un eje.

3. Método de ANOVA

Dado que esta metodología excede las pretensiones del texto, por el conocimiento de
herramientas estadísticas que involucra la aplicación del método ANOVA, sólo se quiere
mencionar que esta metodología descompone la variación del SM en cuatro categorías:
piezas, operadores, interacción entre piezas y operadores, y error de replicación debido al
instrumento de medición.

Sus ventajas son el estimar las varianzas con mayor precisión que los métodos
anteriores y el permitir obtener una información más completa respecto del SM, sus
desventajas son la complejidad de los cálculos y la necesidad de usuarios con
conocimientos suficientes para interpretar los resultados.
Exactitud y estabilidad (otras consideraciones)

Tanto la reproducibilidad como la repetibilidad y la variación entre partes son errores que
determinan la dispersión del SM bajo estudio. Tanto la linealidad como la exactitud y la
estabilidad son errores de posición, que si bien no tienen la predominancia de los de
dispersión, pueden y en muchos casos deben, ser identificados para minimizar el efecto
que se observa en el gráfico adjunto.

¿Basta con R&R?

K
O Op. A O
K

T1
Op. B
xx x xx x
xx xxx xx xxx
K
O
No

K
O

T2
xx x
xx xxx

Cumple exigencias del estudio R&R Cumple exigencias del estudio R&R
pero no es exacto pero es inestable , su exactidud varía
en el tiempo

Determinación de la exactitud

Para determinar la exactitud del instrumento es necesario obtener una medición precisa
de las piezas de la muestra. Generalmente esto se logra en una sala de medidas y con
equipo de mayor precisión.

El promedio “verdadero” será determinado en base a estas mediciones, comparando


luego dicho promedio con los promedios resultantes de los dos o tres operadores que
participaron del estudio de R&R.

Si la medición de la totalidad de las muestras no es factible de la manera en que se


mencionó anteriormente, se puede optar por otra alternativa; medir en forma precisa una
muestra en sala de medidas; esta misma muestra será luego medida como mínimo diez
veces por cada operador del instrumento que está siendo evaluado. Luego se calcula el
promedio de estas lecturas y la diferencia entre la medida precisa y este promedio será la
exactitud. Se multiplica por 100 y se divide por el rango de tolerancia para comparar
contra un criterio de aceptación.

Un error de exactitud relativamente alto puede tener origen en un error en el patrón, en


un desgaste de piezas o en un la presencia de una dimensión incorrecta en el
instrumento.
Determinación de la estabilidad

El método por el cual se determina la estabilidad depende de la frecuencia de uso del


instrumento entre las calibraciones que ya se ha planificado como rutina de verificación
del mismo.

La necesidad de calibración es la resultante de varios factores causales: tiempo (largos


períodos en desuso), número de mediciones efectuadas con el instrumento, temperatura
ambiente, presión atmosférica, humedad, variaciones de la presión de aire de línea, etc.
Si los factores causales son conocidos, la calibración puede ser ajustada en concordancia
con la variación de esos factores, a los efectos de minimizar el error por estabilidad.
Si el instrumento es de uso intermitente y es calibrado antes de cada operación, la
estabilidad puede determinarse en forma simultánea con el estudio R&R. Si este es
el caso, el instrumento debe ser ajustado antes y después de cada una de las pruebas
para determinar la diferencia entre la calibración inicial y la calibración final de cada
prueba; sumando y promediando las diferencias, se obtiene el error por estabilidad.

Si el instrumento se usa normalmente durante períodos relativamente largos sin


calibración (ejemplo: al comienzo del turno de fabricación y luego del período de
almuerzo de los operadores), la estabilidad puede ser determinada sin hacer dicho ajuste
en cada prueba.

Un segundo estudio de R&R debe hacerse justo antes de que venza el tiempo regular de
recalibración. La estabilidad puede entonces calcularse simplemente tomando la
diferencia entre el promedio del primero y segundo estudio, al igual que la exactitud.

También, y a los efectos de compararla con un criterio de aceptación, la estabilidad debe


expresarse porcentualmente respecto del intervalo de tolerancia.

Un error de estabilidad relativamente alto, puede tener origen en una inadecuada


frecuencia de calibración, en inestabilidad térmica ambiental (instrumentos
electrónicos sin compensación por temperatura) o en inestabilidad de presión de línea
(calibres neumáticos).

Vous aimerez peut-être aussi