La metrología como ciencia
La metrología es la ciencia que tiene por objeto el estudio de las
propiedades medibles, las escalas de medida, los sistemas de unidades y los
métodos y técnicas de medición.
La metrología se divide en tres categorías, cada una de ellas con
diferentes niveles de complejidad y exactitud
1.- La Metrología Científica. Se ocupa de la
organización y el desarrollo de los patrones de medida y de su
mantenimiento (el nivel mas alto).
La Metrología Industrial. Asegura el adecuado funcionamiento de los instrumentos de
medición empleados en la industria y en los procesos de
producción y verificación.
La Metrología Legal. Se
ocupa de aquellas mediciones que influyen sobre la transparencia de las
transacciones comerciales, la salud y la seguridad de los ciudadanos.
Importancia y necesidades de las mediciones.
Las mediciones juegan un papel importante en la vida
diaria de las personas. Se encuentran en cualquiera de las actividades; desde
la estimación a simple vista de una distancia, hasta un
proceso de control o la investigación basica.
El conocimiento sobre la aplicación de la metrología es una
necesidad fundamental en la practica de todas las profesiones con
sustrato científico, ya que la medición permite conocer de forma
cuantitativa, las propiedades físicas y químicas de los objetos. El progreso en la ciencia siempre ha estado íntimamente
ligado a los avances en la capacidad de medición. Las mediciones
son un medio para describir los fenómenos
naturales en forma cuantitativa. Como se explica a
continuación” la Ciencia comienza donde empieza lamedición,
no siendo posible la ciencia exacta en ausencia de mediciones”. Ya
sea café, petróleo y sus derivados.,
electricidad o calor, todo se compra y se vende tras efectuar procesos de
medición y ello afecta a nuestras economías privadas. Los radares (cinemómetros) de las fuerzas de seguridad, con
sus consecuencias económicas y penales, también son objeto de
medición. Horas de sol, tallas de ropa,
porcentaje de alcohol, peso de las cartas, temperatura de locales,
presión de neumaticos, etc. Es
practicamente imposible describir cualquier cosa sin referirse a la
metrología. El comercio, el mercado y las leyes que los regulan
dependen de la metrología y del empleo de unidades comunes.
Sistemas de unidades y patrones.
Una unidad de medida es una cantidad estandarizada de una
determinada magnitud física. En general, una unidad de medida
toma su valor a partir de un patrón o de una
composición de otras unidades definidas previamente. Las primeras
unidades se conocen como
unidades basicas o de base (fundamentales), mientras que las segundas se
llaman unidades derivadas.
Sistema Internacional de Unidades
El Sistema Internacional de Unidades es la forma actual del sistema
métrico decimal y establece las unidades que deben ser utilizadas
internacionalmente. Fue creado por el Comité Internacional de Pesos y
Medidas con sede en Francia. En él se establecen 7 magnitudes
fundamentales, con los patrones para medirlas
1. Longitud (metro, m)
2. Masa (kilogramo kg
3. Tiempo (segundo, s
4. Intensidad eléctrica (ampere, A
5. Temperatura (Kelvin, oK
6. Intensidad luminosa(candela, cd)
7. Cantidad de sustancia (mol, mol
También establece muchas magnitudes derivadas, que no necesitan de un
patrón, por estar compuestas de magnitudes fundamentales.
Algunas unidades derivadas son:
Trabajo (joule, J)
Fuerza (newton, N)
Presión (pascal, Pa)
Potencial eléctrico (volt, V)
Potencia (watt, W)
Inducción magnética (weber, Wb)
Resistencia eléctrica (ohm)
Frecuencia (hertz, Hz)
Capacitancia (farad, F)
Carga eléctrica (coulomb, C)
Los múltiplos y submúltiplos mas comunes en el sistema
internacional son:
PREFIJO | SÍMBOLO | MÚLTIPLOS Y SUBMÚLTIPLOS |
peta | P | 1015 |
tera | T | 1012 |
giga | G | 109 |
mega | M | 106 |
kilo | k | 103 |
hecto | h | 102 |
deca | da | 101 |
deci | d | 10-1 |
centi | c | 10-2 |
mili | m | 10-3 |
micro | µ | 10-6 |
nano | n | 10-9 |
pico | p | 10-12 |
femto | f | 10-15 |
atto | a | 10-18 |
SISTEMAS MKS (métrico), CGS (cesagesimal) y FPS (inglés absoluto)
MAGNITUD | MKS | CGS | FPS |
longitud | metro | centímetro | Pie |
masa | kilogramo | gramo | Libra |
tiempo | segundo | segundo | Segundo |
Patrón de medida
Un patrón de medidas es el hecho aislado y conocido que sirve como
fundamento para crear una unidad de medir magnitudes. Muchas
unidades tienen patrones, pero en el sistema métrico sólo las
unidades basicas tienen patrones de medidas. Los
patrones nunca varían su valor. Aunque han
ido evolucionando, porque los anteriores establecidos eran variables y, se
establecieron otros diferentes considerados invariables.
Ejemplo de un patrón de medida
sería:'Patrón del segundo: Es la duración de 9 192
631 770 períodos de radiación correspondiente a la
transición entre 2 niveles hiperfinos del
estado fundamental del
atomo de Cesio 133'.
De todos los patrones del sistema métrico,
sólo existe la muestra material de uno, es el kilogramo, conservado en
la Oficina Internacional de Pesos y Medidas. De ese patrón
se han hecho varias copias para varios países.
Ejemplo de patrones de medida
1. Segundo (tiempo)
2. Metro (longitud
3. Amperio (intensidad de corriente eléctrica
4. Mol (cantidad de sustancia
5. Kilogramo (masa
6. Kelvin (temperatura
7. Candela (intensidad luminosa
Conceptos de medida, precisión y exactitud.
Medida
Medir consiste en obtener la magnitud (valor numérico) de algún
objeto físico, mediante su comparación con otro de la misma
naturaleza que tomamos como
patrón. Esta comparación con un
patrón, que constituye el acto de medir, esta sujeta a una
incertidumbre, que puede tener diversos orígenes. Nunca lograremos
obtener el verdadero valor de la magnitud, siempre vamos a obtener un valor aproximado de la misma y necesitamos pues indicar
lo buena que es esta aproximación. Por ello junto con el valor de la
magnitud medida se debe adjuntar una estimación de la incertidumbre o
error al objeto de saber cuan fiable son los resultados que obtenemos.
Exactitud: Proximidad en concordancia entre un valor
medido de la magnitud y un valor verdadero del mensurando.
En términos sencillos, la exactitud de una medición es la
concordancia del
resultado de la misma comparada con el valor verdadero del objeto queesta siendo medido
(mensurando). Por ejemplo, si pesamos una masa patrón, calibrada y con
trazabilidad, con un valor certificado de 1,0052 g en una balanza
analítica y el resultado de la pesada es 1,0047 g, la diferencia entre
el valor verdadero y el valor de la medición es de sólo 0,04%. La
balanza del
ejemplo es un instrumento exacto, con su parametro de exactitud
cuantificado en un porcentaje. Si el resultado de la pesada hubiese sido 1 g el instrumento es menos exacto. La aplicación
determina si la exactitud del instrumento es apropiada, un error de 4,9% puede
ser inaceptable en un laboratorio farmacéutico pero puede ser aceptable
en una balanza de campo utilizada para pesar muestras geológicas o
especímenes vivos. Es importante tener en cuenta que la exactitud de un instrumento de medición sólo puede
conocerse y cuantificarse con materiales de referencia.
Precisión: Proximidad de concordancia entre valores medidos obtenida por
mediciones repetidas de un mismo objeto, o de objetos
similares, bajo condiciones especificadas.
La precisión es un término relacionado
con la confiabilidad de un instrumento, es decir, si un instrumento proporciona
resultados similares cuando se mide un material de referencia de manera
repetida, entonces el instrumento es preciso. Por ejemplo, si se mide con un
micrómetro un patrón de longitud 10 o 15 veces y la
desviación estandar de los resultados de las mediciones es
pequeña, digamos, 0,1% del valor central, entonces se puede considerar
al instrumento como preciso.
Nuevamente, depende de la aplicación si la precisión de un instrumento es aceptableo no.
Exactitud y precisión son términos que a menudo se utilizan de
manera intercambiada, se integran al lenguaje coloquial sin mayor problema y
casi siempre como
calificativos positivos. No es raro escuchar que un
reloj de lujo es un “mecanismo de precisión”. Los
aficionados a los superlativos no dudan en producir frases como “de la
mas alta exactitud”. En metrología se
evitan los adjetivos y se sustituyen con números, de esta manera no hay
instrumentos buenos o malos sino los que cumplen o no con la función
para la cual estan destinados y esa función esta
determinada por especificaciones de diseño o proceso.
Repetibilidad: Precisión de una medida bajo un
conjunto de condiciones de repetibilidad de medición
Reproducibilidad: Precisión de una medida bajo condiciones de
reproducibilidad
Reproducibilidad y repetibilidad son términos utilizados
comúnmente en la industria y amplían el concepto de
precisión.
La repetibilidad es un parametro que
evalúa la precisión del
resultado de las mediciones y tiene en cuenta al operario.
La reproducibilidad evalúa la precisión del resultado de
las mediciones y tiene en cuenta el método.
Las condiciones de repetibilidad y reproducibilidad se refieren a que las
mediciones se hagan bajo condiciones bien establecidas y controladas: ambiente,
instrumento, método documentado, calibración, etc.
Si un operario obtiene resultados cercanos al valor
verdadero y ademas la dispersión es pequeña, las
mediciones tienen una buena repetibilidad. Si operarios distintos,
obtienen resultados cercanos al valor verdadero y la dispersión es
pequeña, las medicionestienen una buena reproducibilidad.
Es importante notar que la repetibilidad y reproducibilidad son muy importantes
porque tienen en cuenta el desempeño de un instrumento
en manos del
operario y en condiciones de operación. La exactitud y la
precisión sólo evalúan el instrumento en condiciones
controladas de calibración y en manos de un
experto.
Sensibilidad - incertidumbre
Sensibilidad: Es la relación entre el desplazamiento de la marca en un aparato de medida y la variación de la magnitud,
observada en dicho aparato y la variación de la magnitud de medida que
ha provocado dicho desplazamiento.
Incertidumbre: Es un parametro asociado al
resultado de una medida que caracteriza la dispersión de los valores que
pueden atribuirse razonablemente a dicha medición.
En metrología, es una cota superior del valor de la
corrección residual de la medida.
También se puede expresar como
el valor de la semi-amplitud de un intervalo alrededor del
valor resultante de la medida, que se entiende como el valor convencionalmente verdadero. El
Vocabulario Internacional de Metrología (VIM) define la incertidumbre de
medida como
un parametro, asociado al resultado de una medición, que caracteriza
la dispersión de los valores que razonablemente podrían ser
atribuidos al mensurando.
Existen muchas formas de expresar la incertidumbre de medida o conceptos
derivados o asociados: incertidumbre típica, incertidumbre expandida,
incertidumbre de calibración-calibración-, incertidumbre
maxima, incertidumbre de uso, etc. Como concepto metrológico, es del mismo
ambito, pero diferente a los de toleranciay precisión. Para la
determinación del
valor de las magnitudes fundamentales (obtenido experimentalmente) en unidades del SI, se aplica la
incertidumbre típica, revisada periódicamente.
Errores en las mediciones.
Clasificación de los errores
Mediciones repetidas de una magnitud dada con el método, por el mismo
observador e instrumento y en circunstancias analogas, no conducen siempre al mismo resultado. Esto muestra que
cada una de ellas esta afectada de un error que depende de los agentes
que concurren a la medición, a saber
1. El método de medida empleada.
2. El observador.
3. El instrumento.
4. Las condiciones del
ambiente en que se desarrolla la experiencia.
Atendiendo a su naturaleza y a las causas que los producen estos errores pueden
clasificarse en tres categorías
Errores groseros o fallas.
Errores sistematicos constantes.
Errores accidentales, casuales y fortuitos.
Errores groseros o fallas
Caracteriza a los errores groseros, el hecho de que su magnitud excede la que
puede preverse teniendo en cuenta los medios con que opera. Estos errores
provienen generalmente de la distracción del observador, y
para ellos no existe teoría. El cuidado con que trabaja el observador
contribuye a disminuir la frecuencia de estos errores los cuales es necesario
precaverse mediante oportunas operaciones de control.
Errores sistematicos
Estos errores son llamados así en razón de que su
característica es que se repiten exactamente y en el mismo sentido, para
todas las mediciones que se hagan en iguales condiciones, de tal manera que las
causas perturbadoras queconducen muchas veces a estos errores, pueden ser
expresadas en fórmulas matematicas. Consecuente con ello, al ser
determinados en valor y signo, en general es posible desafectarlos del
resultado de, la medición, es decir que los valores medidos pueden ser
'corregidos' o 'reducidos”.
Esto no es aceptable en todos los casos, en razón de que la
aplicación de la formula puede crear incertidumbre en los valores
corregidos de una manera exagerada, como luego puede verse en la
segunda parte de este tema.
Otras veces es posible eliminar la causa que origina este
error, no por un tratamiento matematico sino mediante un artificio que
logre que esta perturbación sé 'auto-elimine' y por lo
tanto no quede incluida en el resultado final de la medición.
Se considera que este procedimiento es mas
adecuado que la eliminación del
error mediante la 'corrección' antes mencionada.
Finalmente puede existir una causa de origen
sistematico que el observador por su poca experiencia, estudio u otra
circunstancia, no lo descubra en el analisis previo a la medición
y por lo tanto el mismo quedara incluido en el resultado final.
Ante la duda es preferible buscar otro método de medida. En virtud de
las distintas causas que involucra este tipo de error, es conveniente para su
estudio efectuar una subdivisión del
mismo comprendiendo
1) Errores en los instrumentos o aparatos (errores de aparatos).
2) Errores debidos al método de medida (errores de método).
3) Errores debidos a las condiciones externas o del medioambiente.
4) Errores debidos al observador (ecuación personal.
Errores sistematicosdebidos a los instrumentos y componentes de medida
Si bien hemos introducido los errores que cometen estos instrumentos en la
clasificación de los sistematicos, en un
sentido estricto, no debe olvidarse que también en estos aparatos
existen causas de otro origen, que producen errores adicionales superpuestos
con los primeros.
En general la magnitud de los efectos.
Sistematicos (orden de grandor) frente a los restantes y en particular a
los que corresponden a los instrumentos indicadores, justifica en cierto modo
su inclusión en este capítulo.
Los errores sistematicos en estos instrumentos son consecuencia de la
falta de ajuste e imperfección en la calibración de los mismos,
mientras que los restantes, denominados accidentales son debidos a las
variaciones en el tiempo de la magnitud calibrada (inestabilidad),a su
diseño constructivo, a los errores cometidos en el propio contraste y a
los patrones utilizados.
Para un estudio racional del problema es interesante efectuar una
subdivisión de los instrumentos que constituyen este capítulo,
dada sus propias características, diseño y sistema de lectura, en
dos categorías, definidas: los primeros se han de referir a mediciones
efectuadas mediante la posición de un índice en su escala
–sistema de deflexión o instrumento indicador- los segundos son
aquellos en que la medición es realizada, en el preciso momento de un
equilibrio, como son los denominados métodos de cero, -tales como los
potenciómetros, puentes, etc., con sus correspondientes partes componentes,
resistencias, inductancias, capacidades, divisores de tensión, etc.