Skip to content
Tipos Clasificación

Los diferentes errores de medición ¡Conoce todos los tipos!

Errores de medición

Los errores de medición en física son algo muy común. Medir una magnitud física es asociar a la misma un valor dimensionado en relación a la unidad que arbitrariamente se ha definido para medirla. Así medir una distancia, significa establecer el número de veces que la unidad de longitud está contenida en dicha distancia.

La operación de medir una magnitud supone a priori que tal magnitud tiene un valor verdadero, no obstante las dificultades lógicas que aparecen en cuanto se trata de precisar con rigor el significado de este concepto.

No existen ni pueden existir instrumentos que permitan medir sin error alguno una magnitud física. Podemos medir por ejemplo la carga del electrón con una aproximación tanto más grande cuanto mejor sea el método que imaginamos para hacerlo Pero en ningún caso podemos medir la “verdadera” carga del efulectrón.

Además, en muchos casos, en cuanto extremamos la aproximación con que medimos una magnitud, la propia magnitud carece de sentido. Así, si medimos la longitud de una barra rígida con una escala métrica, con una escala con vernier o con métodos ópticos obtenemos valores de esa longitud que decimos son más aproximados.

Errores de medición
Errores de medición

Pero, ¿qué sentido tiene medir esa longitud con una aproximación del orden o mayor que la distancia que separa a los átomos que forman la barra rígida?

Solamente como una excepción muy particular, cuando el número que mide una magnitud es necesariamente un número entero se puede afirmar que es rigurosamente exacto. Por ejemplo el número de electrones en un átomo.

Es importante destacar que la medida de una magnitud difiere siempre en algo del verdadero valor de la misma. Dar simplemente un número como medida de una magnitud sin precisar el error no significa mucho. Una medida tiene sentido sólo cuando se puede valorar de una u otra forma el error de que está afectada.

Tipos de errores de medición

Se llama error de la observación X’ respecto de cierto valor X a:

∆X = X − X’

En esta función según el significado de X (valor verdadero, valor medio o valor más probable) es la denominación que se la da al error ∆X . Por ahora, supondremos que X es el valor verdadero; en tal caso ∆X es el error absoluto o error verdadero.

Error absoluto

Para intentar averiguar el valor verdadero de una magnitud se procede, como luego se verá, a realizar una colección de medidas experimentales de n observaciones, que proporcionan a posteriori un valor óptimo aproximado. Por ejemplo la media aritmética de tales medidas, y una cota de error absoluto ∆X .

El sólo enunciado del error de una observación no es suficiente para caracterizar la aproximación o precisión de la misma. Por ejemplo la medida de una distancia de 1 m con una regla que produce un error de 2 mm.

El error por unidad de escala (el mm) es: 2 / 1000 =.0 002

Si medimos en cambio el diámetro de un alambre de 1 mm con un tornillo micrométrico que nos da un error de 0.01 mm el error por unidad de escala es de 0.01. En el primer caso tenemos por unidad de escala un error cinco veces menor que en el segundo. El error por cada unidad en las cuales se mide la magnitud a determinar se llama error relativo.

Errores de medición
Errores de medición

Error relativo

Para los fines prácticos sólo se requiere valores aproximados del error relativo, de modo que, define el error relativo de la observación X’, y es calculable siempre que se pueda valorar ∆X .

A veces el error relativo no se da por cada unidad sino por cada 100 unidades. En tal caso se define el error relativo porcentual.

Cuando se dice que el error relativo es del 2% significa que se comete un error de dos unidades por cada 100 de las mismas. El valor inverso del error relativo mide la precisión de la correspondiente medición. De esta forma definimos precisión de una medición. El número de unidades afectadas de un error equivalente a una de dichas unidades.

También te puede interesar la clasificación las operaciones algebraicas y nexos.

Precisión de un método de medición

La mayor o menor precisión de un instrumento de medida o método de medición, está definida por la facultad de uno u otro de repetir con mayor o menor precisión los resultados de las mediciones de una misma magnitud, supuestas éstas realizadas en idénticas condiciones.

Entre la sensibilidad de un instrumento de medición y su precisión, no existe un relación directa. Esto es, por ejemplo en una balanza de platillos la sensibilidad está dada por la coincidencia del centro de gravedad de la cruz, y del soporte de ésta.

En el límite cuando ambos coinciden exactamente, el sistema móvil se encuentra en equilibrio indiferente. Por lo tanto cualquier sobrecarga sobre uno de los platillos, por pequeño que sea causa una gran desviación del fiel, la sensibilidad de la balanza es, en consecuencia, muy grande.

Sobre la precisión en ese extremo, es claro, que es muy pequeña, puesto que la posición de equilibrio del fiel es prácticamente invariante respecto de su desviación. Luego es necesario lograr un compromiso, y operar con sensibilidades tales que la precisión de la balanza sea la adecuada.