Precisión y exactitud en la medida


La exactitud es la descripción de que tan cerca se encuentra una medida de algún valor aceptado, de modo que un resultado será más exacto mientras menor sea el intervalo de incertidumbre en la medida.

Toda medida debe expresarse indicando:

a)     Su valor numérico,

b)    Su incertidumbre y

c)     Sus unidades

La precisión se refiere a cuan constante son las mediciones.

Presión no implica exactitud, un instrumento muy preciso puede ser inexacto; pues una medida exacta es aquella que presenta poco error respecto al valor real.

Se llama sensibilidad de un instrumento de medida ala menor división de la escala.

 Reglas para el número de cifras significativas:

I. Todos los dígitos son significativos, excepto los ceros al principio y posiblemente los ceros terminales.

II. Los ceros terminales a la derecha del punto decimal son significativos.

III. Los ceros terminales a la izquierda del punto decimal pueden o no ser significativos.

Para especificar su número debemos hacer uso de la notación científica:

Medida reportada en notación científica
Numero de cifras significativas
Tamaño del intervalo de incertidumbre a que se refiere
4x10cm
1
350~450cm
4.0x10cm
2
395~405cm
4.00x10cm
3
399.5~400.5cm