Cifra significativa

Da Wikipedia, l'enciclopedia libera.

La determinazione delle cifre significative pone, in maniera implicita, un'espressione numerica all'interno di un intervallo; per esempio per indicare l'errore nella misurazione, l'intervallo di confidenza di una stima o l'errore propagato nel risultato di una successione di calcoli. La loro definizione segue il principio di non indicare più cifre di quelle giustificate dalla precisione della misurazione o di qualsiasi altro processo abbia portato al numero indicato.

Il calcolo della significatività delle cifre di una misura è molto importante, specie quando sono in gioco quantità in correlazione; un caso esemplare è quello delle coppie di Heisenberg (posizione e quantità di moto, per esempio).

Procedura[modifica | modifica sorgente]

Identificazione delle cifre significative[modifica | modifica sorgente]

  • La cifra più significativa è sempre la prima da sinistra che sia diversa da zero;
  • La cifra meno significativa
    • in un valore intero, è la prima da destra che sia diversa da zero,
    • in un valore con una parte frazionaria, è l'ultima cifra a destra, anche se si tratta di uno zero;
  • Le cifre significative sono tutte quelle comprese tra la più significativa e la meno significativa


Per esempio, 0,00057 ha due cifre significative.

Dal valore alla sua espressione numerica[modifica | modifica sorgente]

Dato un valore K con un errore dK (normalmente indicato con K ± dK), si scriverà dK con una o due cifre significative e K avrà come cifra meno significativa l'omologa in dK. Se, per esempio, ci trovassimo a dover scrivere una quantità che abbiamo calcolato o stimato in 14,2856 ± 0,362 potremmo scriverla come 14,3 ± 0,4 o 14,29 ± 0,36.

Se invece vogliamo indicare il solo valore, senza l'errore, la sua cifra meno significativa sarà quella immediatamente superiore alla cifra più significativa dell'errore non indicato. Nel caso in esempio, scriveremmo 14.

Si noti come la cifra meno significativa non viene riportata tale e quale, ma viene arrotondata.

La notazione scientifica[modifica | modifica sorgente]

La notazione scientifica consente di evidenziare in maniera immediata il numero di cifre significative.
Ad esempio:

  • Con 5,13\,\! , indicheremo un valore compreso tra 5,125 e 5,1349999...
  • Con 3,12 \times 10, indicheremo un valore compreso tra 31,15 e 31,249999...
  • Con 1,060 \times 10^2, indicheremo un valore compreso tra 105,95 e 106,049999...
  • Con 5,7 \times 10^{-4}, indicheremo un valore compreso tra 0,000565 e 0,0005749999...

L'errore implicito[modifica | modifica sorgente]

Salvo i casi in cui sia indicato esplicitamente un errore, la convenzione delle cifre significative implica il riferimento ad un "errore implicito" pari a cinque unità della cifra immediatamente inferiore alla cifra meno significativa. Per esempio: 14 e 14,7 equivalgono, rispettivamente, a 14 ± 0,5 e 14,7 ± 0,05.

Un esempio pratico[modifica | modifica sorgente]

Se in una scala millimetrata riusciamo a vedere che l'oggetto da misurare arriva tra 6 e 7 millimetri e si trova approssimativamente a 1/3 tra le due tacche, possiamo (in prima approssimazione) assegnare alla misura il valore di 6 (essendo quello più vicino alla misura effettiva). In questo caso, abbiamo "una" cifra significativa e, con essa, intendiamo comunicare che il valore si trova tra 5.5 e 6.5.
In questo modo, però, abbiamo una perdita di precisione, rispetto a quella che siamo effettivamente in grado di stimare.
Se siamo effettivamente in grado di apprezzare la posizione intermedia tra le tacche, possiamo indicare "due" cifre significative; in questo caso, due misure accettabili possono essere 6,3 mm o 6,4 mm, ma non 6,33333333333 mm.

Voci correlate[modifica | modifica sorgente]