Vai al contenuto

Errore di misurazione

Da Wikipedia, l'enciclopedia libera.

L'incertezza di misura è il grado di indeterminazione con il quale si ottiene il valore di una grandezza o proprietà fisica attraverso la sua misurazione diretta o indiretta. Il risultato della misurazione non è, pertanto, un unico valore, bensì un insieme di valori derivati dalla misurazione (diretta o indiretta) della grandezza o proprietà fisica stessa.

Il termine incertezza di misura viene spesso utilizzato come sinonimo di errore di misurazione.

Misura come risultato di un'interazione tra due fattori

[modifica | modifica wikitesto]

Solitamente, nei testi scientifici nel parlare di errori di misura ci si riferisce principalmente allo strumento e alle tecniche impiegate. In questa sede si vuole sposare un approccio olistico che tiene conto tanto dello strumento quanto dell'osservatore. Già un filosofo di fine Ottocento, Franz Brentano, aveva parlato dell'impossibilità di separare l'atto del percepire dall'oggetto percepito.

Più recentemente il fisico tedesco del '900 Werner Karl Heisenberg, uno dei padri della meccanica quantistica, ha parlato del principio di indeterminazione, principio secondo il quale ad un determinato istante non è possibile conoscere la posizione esatta di una particella e la sua esatta velocità (principio di indeterminazione). L'operazione di misura è, dunque, sempre invasiva, perché introduce una perturbazione nel sistema che si vuole indagare e, conseguentemente, le variabili in gioco risultano sempre alterate a misurazione eseguita.

L'errore di misurazione può dipendere sia dallo strumento di misura che dall'osservatore. Esistono due tipi di errori: errori casuali (o accidentali) ed errori sistematici. I primi (casuali) possono agire sia in eccesso che in difetto sul valore misurato mentre per i secondi (sistematici) l'errore si manifesta in un unico verso, ovvero o sempre in eccesso o sempre in difetto rispetto al valore "atteso".

Errori sistematici

[modifica | modifica wikitesto]

Gli errori sistematici (o errori di accuratezza) sono quelli che deviano il risultato di una misurazione dal valore vero sempre nello stesso senso (o sempre in eccesso, o sempre in difetto). Essi influenzano la accuratezza della misurazione.

Cause tipiche degli errori sistematici

[modifica | modifica wikitesto]

Gli errori sistematici possono derivare da diverse fonti e sono generalmente correlati a difetti o limiti noti del processo di misura:

  • Strumentali:
    • Taratura errata (Zero-drift, Bias): lo strumento fornisce letture costantemente sbagliate (es. una bilancia non azzerata o uno strumento tarato male).
    • Malfunzionamento/usura: un componente dello strumento è danneggiato o alterato nel tempo.
    • Limiti di sensibilità: la lettura è sempre arrotondata in eccesso o in difetto a causa della sensibilità dello strumento di misura
  • Ambientali:
    • Condizioni esterne non compensate che alterano lo strumento o l'oggetto misurato (es. temperatura ambiente alta che dilata un componente, ma non considerata nel calcolo).
  • Metodologiche:
    • Processo di misurazione viziato: un'approssimazione nella formula di calcolo o un errore nella tecnica di misura (es. l'errore di parallasse dovuto a un'angolazione di lettura della misura non corretta).
  • Personali (Bias dell'osservatore):
    • Mancanza di abilità o conoscenza: l'operatore utilizza lo strumento in modo non corretto.
    • Volontarietà: manipolazione intenzionale del risultato per tornaconto personale.

Individuazione e correzione

[modifica | modifica wikitesto]
  • Rilevabilità: gli errori sistematici possono (e devono) essere individuati attraverso un'accurata indagine critica del metodo impiegato nelle misurazioni, degli strumenti di misura e delle condizioni di misura (es. confronto con uno standard di riferimento).
  • Compensazione: poiché influenzano il risultato in modo costante, non possono essere compensati semplicemente calcolando la media di più misurazioni. Una volta identificata la causa, è necessario (se individuata):
    1. Eliminare la causa (es. ritarare/sostituire lo strumento).
    2. Applicare una correzione matematica al risultato finale.

Errori casuali (o accidentali)

[modifica | modifica wikitesto]

Gli errori casuali (o accidentali) hanno un impatto minore rispetto agli errori sistematici nella determinazione del valore di una grandezza o proprietà fisica poiché, ripetendo la misurazione più volte e calcolando la media dei valori riscontrati (misura attendibile), il loro contributo generalmente diminuisce per una ragione probabilistica, in quanto la distribuzione di probabilità dei valori misurati tende ad avere un andamento coerente rispetto al valore atteso.

Oggi si preferisce sostituire al concetto di misura esatta quello di misura più probabile. Gli errori accidentali sono dovuti a cause (più in generale, concause) che, in linea di principio, si possono immaginare ma di cui non si possono prevedere gli effetti. In genere sono conseguenza dell'incertezza con cui sono poste determinate condizioni di misura che vengono invece considerate come se fossero attuate esattamente: per esempio piccole oscillazioni della temperatura ambiente, piccole variazioni della resistenza di contatto di morsetti o commutatori possono influenzare i risultati di una misura introducendo errori rispetto al valore vero della grandezza misurata.

Gli errori accidentali hanno la proprietà di essere variabili sia in valore che in segno e si individuano ripetendo una misura diverse volte con gli stessi strumenti e in condizioni che, per quanto sta nelle facoltà dell'operatore, possono essere ritenute costanti. L'eventuale discordanza dei risultati, supposto nullo ogni errore sistematico, sarà dovuta alla presenza di errori accidentali.

La teoria degli errori accidentali viene svolta mediante la matematica probabilistica e la teoria degli errori.

Determinazione dell'errore di misura

[modifica | modifica wikitesto]

Nei casi più semplici, si può assumere come errore la sensibilità dello strumento di misura utilizzato, cioè il valore più piccolo che lo strumento può leggere. L'incertezza, nel caso di una singola misurazione, coincide con la sensibilità dello strumento di misura adottato.

Quando si effettua la misura di una grandezza fisica con una singola misurazione, il risultato può essere scritto associando alla grandezza l'incertezza, indicando l'errore percentuale, evidenziando gli estremi di variazione della misura con una doppia disuguaglianza in questo modo:

Esempio

m = 10,0 ±0,1 g

m = 10,0 g con errore dell'1%

9,9 g ≤ m ≤ 10,1 g

Se la grandezza è stata misurata poche volte, si assume come incertezza della misura il valore maggiore tra la sensibilità dello strumento di misura e l'errore assoluto, quest'ultimo pari alla semidifferenza fra il valore massimo e il valore minimo della serie di misure effettuate:

Per stabilire se una misura è più o meno precisa si calcolano altri 2 tipi di errore: l'errore relativo e l'errore percentuale.

L'errore relativo è il rapporto tra l'errore assoluto e il valore medio della misura:

L'errore percentuale è l'errore relativo espresso in formato percentuale, cioè l'errore relativo moltiplicato per 100 e seguito dal simbolo %:

%

L'errore relativo e l'errore percentuali sono adimensionali (quindi non vanno accompagnati da unità di misura), a differenza dell'errore assoluto, che può essere associato ad un'unità di misura (ma può essere anch'esso adimensionale).

Errori di uno strumento

[modifica | modifica wikitesto]

La norma UNI 4546 rappresentata in tabella, dà la definizione dei vari errori di uno strumento e altri concetti inerenti agli errori stessi:

TermineDefinizione
Errore assolutoDifferenza algebrica tra il valore rilevato della grandezza e il valore vero di essa. Come valore vero di una grandezza si intende quello ottenibile con un procedimento di misurazione il più perfetto possibile.
Errore assoluto medioDifferenza algebrica tra la media di numerose misure della stessa grandezza ottenute utilizzando lo strumento nelle medesime condizioni, e il valore vero di essa.
Errore sistematicoErrore provocato di volta in volta sempre dalla stessa causa e di valore e segno costanti.
Errore accidentaleErrore provocato da cause occasionali, il cui singolo contributo non può venire stabilito a priori e agisce di volta in volta con diversa entità e segno.
Errore di parallasseDifferenza tra la lettura effettuata nella direzione di osservazione e quella effettuata in direzione normale al quadrante, allorché esiste un distacco dell'indice dalla scala.
Errore di disturboAlterazione del valore della grandezza, provocata dallo strumento, in determinate condizioni di impiego.
Errore di derivaSpostamento lento e progressivo della posizione di riposo dell'indice o della scala, se mobile, nel corso del tempo.
Errore di inversioneDifferenza, in valore assoluto, fra il valore rilevato con lo strumento allorché la posizione di equilibrio dell'indice viene raggiunta col crescere della grandezza e il valore rilevato col diminuire di essa.
FedeltàAttitudine dello strumento a fornire misure poco disperse in molte misurazioni della stessa grandezza, effettuate successivamente in un breve intervallo di tempo e nelle medesime condizioni. È espressa per mezzo dello scarto tipo di ripetibilità o dell'errore limite di ripetibilità.
Scarto tipo di ripetibilità Media quadratica degli scarti n misure della stessa grandezza, ottenute nelle medesime condizioni e in un breve intervallo di tempo, e il loro valore medio  :

Errore limite di ripetibilità Scarto che presenta il 95% di probabilità di non essere superato in numerose misurazioni della stessa grandezza, effettuate nelle medesime condizioni e in un breve intervallo di tempo, nella ipotesi di una distribuzione normale delle misure:

Campo di ripetibilità Differenza tra il valore massimo e il valore minimo ottenuti in n misurazioni della stessa grandezza effettuate successivamente in un breve intervallo di tempo. utilizzando lo strumento nelle medesime condizioni.
StabilitàAttitudine dello strumento a fornire misure poco disperse in molte misurazioni della stessa grandezza, effettuate a intervalli di tempo lunghi rispetto alla durata di esse, utilizzando lo strumento nelle medesime condizioni. È espressa per mezzo dello scarto tipo di stabilità o dell'errore limite di stabilità.
Scarto tipo di stabilità Media quadratica degli scarti tra n misure della stessa grandezza, ottenute nelle medesime condizioni ma a intervalli di tempo lunghi rispetto alla durata di esse, e il loro valore medio  :

Errore limite di stabilità Scarto che presenta il 95% di probabilità di non essere superato in numerose misurazioni della stessa grandezza, effettuate nelle medesime condizioni ma a intervalli di tempo lunghi rispetto alla durata di esse, nell'ipotesi di una distribuzione normale delle misure.
Campo di stabilità Differenza tra il valore massimo e quello minimo . Ottenuti in molte misurazioni della stessa grandezza, effettuate a intervalli di tempo lunghi rispetto alla durata di esse, utilizzando lo strumento nelle medesime condizioni.
Errore relativoRapporto adimensionale tra l'errore assoluto e il valore vero della grandezza misurata. Viene generalmente espresso in percentuale.
PrecisioneGrado di dispersione di dati rilevati individualmente rispetto al valore medio della serie cui appartengono, ovvero la loro varianza (o deviazione standard) rispetto alla media campionaria. È in ragione inversa dell'errore assoluto medio e può essere espresso dall'indice di classe.
Classe di precisioneCategoria di strumenti che forniscono la misura con errore minore di un limite stabilito, quando ciascuno strumento sia utilizzato nelle condizioni specificate.
IncertezzaIl valore maggiore tra la sensibilità dello strumento di misura e l'errore assoluto (caso di misure ripetute), nel caso di una singola misura l'incertezza coincide con la sensibilità dello strumento di misura adottato.
Indice di classeSimbolo che caratterizza la classe di precisione.
TaraturaProcedimento per mezzo del quale si determina la relazione esistente fra i tratti della graduazione e i corrispondenti valori della grandezza che si misura
VerificaProcedimento di controllo, per determinare gli errori di uno strumento.
CorrezioneQuantità che bisogna aggiungere algebricamente al valore rilevato per ottenere il valore vero della grandezza misurata.
Grandezza di influenzaGrandezza, diversa da quella da misurare, che influenza le indicazioni dello strumento.
Campo di utilizzazioneIntervallo compreso tra i valori che ciascuna grandezza di influenza può assumere perché la misura sia ottenuta con l'assegnata precisione.
    • Ente Nazionale Italiano di Unificazione (UNI), UNI CEI ENV 13005 “Guida all'espressione dell'incertezza di misura”, Milano, UNI, 2000.
    • Introduzione all'Analisi degli errori, J. R. Taylor, Zanichelli, 1999 [1]
    • Jay Orear, Notes on statistics for physicists, revised, Ithaca, NY 14853, Laboratory for Nuclear Studies. Cornell University, 1982.

    Voci correlate

    [modifica | modifica wikitesto]

    Collegamenti esterni

    [modifica | modifica wikitesto]
    Controllo di autoritàThesaurus BNCF 21012 · J9U (EN, HE) 987007588339805171