Propagazione degli errori

Da Wikipedia, l'enciclopedia libera.

In fisica, per propagazione degli errori si intende l'effetto dell'errore (o variabilità) di un vettore di variabili aleatorie sull'errore associato ad una funzione di esso. Tali variabili, quando oggetto di rilevazione sperimentale, sono inoltre soggette a variabilità osservazionale dovuta a limitazioni nella misura (dovuta ad esempio alla precisione degli strumenti di misura), che si propaga alla funzione delle osservazioni.

Ad una variabile X è possibile associare un errore aleatorio \Delta X detto errore assoluto, che esprime il grado di incertezza nella misura del valore di X, anche se più spesso tale errore è espresso tramite la deviazione standard \sigma o, in caso di analisi chimiche, l'incertezza composta u_c(x). Una misura frequentemente usata è l'errore relativo \frac {\Delta X}{X}, esprimibile anche in via percentuale, o più in generale il coefficiente di variazione, espresso mediante il rapporto \frac{\Delta X}{| \mu |}, dove con \mu s'intende il valore atteso (media, o ancora valore vero) di X.

Se si conosce o si può ipotizzare la distribuzione di probabilità della variabile oggetto di misura, è possibile inoltre probabilizzare intervalli di valori in cui possa essere inclusa la variabile. Spesso si assume normalità in distribuzione per tale quantità, con media nulla in assenza di errori sistematici (bias) e con deviazione standard pari proprio all'errore assoluto. Sotto tale ipotesi, l'intervallo di ampiezza 2 \sigma [ X-\Delta X, X+\Delta X] ha associata una probabilità approssimativamente 0.68, mentre l'intervallo [X-2\Delta X, X+2\Delta X] una probabilità approssimativamente pari a 0.95.

Formula generale[modifica | modifica wikitesto]

Andamento grafico della formula di propagazione degli errori

Sia f(x_1,x_2,...,x_n) una funzione dipendente da n variabili del tipo x_1,x_2,...,x_n; l'incertezza di ciascuna variabile è data da \Delta x_i:

x_i \pm \Delta x_i\, .

Se le variabili non sono correlate, si può calcolare l'errore \Delta f di f partendo dalle incertezze delle singole variabili:

\Delta f = \Delta f \left(x_1, x_2, ..., x_n, \Delta x_1, \Delta x_2, ..., \Delta x_n \right) =  \left(\sum_{i=1}^n \left(\frac{\partial f}{\partial x_i}\Delta x_i \right)^2 \right)^{1/2} \, ,

dove \frac{\partial f}{\partial x_i} è la derivata parziale di f per la i-esima variabile.

Se le variabili sono invece correlate, si inserisce la covarianza tra coppie di variabili C_{i,k} = cov(x_i, x_k) come una doppia somma tra ogni coppia (i,k):

\Delta f = \left( \sum_{i=1}^n \sum_{k=1}^n \left(\frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_k}C_{i,k} \right) \right)^{1/2}\, .

Dopo aver calcolato \Delta f, si può quindi affermare che il valore della funzione con la sua incertezza è pari a:

f \pm \Delta f \, .

Non è certo un risultato sorprendente: le incertezze sulle x influiscono sulla variabile y a seconda di come le variabili siano tra loro correlate. Sviluppando mediante un polinomio di Taylor la funzione f(x) fino al primo ordine (nell'ipotesi che tutti i termini di ordine superiore al primo siano trascurabili), le derivate del primo ordine descrivono bene[1] l'andamento stesso della funzione.

Si forniscono dunque alcune formule per il calcolo dell'incertezza di funzioni particolari assumento sempre la presenza di covarianza tra le variabili come C_{i,k}, dove i e k sono due generiche variabili, espressa negli esempi come A, B o C.

Esempi[modifica | modifica wikitesto]

Funzione

Incertezza

X = A \pm B (\Delta X)^2 = (\Delta A)^2 + (\Delta B)^2 + 2\cdot C_{A,B}
X = cA \Delta X = c \cdot \Delta A
X = A \cdot B \, (\Delta X)^2 = B^2(\Delta A)^2 + A^2(\Delta B)^2+AB\cdot 2\cdot C_{A,B}
X = A\cdot B\cdot C (\Delta X)^2 = (BC)^2(\Delta A)^2 + (AC)^2(\Delta B)^2+ (AB)^2(\Delta C)^2 + 2\cdot BC\cdot AC\cdot C_{A,B} + 2\cdot BC\cdot AB\cdot C_{A,C} +2\cdot AC\cdot AB\cdot C_{B,C}
X = A^i\cdot B^j (\Delta X)^2 = iA^{i-1}B^{2j}(\Delta A)^2 + jA^{2i}B^{j-1}(\Delta B)^2 + 2\cdot iA^{i-1}\cdot jB^{j-1}\cdot C_{A,B}
X = \frac{A}{B} (\Delta X)^2=\frac{(\Delta A)^2}{B^2}+\frac{A^2}{B^4}\cdot(\Delta B)^2-2\cdot\frac{A}{B^2}\cdot\frac{1}{B}\cdot C_{A,B}
X = \ln (A) \Delta X=\frac{\Delta A}{A}
X = e^A \Delta X=e^A\cdot \Delta A



Applicazioni[modifica | modifica wikitesto]

Calcolo degli estremi[modifica | modifica wikitesto]

Una prima semplice applicazione consiste nell'inserire nei calcoli gli estremi dell'intervallo dell'errore; se la misura vale:

x ± Δx

allora il « valore reale » è compreso nell'intervallo [xx;xx].

Si calcola quindi:

y1 = ƒ(xx)
y2 = ƒ(xx)

e, secondo l'ordine di y1 e y2, si considera [y1;y2] o [y2;y1] come l'intervallo dell'errore.

Questo metodo può essere utilizzato solo se la funzione è monotòna nell'intervallo [xx;xx].

Calcolo della derivata[modifica | modifica wikitesto]

Un metodo semplice utilizzato spesso nella Fisica prevede l'utilizzo del polinomio di Taylor arrestato al primo ordine, ovvero la sostituzione della funzione ƒ con la sua retta tangente per stimare l'errore. Si ha:

ƒ(x) = ƒ(a) + ƒ '(a)·(x-a) + o(x)

dove o(x) è una funzione tendente a zero. Se si sostituisce x con a + Δa, si ottiene:

ƒ(a + Δa) = ƒ(a) + ƒ '(a)·Δa + o(a + Δa)

Si può dunque ricavare che:

Δy ≈ ƒ '(a) · Δa

Calcolo dei differenziali[modifica | modifica wikitesto]

Si può utilizzare la legge dei gas perfetti come esempio:

P \times V=n \times R \times T

dove

La pressione in funzione di n, R, T e V si esprime come:

P =\frac{n \times R \times T}{V}

e scrivendo i rispettivi differenziali si ha:

dP =\frac{n \times R}{V} dT + \frac{n  \times T}{V} dR + \frac{ R \times T}{V}dn - \frac{n \times R \times T}{V^2}dV

Se si sostituiscono i vari dx con i rispettivi errori, si ottiene:

\delta P =\frac{n \times R}{V}\delta T + \frac{n  \times T}{V}\delta R +\frac{ R \times T}{V}\delta n + \frac{n \times R \times T}{V^2}\delta V

che fornisce l'errore assoluto del valore di P conoscendo gli errori di T, R, n e V. Da questa formula, inoltre, si ricava:

\frac{\delta P}{P} =\frac{\delta T}{T} + \frac{\delta R}{R} + \frac{\delta n}{n} + \frac{\delta V}{V}

che mostra come l'errore relativo su P sia uguale alla somma degli errori relativi sulle singole grandezze che concorrono al suo calcolo.

Altri esempi in questo senso sono:

  • il calcolo dell'area di un rettangolo:
S=L l e  S+dS=  (L+dL)(l+dl) = L l + L dl +l dL +  dl dL
si può scrivere come:
dS = ( (L+dL)(l+dl) - L l )=  L dl +l dL + dL dl
approssimabile in:
   dS = L dl +l dL
  • il calcolo di un volume V = x · y · z:
V(x+dx,y+dy,z+dz) = (x+dx)(y+dy)(z+dz) = xyz +dx y z+x dy z + x y dz + x dy dz +  y dx dz + z dx dy + dx dy dz
diventa:
dV =  yz dx +zx dy +  xy dz + dx dy dz
approssimabile in dV = yz dx +zx dy +  xy dz
notando che:
dV = yz dx +zx dy +  xy dz = \frac{\partial (xyz) }{\partial x}dx+\frac{\partial (xyz) }{\partial y}dy+\frac{\partial (xyz) }{\partial z}dz
dove: \frac{\partial (xyz) }{\partial x}= yz ; \frac{\partial (xyz) }{\partial y}=xz ; \frac{\partial (xyz) }{\partial z}=xy
  • in generale il calcolo della variazione di una funzione ƒ(x,y,z).
   d f(x,y,z)  = \frac{\partial  f(x,y,z) }{\partial x}dx+\frac{\partial f(x,y,z) }{\partial y}dy+\frac{\partial  f(x,y,z)}{\partial z}dz

Calcolo della funzione tangente inversa[modifica | modifica wikitesto]

Si può calcolare la propagazione dell'errore per la funzione tangente inversa come esempio dell'uso delle derivate parziali. Si definisce quindi la funzione:

f(\theta) = \arctan{\theta},

mentre \sigma_{\theta} è l'incertezza assoluta della misura di \theta.

La derivata parziale di f(\theta) rispetto a \theta è:

\frac{\partial f}{\partial \theta} = \frac{1}{1+\theta^2}.

Quindi, la propagazione dell'errore \sigma_{f} è pari a:

\sigma_{f} = \frac{\sigma_{\theta}}{1+\theta^2},

Calcolo della resistenza elettrica[modifica | modifica wikitesto]

Un'applicazione pratica si ritrova nella misurazione della corrente elettrica I e del voltaggio V di un resistore con l'obiettivo di determinare la resistenza elettrica R utilizzando la legge di Ohm:

R = V / I.

Esprimendo le quantità misurate con le rispettive incertezze (I±ΔI e V±ΔV), l'incertezza ΔR del risultato è pari a:

\Delta R = \left( \left(\frac{\Delta V}{I}\right)^2+\left(\frac{V}{I^2}\Delta I\right)^2\right)^{1/2} = R\sqrt{\left(\frac{\Delta V}{V}\right)^2+\left(\frac{\Delta I}{I}\right)^2}.

Quindi, in questo semplice caso, l'errore relativo ΔR/R è pari alla radice quadrata della somma dei quadrati degli errori relativi delle due quantità misurate.

Note[modifica | modifica wikitesto]

  1. ^ John R. Taylor,, An Introduction to Error Analysis, University Science Books, 1997, pp. 64-65, ISBN 978-0-935702-75-0.

Voci correlate[modifica | modifica wikitesto]