Propagazione degli errori

Da Wikipedia, l'enciclopedia libera.

In fisica, per propagazione degli errori si intende l'effetto dell'errore (o variabilità) di un vettore di variabili aleatorie sull'errore associato ad una funzione di esso. Tali variabili, quando oggetto di rilevazione sperimentale, sono inoltre soggette a variabilità osservazionale dovuta a limitazioni nella misura (dovuta ad esempio alla precisione degli strumenti di misura), che si propaga alla funzione delle osservazioni.

Ad una variabile X è possibile associare un errore aleatorio ΔX detto errore assoluto, che esprime il grado di incertezza nella misura del valore di X, anche se più spesso tale errore è espresso tramite la deviazione standard σ. Una misura frequentemente usata è l'errore relativo σ/x, esprimibile anche in via percentuale, o più in generale il coefficiente di variazione, espresso mediante il rapporto σ/|μ|, dove con μ s'intende il valore atteso (media, o ancora valore vero) di X.

Se si conosce o si può ipotizzare la distribuzione di probabilità della variabile oggetto di misura, è possibile inoltre probabilizzare intervalli di valori in cui possa essere inclusa la variabile. Spesso si assume normalità in distribuzione per tale quantità, con media nulla in assenza di errori sistematici (bias) e con deviazione standard pari proprio all'errore assoluto. Sotto tale ipotesi, l'intervallo di ampiezza 2σ [X−ΔX, XX] ha associata una probabilità approssimativamente 0.68, mentre l'intervallo [X−2 ΔX, X+2 ΔX] una probabilità approssimativamente pari a 0.95.

Si forniscono dunque alcune formule per casi particolari.

Esempi[modifica | modifica sorgente]

Funzione

Incertezza

X = A \pm B Attenzione! Sono qui ripotati i valori in incertezza assoluti, per la deviazione standard è necessaria la propagazione con la radice della somma dei quadrati. Cfr colonna a destra o sezione Formula generale

\Delta X = \Delta A + \Delta B

\sigma_X^2= \sigma_A^2 + \sigma_B^2
se non sono indipendenti: \sigma_X^2= \sigma_A^2 + \sigma_B^2+2\cdot cov(A,B) dove cov(A,B) è la Covarianza.
X = cA \Delta X = c \cdot \Delta A \sigma_X = c \cdot \sigma_A
X = A \cdot B \, \frac{\Delta X}{X} = \frac{\Delta A}{A} + \frac{\Delta B}{B} + \frac{\Delta A\cdot \Delta B}{A\cdot B}
\frac{\Delta X}{X} = \frac{\Delta A}{A} + \frac{\Delta B}{B}
\left( \frac{\sigma_X}{X} \right)^2 = \left( \frac{\sigma_A}{A} \right)^2 + \left( \frac{\sigma_B}{B} \right)^2 + \left ( \frac{\sigma_A\cdot \sigma_B}{A\cdot B} \right )^2
se non sono indipendenti: \sigma_X^2 = B^2\sigma_A^2 + A^2\sigma_B^2 + 2A\cdot B\cdot E_{1 1} + 2A\cdot E_{1 2} + 2B\cdot E_{2 1} + E_{2 2} - E_{1 1}^2 dove E_{ij}=E((\Delta A)^i\cdot (\Delta B)^j) e \Delta A = a-A
X = A\cdot B\cdot C \frac{\Delta X}{X}=\frac{\Delta A}{A}+\frac{\Delta B}{B}+\frac{\Delta C}{C}+\frac{\Delta A\cdot\Delta B}{A\cdot B}+\frac{\Delta A\cdot\Delta C}{A\cdot C}+\frac{\Delta B\cdot\Delta C}{B\cdot C}+\frac{\Delta A\cdot\Delta B\cdot\Delta C}{A\cdot B\cdot C} \left (\frac{\sigma_X}{X}\right )^2=\left (\frac{\sigma_A}{A}\right )^2+\left (\frac{\sigma_B}{B}\right )^2+\left (\frac{\sigma_C}{C}\right )^2+\left (\frac{\sigma_A\cdot\sigma_B}{A\cdot B}\right )^2+\left (\frac{\sigma_A\cdot\sigma_C}{A\cdot C}\right )^2+\left (\frac{\sigma_B\cdot\sigma_C}{B\cdot C}\right )^2+\left (\frac{\sigma_A\cdot\sigma_B\cdot\sigma_C}{A\cdot B\cdot C}\right )^2
X = A^i\cdot B^j \frac{\Delta X}{X}=|i|\frac{\Delta A}{A}+|j|\frac{\Delta B}{B} \left (\frac{\sigma_X}{X}\right )^2 = \left (i\frac{\sigma_A}{A}\right )^2+\left (j\frac{\sigma_B}{B}\right )^2
X = \frac{A}{B} (caso prec. con i = 1 e j = - 1) \frac{\Delta X}{X}= \frac{\Delta A}{A}+ \frac{\Delta B}{B}
 propagazione incertezza (non assoluta) \frac{\Delta X}{X}= \sqrt((\frac{\Delta A}{A})^2+ (\frac{\Delta B}{B})^2)
  
X = \ln (A) \Delta X=\frac{\Delta A}{A} \sigma_X = \frac{\sigma_A}{A}
X = e^A \Delta X=e^A\cdot \Delta A  \frac{\sigma_X}{X} = \sigma_A

Formula generale[modifica | modifica sorgente]

Andamento grafico della formula di propagazione degli errori

Sia f(x_1,x_2,...,x_n) una funzione dipendente da n variabili del tipo x_1,x_2,...,x_n; l'incertezza di ciascuna variabile è data da \Delta x_j:

x_j \pm \Delta x_j\, .

Se le variabili non sono correlate, si può calcolare l'errore Δf di f partendo dalle incertezze delle singole variabili:

\Delta f = \Delta f \left(x_1, x_2, ..., x_n, \Delta x_1, \Delta x_2, ..., \Delta x_n \right) =  \left(\sum_{i=1}^n \left(\frac{\partial f}{\partial x_i}\Delta x_i \right)^2 \right)^{1/2} \, ,

dove \frac{\partial f}{\partial x_j} è la derivata parziale di f per la j-esima variabile.

Se le variabili sono invece correlate, si inserisce la covarianza tra coppie di variabili Ci,k := cov(xi,xk) come una doppia somma tra ogni coppia (i,k):

\Delta f = \left( \sum_{i=1}^n \sum_{k=1}^n \left(\frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_k}C_{i,k} \right) \right)^{1/2}\, .

Dopo aver calcolato \Delta f, si può quindi affermare che il valore della funzione con la sua incertezza è pari a:

f \pm \Delta f \, .

Non è certo un risultato sorprendente: le incertezze sulle x influiscono sulla variabile y a seconda di come le variabili siano tra loro correlate. Sviluppando mediante un polinomio di Taylor la funzione f(x) fino al primo ordine (nell'ipotesi che tutti i termini di ordine superiore al primo siano trascurabili), le derivate del primo ordine descrivono bene[1] l'andamento stesso della funzione.

Applicazioni[modifica | modifica sorgente]

Calcolo degli estremi[modifica | modifica sorgente]

Una prima semplice applicazione consiste nell'inserire nei calcoli gli estremi dell'intervallo dell'errore; se la misura vale:

x ± Δx

allora il « valore reale » è compreso nell'intervallo [xx;xx].

Si calcola quindi:

y1 = ƒ(xx)
y2 = ƒ(xx)

e, secondo l'ordine di y1 e y2, si considera [y1;y2] o [y2;y1] come l'intervallo dell'errore.

Questo metodo può essere utilizzato solo se la funzione è monotòna nell'intervallo [xx;xx].

Calcolo della derivata[modifica | modifica sorgente]

Un metodo semplice utilizzato spesso nella Fisica prevede l'utilizzo del polinomio di Taylor arrestato al primo ordine, ovvero la sostituzione della funzione ƒ con la sua retta tangente per stimare l'errore. Si ha:

ƒ(x) = ƒ(a) + ƒ '(a)·(x-a) + o(x)

dove o(x) è una funzione tendente a zero. Se si sostituisce x con a + Δa, si ottiene:

ƒ(a + Δa) = ƒ(a) + ƒ '(a)·Δa + o(a + Δa)

Si può dunque ricavare che:

Δy ≈ ƒ '(a) · Δa

Calcolo dei differenziali[modifica | modifica sorgente]

Si può utilizzare la legge dei gas perfetti come esempio:

P \times V=n \times R \times T

dove

La pressione in funzione di n, R, T e V si esprime come:

P =\frac{n \times R \times T}{V}

e scrivendo i rispettivi differenziali si ha:

dP =\frac{n \times R}{V} dT + \frac{n  \times T}{V} dR + \frac{ R \times T}{V}dn - \frac{n \times R \times T}{V^2}dV

Se si sostituiscono i vari dx con i rispettivi errori, si ottiene:

\delta P =\frac{n \times R}{V}\delta T + \frac{n  \times T}{V}\delta R +\frac{ R \times T}{V}\delta n + \frac{n \times R \times T}{V^2}\delta V

che fornisce l'errore assoluto del valore di P conoscendo gli errori di T, R, n e V. Da questa formula, inoltre, si ricava:

\frac{\delta P}{P} =\frac{\delta T}{T} + \frac{\delta R}{R} + \frac{\delta n}{n} + \frac{\delta V}{V}

che mostra come l'errore relativo su P sia uguale alla somma degli errori relativi sulle singole grandezze che concorrono al suo calcolo.

Altri esempi in questo senso sono:

  • il calcolo dell'area di un rettangolo:
S=L l e  S+dS=  (L+dL)(l+dl) = L l + L dl +l dL +  dl dL
si può scrivere come:
dS = ( (L+dL)(l+dl) - L l )=  L dl +l dL + dL dl
approssimabile in:
   dS = L dl +l dL
  • il calcolo di un volume V = x · y · z:
V(x+dx,y+dy,z+dz) = (x+dx)(y+dy)(z+dz) = xyz +dx y z+x dy z + x y dz + x dy dz +  y dx dz + z dx dy + dx dy dz
diventa:
dV =  yz dx +zx dy +  xy dz + dx dy dz
approssimabile in dV = yz dx +zx dy +  xy dz
notando che:
dV = yz dx +zx dy +  xy dz = \frac{\partial (xyz) }{\partial x}dx+\frac{\partial (xyz) }{\partial y}dy+\frac{\partial (xyz) }{\partial z}dz
dove: \frac{\partial (xyz) }{\partial x}= yz ; \frac{\partial (xyz) }{\partial y}=xz ; \frac{\partial (xyz) }{\partial z}=xy
  • in generale il calcolo della variazione di una funzione ƒ(x,y,z).
   d f(x,y,z)  = \frac{\partial  f(x,y,z) }{\partial x}dx+\frac{\partial f(x,y,z) }{\partial y}dy+\frac{\partial  f(x,y,z)}{\partial z}dz

Calcolo della funzione tangente inversa[modifica | modifica sorgente]

Si può calcolare la propagazione dell'errore per la funzione tangente inversa come esempio dell'uso delle derivate parziali. Si definisce quindi la funzione:

f(\theta) = \arctan{\theta},

mentre \sigma_{\theta} è l'incertezza assoluta della misura di \theta.

La derivata parziale di f(\theta) rispetto a \theta è:

\frac{\partial f}{\partial \theta} = \frac{1}{1+\theta^2}.

Quindi, la propagazione dell'errore \sigma_{f} è pari a:

\sigma_{f} = \frac{\sigma_{\theta}}{1+\theta^2},

Calcolo della resistenza elettrica[modifica | modifica sorgente]

Un'applicazione pratica si ritrova nella misurazione della corrente elettrica I e del voltaggio V di un resistore con l'obiettivo di determinare la resistenza elettrica R utilizzando la legge di Ohm:

R = V / I.

Esprimendo le quantità misurate con le rispettive incertezze (I±ΔI e V±ΔV), l'incertezza ΔR del risultato è pari a:

\Delta R = \left( \left(\frac{\Delta V}{I}\right)^2+\left(\frac{V}{I^2}\Delta I\right)^2\right)^{1/2} = R\sqrt{\left(\frac{\Delta V}{V}\right)^2+\left(\frac{\Delta I}{I}\right)^2}.

Quindi, in questo semplice caso, l'errore relativo ΔR/R è pari alla radice quadrata della somma dei quadrati degli errori relativi delle due quantità misurate.

Note[modifica | modifica sorgente]

  1. ^ John R. Taylor,, An Introduction to Error Analysis, University Science Books, 1997, pp. 64-65, ISBN 9780935702750.

Voci correlate[modifica | modifica sorgente]