Differenza finita

Da Wikipedia, l'enciclopedia libera.

In matematica, una differenza finita è un'espressione nella forma di una differenza tra i valori assunti da una funzione in due specifici punti:

f(x+b)-f(x+a)

Se la differenza finita è divisa per b-a si ottiene un rapporto incrementale. Viene in genere indicata con la lettera greca \Delta seguita dalla quantità che subisce tale variazione (ad esempio \Delta x).[1]

Definizione[modifica | modifica wikitesto]

Una differenza con centro c e passo h è definita come:

\Delta_{c,h} f(x)=f\left(x+c+\frac{h}{2}\right)-f\left(x+c-\frac{h}{2}\right) \qquad \forall c,h \in \R

Si studiano principalmente tre tipi di differenze finite. La differenza finita in avanti (forward difference):

\Delta_h f (x)= \Delta_{\frac h 2, h} f (x)=f(x+h)-f(x)

la differenza finita all'indietro (backward difference):

 \Delta_{-h} f (x)= \Delta_{-\frac h 2, h} f(x)=f(x)-f(x-h)

e la differenza finita centrata (central difference):

\Delta_0 f (x)= \Delta_{0,h} f(x)=f\left(x+\frac{h}{2}\right)-f\left(x-\frac{h}{2}\right)

Le differenze finite sono centrali nell'analisi numerica per l'approssimazione delle derivate e quindi nella risoluzione numerica delle equazioni differenziali.

Relazione con le derivate[modifica | modifica wikitesto]

La derivata di una funzione f in x è definita come il limite del rapporto incrementale:

 f'(x) = \lim_{h\to0} \frac{f(x+h) - f(x)}{h}

Se h, invece che annullarsi, assume un valore fissato, allora il termine a destra si può scrivere:

 \frac{f(x + h) - f(x)}{h} = \frac{\Delta_h[f](x)}{h}

in modo che la differenza finita in avanti divisa per h approssima il valore della derivata per h piccolo.

L'errore relativo a tale approssimazione può essere derivato tramite il teorema di Taylor. Assumendo f una funzione differenziabile con continuità l'errore è:

 \frac{\Delta_h[f](x)}{h} - f'(x) = O(h) \quad (h \to 0)

e la stessa formula vale per la differenza finita all'indietro:

 \frac{\nabla_h[f](x)}{h} - f'(x) = O(h)

La differenza finita centrata, tuttavia, fornisce un'approssimazione più accurata. In tal caso l'errore è proporzionale al quadrato del passo h (se la funzione è differenziabile con continuità due volte, ovvero la derivata seconda f^{''} è continua per ogni x):

 \frac{\delta_h[f](x)}{h} - f'(x) =  O(h^{2})

Metodo alle differenze finite[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Metodo alle differenze finite.

Le differenze finite possono essere utilizzate per discretizzare una equazione differenziale ordinaria. Un esempio classico è il metodo di Eulero, che sfrutta alternativamente i tre i tipi di differenze finite presentati.

Operatore[modifica | modifica wikitesto]

Un operatore astratto agente su uno spazio funzionale che, data una funzione, ne restituisce la differenza finita con centro c e passo h si dice un operatore alle differenze. Quello in avanti per esempio può essere espresso come:

\Delta_h =T_h - I

dove T_h è l'operatore di shift T_h(f)=f(x+h) e I l'identità. Similmente si possono descrivere gli altri due tipi.

Qualsiasi operatore alle differenze di quelli visti è lineare e soddisfa la regola di Leibniz.

La relazione di Taylor può essere espressa allora in termini simbolici come:

\Delta_h= \sum_i \frac{h^i D^i}{i!} \sim h D +\frac{1}{2}h^2D^2+\frac{1}{3!}h^3D^3+\dots

dove D è l'operatore differenziale che trasforma una funzione nella sua derivata.

Proprietà[modifica | modifica wikitesto]

In analogia con le regole di derivazione, per un operatore alle differenze (in avanti o all'indietro):

  • Se c è costante \Delta c = 0{\,}
  • Se a e b sono costanti (linearità):
\Delta (a f + b g) = a \,\Delta f + b \,\Delta g

Denotando con \Delta e \nabla rispettivamente gli operatori in avanti e all'indietro:

  • Regola del prodotto:
 \Delta (f g) = f \,\Delta g + g \,\Delta f + \Delta f \,\Delta g
 \nabla (f g) = f \,\nabla g + g \,\nabla f - \nabla f \,\nabla g
  • Regola del quoziente:
\nabla \left( \frac{f}{g} \right) = \frac{1}{g} \det \begin{bmatrix} \nabla f & \nabla g \\ f & g \end{bmatrix} 
                                     \left( \det {\begin{bmatrix} g & \nabla g \\ 1 & 1 \end{bmatrix}}\right)^{-1}
oppure:
\nabla\left( \frac{f}{g} \right)= \frac {g \,\nabla f - f \,\nabla g}{g \cdot (g - \nabla g)}
\Delta\left( \frac{f}{g} \right)= \frac {g \,\Delta f - f \,\Delta g}{g \cdot (g + \Delta g)}
  • Regole di sommazione:
\sum_{n=a}^{b} \Delta f(n) = f(b+1)-f(a)
\sum_{n=a}^{b} \nabla f(n) = f(b)-f(a-1)

Differenze finite di ordine superiore[modifica | modifica wikitesto]

Si possono definire approssimazioni per le derivate di ordine successivo in modo iterativo. Utilizzando ad esempio le differenze centrate per approssimare f'(x+h/2) - f'(x-h/2) otteniamo la differenza finita centrata del second'ordine:

 \Delta_0^2 f (x) =  f(x+h) - 2 f(x) + f(x-h)

Più in generale, le differenze finite dell' n-esimo ordine sono definite rispettivamente come:

\Delta^n_h f(x) = \sum_{i = 0}^{n} (-1)^i \binom{n}{i} f(x + (n - i) h)
\Delta^n_{-h} f(x) = \sum_{i = 0}^{n} (-1)^i \binom{n}{i} f(x - ih)
\Delta^n_0 f(x) = \sum_{i = 0}^{n} (-1)^i \binom{n}{i} f\left(x + \left(\frac{n}{2} - i\right) h\right)

Se necessario, è possibile mischiare i tre tipi centrando l'approssimazione successivamente in punti diversi.

Proprietà[modifica | modifica wikitesto]

  • Per k e n positivi:
\Delta^n_{kh} (f, x) = \sum\limits_{i_1=0}^{k-1} \sum\limits_{i_2=0}^{k-1} \cdots \sum\limits_{i_n=0}^{k-1} \Delta^n_h (f, x+i_1h+i_2h+\cdots+i_nh)
\Delta^n_h (fg, x) = \sum\limits_{k=0}^n \binom{n}{k} \Delta^k_h (f, x) \Delta^{n-k}_h(g, x+kh)

Generalizzazioni[modifica | modifica wikitesto]

  • Una differenza finita generalizzata è spesso definita come:
\Delta_h^\mu[f](x) = \sum_{k=0}^N \mu_k f(x+kh)
dove \mu = (\mu_0,\ldots,\mu_N) è il vettore dei suoi coefficienti. Un'ulteriore generalizzazione si ha quando la somma viene rimpiazzata da una serie infinita, ottenendo la differenza infinita.
Si possono anche rendere i coefficienti \mu_k dipendenti dal puntox, ovvero \mu_k=\mu_k(x), ottenendo così una differenza "pesata". Si può anche far dipendere h dal punto x, ovvero h=h(x): ciò risulta utile ad esempio per definire diversi moduli di continuità.

Interpolazione di Newton[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Polinomio di Newton.

La formula di interpolazione di Newton, introdotta da Newton nei Philosophiae Naturalis Principia Mathematica del 1687,[2] è l'analogo discreto dell'espansione di Taylor continua:

f(x)=\sum_{k=0}^\infty\frac{\Delta^k [f](a)}{k!} ~(x-a)_k
= \sum_{k=0}^\infty {x-a \choose k}~ \Delta^k [f](a)

che vale per ogni funzione polinomiale f e per molte funzioni analitiche. L'espressione:

{x \choose k} = \frac{(x)_k}{k!}

è il coefficiente binomiale, mentre:

(x)_k=x(x-1)(x-2)\cdots(x-k+1)

è il fattoriale decrescente. Il prodotto vuoto (x)_0 vale inoltre 1.

Note[modifica | modifica wikitesto]

  1. ^ (EN) IUPAC Gold Book, "change of a quantity"
  2. ^ Newton, Isaac, (1687). Principia, Book III, Lemma V, Case 1

Bibliografia[modifica | modifica wikitesto]

  • (EN) Richtmeyer, D. and Morton, K.W., (1967). Difference Methods for Initial Value Problems, 2nd ed., Wiley, New York.
  • (EN) H. Levy e Lessman, F., Finite Difference Equations, Dover, 1992, ISBN 0-486-67260-3.
  • (EN) Ames, W. F., (1977). Numerical Methods for Partial Differential Equations, Section 1.6. Academic Press, New York. ISBN 0-12-056760-1.
  • (EN) Hildebrand, F. B., (1968). Finite-Difference Equations and Simulations, Section 2.2, Prentice-Hall, Englewood Cliffs, New Jersey.

Voci correlate[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]

Matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di Matematica