Metodo delle tangenti

Da Wikipedia, l'enciclopedia libera.

In matematica, e in particolare in analisi numerica, il metodo delle tangenti, chiamato anche metodo di Newton o metodo di Newton-Raphson, è uno dei metodi per il calcolo approssimato di una soluzione di un'equazione della forma f(x)=0. Esso si applica dopo avere determinato un intervallo [a,b] che contiene una sola radice.

Esempio di applicazione del metodo delle tangenti

Il metodo consiste nel sostituire alla curva y=f(x) la tangente alla curva stessa, partendo da un qualsiasi punto; per semplicità si può iniziare da uno dei due punti che hanno come ascissa gli estremi dell'intervallo [a,b] e assumere, come valore approssimato della radice, l'ascissa x_t del punto in cui la tangente interseca l'asse delle x internamente all'intervallo [a,b].

Supponiamo che nell'intervallo [a,b] la funzione e le sue derivate prima e seconda esistano e siano continue e che la derivata prima e seconda siano diverse da zero.

Conviene tracciare la tangente nell'estremo dell'intervallo in cui la funzione e la sua derivata seconda hanno lo stesso segno; nell'esempio della figura nel punto di ascissa a.

L'equazione della tangente nel punto di ascissa a risulta y-f(a)=f'(a)(x-a) quindi ponendo y=0

x_0=a-\frac{f(a)}{f'(a)}.

Abbiamo determinato il nuovo intervallo [x_0,b] contenente la radice che stiamo cercando. Ripetendo il procedimento per x_0 otteniamo una nuova approssimazione della radice (intersezione della seconda tangente con l'asse delle x)

x_1 = x_0-\frac{f(x_0)}{f'(x_0)}.

Procedendo in modo iterativo si ottiene la relazione di ricorrenza

x_{n+1}=x_n-\frac{f(x_n)}{f'(x_n)},

che permette di determinare successive approssimazioni della radice dell'equazione y=f(x)=0. Con le ipotesi poste, si dimostra che la successione delle x_n converge alla radice piuttosto rapidamente.

Più in dettaglio, si dimostra che se

f \in C^2(I) dove I è un opportuno intorno della radice \alpha con f'(\alpha) \neq 0 e se x_0 \in I,

allora

\lim_{n \to +\infty} \frac{\alpha - x_{n+1}}{(\alpha - x_n)^2} = - \frac{f''(\alpha)}{2 f'(\alpha)},

cioè la convergenza è quadratica (il numero di cifre significative approssimativamente raddoppia ad ogni iterazione; mentre col metodo di bisezione cresce linearmente), benché locale (cioè non vale per ogni I). Se invece la radice è multipla, cioè f'(\alpha) = 0 allora la convergenza è lineare (più lenta). Nella pratica, fissata la tolleranza di approssimazione consentita \tau, il procedimento iterativo si fa terminare quando \left| x_{n+1}-x_n \right| < \tau \cdot |x_{n+1}| .

Il problema di questo metodo è che la convergenza non è garantita, in particolare quando f'(x) varia notevolmente in prossimità dello zero. Inoltre, il metodo assume che f'(x) sia disponibile direttamente per un dato x. Nei casi in cui questo non si verifica e risulterebbe necessario calcolare la derivata attraverso una differenza finita, è consigliabile usare il metodo della secante.

Voci correlate[modifica | modifica wikitesto]

Altri progetti[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica