Metodo delle tangenti

Da Wikipedia, l'enciclopedia libera.

In analisi numerica, il metodo delle tangenti, chiamato anche metodo di Newton o metodo di Newton-Raphson, è uno dei metodi per il calcolo approssimato di una soluzione di un'equazione della forma \,f(x)=0. Esso si applica dopo avere determinato un intervallo \,[a,b] che contiene una sola radice.

Esempio di applicazione del metodo delle tangenti

Il metodo consiste nel sostituire alla curva \,y=f(x) la tangente alla curva stessa, partendo da un qualsiasi punto; per semplicità si può iniziare da uno dei due punti che hanno come ascissa gli estremi dell'intervallo \,[a,b] e assumere, come valore approssimato della radice, l'ascissa \,x_t del punto in cui la tangente interseca l'asse delle x internamente all'intervallo \,[a,b].

Supponiamo che nell'intervallo \,[a,b] la funzione e le sue derivate prima e seconda esistano e siano continue e che la derivata prima e seconda siano diverse da zero.

Conviene tracciare la tangente nell'estremo dell'intervallo in cui la funzione e la sua derivata seconda hanno lo stesso segno; nell'esempio della figura nel punto di ascissa a.

L'equazione della tangente nel punto di ascissa a risulta \,y-f(a)=f'(a)(x-a) quindi ponendo y = 0

x_0=a-\frac{f(a)}{f'(a)}.

Abbiamo determinato il nuovo intervallo \,[x_0,b] contenente la radice che stiamo cercando. Ripetendo il procedimento per \,x_0 otteniamo una nuova approssimazione della radice (intersezione della seconda tangente con l'asse delle x)

x_1 = x_0-\frac{f(x_0)}{f'(x_0)} .

Procedendo in modo iterativo si ottiene la relazione di ricorrenza

x_{n+1}=x_n-\frac{f(x_n)}{f'(x_n)}

che permette di determinare successive approssimazioni della radice dell'equazione \,y=f(x)=0. Con le ipotesi poste, si dimostra che la successione delle \,x_n converge alla radice piuttosto rapidamente.

Più in dettaglio, si dimostra che se

f \in C^2(I) dove I è un opportuno intorno della radice \,\alpha con f'(\alpha) \neq 0 e se x_0 \in I

allora

\lim_{n \to \infty} \frac{\alpha - x_{n+1}}{(\alpha - x_n)^2} = - \frac{f''(\alpha)}{2 f'(\alpha)}

cioè la convergenza è quadratica (il numero di cifre significative approssimativamente raddoppia ad ogni iterazione; mentre col metodo di bisezione cresce linearmente), benché locale (cioè non vale per ogni I). Se invece la radice è multipla, cioè \,f'(\alpha) = 0 allora la convergenza è lineare (più lenta). Nella pratica, fissata la tolleranza di approssimazione consentita \tau, il procedimento iterativo si fa terminare quando \left| x_{n+1}-x_n \right| < \tau \cdot |x_{n+1}| .

Il problema di questo metodo è che la convergenza non è garantita, in particolare quando f'(x) varia notevolmente in prossimità dello zero. Inoltre, il metodo assume che f'(x) sia disponibile direttamente per un dato 'x'. Nei casi in cui questo non si verifica e risulterebbe necessario calcolare la derivata attraverso una differenza finita, è consigliabile usare il metodo della secante.

Voci correlate[modifica | modifica sorgente]

Altri progetti[modifica | modifica sorgente]

Collegamenti esterni[modifica | modifica sorgente]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica