Regressione nonlineare

Da Wikipedia, l'enciclopedia libera.
Approssimazione di un set di osservazioni tramite polinomi di diversi gradi

In statistica la regressione nonlineare è un metodo di stima di una curva interpolante un modello della forma:

su un insieme di osservazioni (eventualmente multi-dimensionali), concernenti le variabili , .

Metodi di stima[modifica | modifica wikitesto]

Diversamente da quanto accade nel caso della regressione lineare, non esiste un metodo generale per determinare i valori dei parametri che garantiscono la migliore interpolazione dei dati. A tal fine, si ricorre a classi di algoritmi numerici di ottimizzazione, che a partire da valori iniziali, scelti a caso o tramite un'analisi preliminare, giungono a punti ritenuti ottimali. Si potrebbero avere dei massimi locali della bontà del fitting, in contrasto ancora con il caso della regressione lineare, in cui il massimo è di natura globale.

Linearizzazione[modifica | modifica wikitesto]

Diversi modelli nonlineari possono essere linearizzati (cioè trasformati in modelli lineari, riducendo così l'onerosità numerica del problema di stima). Un esempio è dato dai modelli:

e

Il primo emerge naturalmente in una varietà di contesti, come soluzione di equazioni differenziali ordinarie; il secondo è tipico dell'ambito dell'economia e dell'econometria, come modello per la funzione di produzione. In entrambi i casi è possibile linearizzare i modelli applicando una trasformazione logaritmica.

I logaritmi nella regressione

Caso Regressione Interpretazione di
lin-log Una variazione percentuale dell'1% in X determina una variazione pari a 0,01 in Y.
log-lin Una variazione di un'unità in X (ΔX = 1) determina una variazione pari al 100  % in Y.
log-log Una variazione pari all'1% in X determina una variazione pari al  % in Y (elasticità).

Ulteriori metodi[modifica | modifica wikitesto]

Modelli di maggiore complessità, quali ad esempio quelli caratterizzati da equazioni trascendenti come , sono stimati tramite algoritmi più sofisticati. Diversi software matematici contengono librerie di ottimizzazione: Gauss, GNU Octave, MATLAB, Mathematica; sono inoltre ampiamente disponibili librerie di ottimizzazione per linguaggi avanzati quali C++ o Fortran.

Chiarimenti sull'ambito di applicazione del metodo[modifica | modifica wikitesto]

Sovente si considera - erroneamente - che l'impiego del metodo dei minimi quadrati per stimare i parametri , , in un modello del tipo:

costituisca un caso di regressione nonlineare. In realtà, l'aggettivo (non-)lineare è riferito ai parametri, non alla(e) variabile(i) dipendente(i), per cui il modello sopra è stimato tramite i minimi quadrati ordinari come un modello di regressione lineare; si veda al riguardo il relativo articolo.

Voci correlate[modifica | modifica wikitesto]