Regressione nonlineare

Da Wikipedia, l'enciclopedia libera.
(Reindirizzamento da Regressione non lineare)
Vai alla navigazione Vai alla ricerca
Approssimazione di un set di osservazioni tramite polinomi di diversi gradi

In statistica la regressione non lineare è un metodo di stima di una curva interpolante un modello della forma:

su un insieme di osservazioni (eventualmente multi-dimensionali), concernenti le variabili , .

Metodi di stima[modifica | modifica wikitesto]

Diversamente da quanto accade nel caso della regressione lineare, non esiste un metodo generale per determinare i valori dei parametri che garantiscono la migliore interpolazione dei dati. A tal fine, si ricorre a classi di algoritmi numerici di ottimizzazione, che a partire da valori iniziali, scelti a caso o tramite un'analisi preliminare, giungono a punti ritenuti ottimali. Si potrebbero avere dei massimi locali della bontà del fitting, in contrasto ancora con il caso della regressione lineare, in cui il massimo è di natura globale.

Linearizzazione[modifica | modifica wikitesto]

Diversi modelli nonlineari possono essere linearizzati (cioè trasformati in modelli lineari, riducendo così l'onerosità numerica del problema di stima). Un esempio è dato dai modelli:

e

Il primo emerge naturalmente in una varietà di contesti, come soluzione di equazioni differenziali ordinarie; il secondo è tipico dell'ambito dell'economia e dell'econometria, come modello per la funzione di produzione. In entrambi i casi è possibile linearizzare i modelli applicando una trasformazione logaritmica.

I logaritmi nella regressione

Caso Regressione Interpretazione di
lin-log Una variazione percentuale dell'1% in X determina una variazione pari a 0,01 in Y.
log-lin Una variazione di un'unità in X (ΔX = 1) determina una variazione pari al 100  % in Y.
log-log Una variazione pari all'1% in X determina una variazione pari al  % in Y (elasticità).

Ulteriori metodi[modifica | modifica wikitesto]

Modelli di maggiore complessità, quali ad esempio quelli caratterizzati da equazioni trascendenti come , sono stimati tramite algoritmi più sofisticati. Diversi software matematici contengono librerie di ottimizzazione: Gauss, GNU Octave, MATLAB, Mathematica; sono inoltre ampiamente disponibili librerie di ottimizzazione per linguaggi avanzati quali C++ o Fortran.

Chiarimenti sull'ambito di applicazione del metodo[modifica | modifica wikitesto]

Sovente si considera - erroneamente - che l'impiego del metodo dei minimi quadrati per stimare i parametri , , in un modello del tipo:

costituisca un caso di regressione nonlineare. In realtà, l'aggettivo (non-)lineare è riferito ai parametri, non alla(e) variabile(i) dipendente(i), per cui il modello sopra è stimato tramite i minimi quadrati ordinari come un modello di regressione lineare; si veda al riguardo il relativo articolo.

Voci correlate[modifica | modifica wikitesto]

Controllo di autoritàThesaurus BNCF 57284 · GND (DE4251077-6