Regressione nonlineare

Da Wikipedia, l'enciclopedia libera.
Approssimazione di un set di osservazioni tramite polinomi di diversi gradi

In statistica la regressione nonlineare è un metodo di stima di una curva interpolante un modello della forma:

\ Y=f(X;\vartheta) + \varepsilon

su un insieme di osservazioni (eventualmente multi-dimensionali), concernenti le variabili \ X, \ Y.

Metodi di stima[modifica | modifica wikitesto]

Diversamente da quanto accade nel caso della regressione lineare, non esiste un metodo generale per determinare i valori dei parametri che garantiscono la migliore interpolazione dei dati. A tal fine, si ricorre a classi di algoritmi numerici di ottimizzazione, che a partire da valori iniziali, scelti a caso o tramite un'analisi preliminare, giungono a punti ritenuti ottimali. Si potrebbero avere dei massimi locali della bontà del fitting, in contrasto ancora con il caso della regressione lineare, in cui il massimo è di natura globale.

Linearizzazione[modifica | modifica wikitesto]

Diversi modelli nonlineari possono essere linearizzati (cioè trasformati in modelli lineari, riducendo così l'onerosità numerica del problema di stima). Un esempio è dato dai modelli:

\ Y=\alpha\exp\left\{\beta X\right\}

e

\ Y=\alpha X_{1}^{\beta}X_{2}^{\gamma}

Il primo emerge naturalmente in una varietà di contesti, come soluzione di equazioni differenziali ordinarie; il secondo è tipico dell'ambito dell'economia e dell'econometria, come modello per la funzione di produzione. In entrambi i casi è possibile linearizzare i modelli applicando una trasformazione logaritmica.

I logaritmi nella regressione

Caso Regressione Interpretazione di \beta_{1}
lin-log Y_i =\beta_0 + \beta_1 \ln(X_i) + u_i Una variazione percentuale dell'1% in X determina una variazione pari a 0,01 \beta_1 in Y.
log-lin \ln(Y_i) =\beta_0 + \beta_1 (X_i) + u_i Una variazione di un'unità in X (ΔX = 1) determina una variazione pari al 100 \beta_1 % in Y.
log-log \ln(Y_i) =\beta_0 + \beta_1 \ln(X_i) + u_i Una variazione pari all'1% in X determina una variazione pari al \beta_1 % in Y (elasticità).

Ulteriori metodi[modifica | modifica wikitesto]

Modelli di maggiore complessità, quali ad esempio quelli caratterizzati da equazioni trascendenti come \ Y=A_{1}e^{B_{1}X}+A_{2}e^{B_{2}X}, sono stimati tramite algoritmi più sofisticati. Diversi software matematici contengono librerie di ottimizzazione: Gauss, GNU Octave, MATLAB, Mathematica; sono inoltre ampiamente disponibili librerie di ottimizzazione per linguaggi avanzati quali C++ o Fortran.

Chiarimenti sull'ambito di applicazione del metodo[modifica | modifica wikitesto]

Sovente si considera - erroneamente - che l'impiego del metodo dei minimi quadrati per stimare i parametri \ \alpha, \ \beta, \ \gamma in un modello del tipo:

\ Y_{i}=\alpha X_{i}^{2} + \beta X_{i} + \gamma + \varepsilon_{i}

costituisca un caso di regressione nonlineare. In realtà, l'aggettivo (non-)lineare è riferito ai parametri, non alla(e) variabile(i) dipendente(i), per cui il modello sopra è stimato tramite i minimi quadrati ordinari come un modello di regressione lineare; si veda al riguardo il relativo articolo.

Voci correlate[modifica | modifica wikitesto]