Somma dei quadrati residui

Da Wikipedia, l'enciclopedia libera.

In statistica, la Somma dei quadrati residui (Sum of Squared Residuals - SSR o anche Residual Sum of Squares - RSS) è la somma dei quadrati dei residui semplici dedotti dal modello, ovvero la devianza residua. La SSR è una misura della discrepanza tra i dati ed il modello scelto: quanto minore sarà tale distanza, migliore risulterà l'adattamento del modello ai dati e quindi le conclusioni che se ne trarranno saranno più precise.

SSR = \sum_{i=1}^n \hat{u}_i^2 = \sum_{i=1}^n (y_i - f(x_i))^2

Nel contesto di un modello di regressione lineare semplice y_i = a+bx_i+\varepsilon_i, dove a e b sono coefficienti, y e x sono la variabile dipendente ed il regressore, ed \varepsilon_i è l'errore associato alla componente i-esima, la SSR è la somma dei quadrati dei residui, ovvero delle stime della variabile aleatoria εi.

SSR = \sum_{i=1}^n (y_i - (a+bx_i))^2 = \sum_{i=1}^n (y_i - \hat{y}_i)^2 = \sum_{i=1}^n \hat{u}_i^2

Secondo la formula di scomposizione della devianza, risulta che la devianza totale è pari alla somma della devianza residua e della devianza spiegata:

SST = SSE + SSR

Bibliografia[modifica | modifica sorgente]

  • James Stock, Mark Watson, Introduzione all'econometria, Milano, Pearson Education, 2005, p. 122, ISBN 978-88-7192-267-6.

Argomenti correlati[modifica | modifica sorgente]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica