Correlazione (statistica)

Da Wikipedia, l'enciclopedia libera.
Esempi di insiemi di punti (xy) con relativo coefficiente di correlazione.

In statistica per correlazione si intende una relazione tra due variabili statistiche tale che a ciascun valore della prima variabile corrisponda con una "certa regolarità" un valore della seconda.

Non si tratta necessariamente di un rapporto di causa-effetto, ma semplicemente della tendenza di una variabile a variare in funzione di un'altra. Talvolta le variazioni di una variabile dipendono dalle variazioni dell'altra (ad esempio la relazione tra la statura dei padri e quella dei figli), talvolta sono comuni (relazioni tra la statura e il peso di un individuo); talvolta sono reciprocamente dipendenti (relazione tra prezzo e domanda di una merce: il prezzo influisce sulla domanda e la domanda influisce sul prezzo).

Se dunque si cerca una correlazione statistica tra due grandezze ai fini della determinazione di una possibile relazione di causa-effetto si deve essere certi che non si tratti eventualmente di una correlazione spuria.

Cenni storici[modifica | modifica sorgente]

In statistica, il termine correlazione compare per la prima volta in un lavoro di Francis Galton (Hereditary Genius, 1869), senza venir ulteriormente definita ("la moralità di un individuo e la sua instabilità morale sono non correlate").

Nel 1877 lo stesso autore scopre che i coefficienti di regressione lineare di y su x e di x su y sono gli stessi se sia x che y sono normalizzate secondo la loro deviazione standard σx e σy (in realtà Galton usa lo scarto interquartile), e chiama questo parametro coefficiente di co-relazione, dandogli il nome r come abbreviazione di regressione.

Descrizione[modifica | modifica sorgente]

La correlazione si dice diretta o positiva quando variando una variabile in un senso anche l'altra varia nello stesso senso (alle stature alte dei padri corrispondono stature alte dei figli); si dice indiretta o inversa o negativa quando variando una variabile in un senso l'altra varia in senso inverso (a una maggiore produzione di grano corrisponde un prezzo minore). La correlazione dicesi semplice quando i fenomeni posti in relazione sono due (per esempio, numero dei matrimoni e il numero delle nascite); doppia quando i fenomeni sono tre (per esempio, circolazione monetaria, prezzi e risparmio); tripla quando sono quattro ecc..

Il grado di correlazione fra due variabili viene espresso mediante i cosiddetti indici di correlazione. Questi assumono valori compresi tra - 1 (quando le variabili considerate sono inversamente correlate) e + 1 (quando vi sia correlazione assoluta cioè quando alla variazione di una variabile corrisponde una variazione rigidamente dipendente dall'altra), ovviamente un indice di correlazione pari a zero indica un'assenza di correlazione. Due variabili indipendenti hanno sicuramente un indice di correlazione pari a 0, ma al contrario un valore pari a 0 non implica necessariamente che le due variabili siano indipendenti.

I coefficienti di correlazione sono derivati dagli indici di correlazione tenendo presenti le grandezze degli scostamenti dalla media. In particolare, il coefficiente di correlazione di Pearson-Bravais è calcolato come rapporto tra la covarianza delle due variabili ed il prodotto delle loro deviazioni standard[1]:

-1\le\rho_{xy}=\frac{\sigma_{xy}}{\sigma_x\sigma_y}=\frac{\sum_{i=1}^n(x_i-\mu_x)(y_i-\mu_y)}{\sqrt{\sum_{i=1}^n(x_i-\mu_x)^2}\sqrt{\sum_{i=1}^n(y_i-\mu_y)^2}}\le+1

I risultati degli indici e dei coefficienti di correlazione devono comunque sempre ritenersi approssimativi data l'arbitrarietà con cui vengono scelti gli elementi che esercitano la loro influenza sui fenomeni specialmente nel caso che si tratti di correlazioni multiple.

Voci correlate[modifica | modifica sorgente]

Note[modifica | modifica sorgente]

  1. ^ Dove si semplificano i fattori \frac{1}{n} a numeratore e denominatore.
economia Portale Economia: accedi alle voci di Wikipedia che trattano di economia