Analisi della varianza

Da Wikipedia, l'enciclopedia libera.

L'analisi della varianza (ANOVA) è un insieme di tecniche statistiche facenti parte della statistica inferenziale che permettono di confrontare due o più gruppi di dati confrontando la variabilità interna a questi gruppi con la variabilità tra i gruppi.

L'ipotesi nulla solitamente prevede che i dati di tutti i gruppi abbiano la stessa origine, ovvero la stessa distribuzione stocastica, e che le differenze osservate tra i gruppi siano dovute solo al caso.

Si usano queste tecniche quando le variabili esplicative sono di tipo nominale. Nulla impedisce di usare queste tecniche anche in presenza di variabili esplicative di tipo ordinale o continuo, ma in tal caso sono meno efficienti delle tecniche alternative (ad esempio: regressione lineare).

Ipotesi di base[modifica | modifica wikitesto]

L'ipotesi alla base dell'analisi della varianza è che dati G gruppi, sia possibile scomporre la varianza in due componenti: Varianza interna ai gruppi (anche detta Varianza Within) e Varianza tra i gruppi (Varianza Between). La ragione che spinge a compiere tale distinzione è la convinzione, da parte del ricercatore, che determinati fenomeni trovino spiegazione in caratteristiche proprie del gruppo di appartenenza. Un esempio tipico, ripreso dalle analisi sociologiche, si trova nello studio dei gruppi di tossicodipendenti. In questo caso l'analisi della varianza si usa per determinare se più gruppi possono essere in qualche modo significativamente diversi tra loro (la varianza between contribuisce significativamente alla varianza totale - il fenomeno è legato a caratteristiche proprie di ciascun gruppo come la zona di residenza) o, viceversa, risultano omogenei (la varianza within contribuisce significativamente alla varianza totale - il fenomeno è legato a caratteristiche proprie di tutti i gruppi). In altre parole, il confronto si basa sull'idea che se la variabilità interna ai gruppi è relativamente elevata rispetto alla variabilità tra i gruppi, allora probabilmente la differenza tra questi gruppi è soltanto il risultato della variabilità interna.

Il più noto insieme di tecniche si basa sul confronto della varianza e usa variabili di test distribuite come la variabile casuale F di Fisher-Snedecor.

Le diverse tecniche vengono suddivise a seconda se il modello prevede:

  • una sola causa: ad esempio: il gradimento di un cibo dipende dal colore del medesimo;
  • più di una causa: ad esempio: il successo scolastico dipende sia dal genere (maschi, femmine) che dal grado di istruzione dei genitori;
  • interazione tra più cause: ad esempio: la velocità di guarigione dipende da due farmaci, i quali però si annullano (o rinforzano) a vicenda.

Discussione analitica[modifica | modifica wikitesto]

La relazione tra varianza totale \sigma^2 riferita alle n unità e varianze calcolate sui singoli gruppi \sigma^2_g (con g=1,2,\dots,G) risulta essere:

\sigma^2=\sum_{g=1}^G \sigma^2_g {n_g \over n} + \sum_{g=1}^G (m_g - m)^2 {n_g \over n}.

La prima sommatoria è la varianza within mentre la seconda è la varianza between. Quindi, equivalentemente, si potrà scrivere:

\sigma^2 = \sigma^2_W + \sigma^2_B

Dove m è la media totale delle n unità, uguale alle medie parziali di ciascun gruppo m_g con pesi uguali alle rispettive frequenze relative di gruppo {n_g \over n} .

A loro volta, le medie parziali m_g dei valori x_{gj} del g-esimo gruppo sono date da:

m_g=\sum_{j=1}^{n_g}{x_{gj} \over n_g}.

Inoltre si ha che:

\sigma^2_g={\sum_{j=1}^{n_g} [x_{gj}-m_g]^2 \over n_g}

La varianza within è uguale alla media ponderata delle varianze parziali, calcolate in ogni gruppo. I pesi sono uguali alle loro frequenze relative.

La varianza between è uguale alla varianza ponderata delle medie parziali. I pesi sono uguali alle frequenze relative di gruppo.

Esempio di analisi della varianza semplice[modifica | modifica wikitesto]

In questo esempio abbiamo G=4 gruppi di uguale numerosità n_g=5 (per semplificare l'esempio), con g=1,2,3,4, indicati con A,B,C,D e n=20 unità statistiche (cioè il numero di osservazioni sperimentali totali).

Il modello prevede che

x_{gj}= \mu+\alpha_{g}+\varepsilon_{gj}

con g=1,2,3,4 che indica il gruppo e j=1,2,3,4,5.

L'ipotesi nulla prevede che:

I dati osservati nei quattro gruppi sono:

j A B C D
1 0,72 0,75 0,68 0,78
2 0,69 0,85 0,70 0,86
3 0,71 0,82 0,67 0,87
4 0,70 0,80 0,65 0,84
5 0,68 0,88 0,70 0,85

Siano adesso:

  • SSQ_a: la somma degli scarti quadratici delle medie dei singoli gruppi (m_i) dalla media generale m;
  • SSQ_e: la somma degli scarti quadratici dei singoli valori x_{gj} rispetto alla media m_i del gruppo a cui appartengono;
  • SSQ_{tot}: la somma degli scarti quadratici di tutti singoli valori rispetto alla media generale m.

Ovvero:

m = \frac{1}{n} \sum_{g=1}^G \sum_{j=1}^{n_g} x_{gj}
m_g = \frac{1}{n_g} \sum_{j=1}^{n_g} x_{gj}
SSQ_a = \sum_{g=1}^G n_g (m_g - m)^2
SSQ_e = \sum_{g=1}^G \sum_{j=1}^{n_g} (x_{gj} - m_g)^2
SSQ_{tot} = \sum_{g=1}^G \sum_{j=1}^{n_g} (x_{gj} - m)^2 = SSQ_e + SSQ_a

La variabile test diventa:

 T = \frac{SSQ_a / (G - 1)}{SSQ_e / (n - G)}

dove:

G è il numero di gruppi (nel nostro esempio: G = 4)
n_g la numerosità dei singoli gruppi (nel nostro caso n_g = 5 per ogni gruppo)
n = \sum_{g=1}^G n_g, ovvero il numero complessivo di casi osservati (nel nostro caso n = 20)

Nell'esempio si ottiene che:

SSQ_{tot} = 0,1176
SSQ_a = 0,1000
SSQ_e = 0,0176

e pertanto

T = \frac{0,1000 / (4 - 1)}{0.0176 / (20 - 4)} = \frac{0,1000 \cdot 16}{0,0176 \cdot 3} = 30,30

tale valore viene confrontato con i valori dei una variabile casuale F di Snedecor con 3 e 16 gradi di libertà. Se si accetta una percentuale di falsi positivi del 5\% = (100 - 95)\% tale valore è:

F(0,95; 3; 16) = 3,24

pertanto, essendo 30,3 \gg 3,24 si rigetta l'ipotesi nulla che prevedeva l'assenza di effetti e si afferma che molto probabilmente almeno uno dei quattro gruppi è diverso dagli altri. Forse tutti i gruppi sono diversi uno dall'altro, forse solo uno di loro.

Un test (proposto per la prima volta da Ronald Fisher) permette di determinare la più piccola differenza significativa tra la media di due gruppi, confrontandoli uno ad uno.

Tale differenza è pari a:

t \left ( \frac{0,05}{2}; n - G \right ) \cdot \sqrt{\left ( SSQ_e \left ( \frac{1}{n_p} + \frac{1}{n_q} \right ) \right ) }

Software statistico R[modifica | modifica wikitesto]

Il calcolo dell'ANOVA con il software R si esegue in diversi modi: a seconda dei dati da analizzare. Prima di procedere nel calcolo vero e proprio è necessario verificare i seguenti assunti:

  1. Indipendenza dei punteggi osservati (se i soggetti sono tra loro indipendenti ci troviamo nell'opzione 'TRA CASI'; se l'assunto non è rispettato (ovvero si fanno più misurazioni agli stessi soggetti) siamo nell'opzione 'ENTRO CASI' che segue modalità di calcolo proprie);
  2. normalità della distribuzione;
  3. omoschedasticità (o omogeneità delle varianze);

Il secondo assunto può essere valutato in due modi:

  • test di normalità di Kolmogorov-Smirnov:
 >ks.test(x, pnorm, mean(x), sd(x))

dove:

  • x è la variabile di cui si vuole valutare la normalità;
  • mean(x) calcola la media di tale distribuzione;
  • sd(x) calcola la deviazione standard di tale distribuzione;
  • pnorm esegue il confronto tra la distribuzione e una distribuzione normale teorica con media=mean(x) e deviazione standard=sd(x).

Dell'output restituito si legge solo il p-value: deve essere maggiore o uguale a 0.05 (o ad un alpha prefissato). L'ipotesi nulla sostiene infatti che la distribuzione è normale;

  • test di normalità di Shapiro-Wilk:
 >shapiro.test(x)

questo comando richiede solo la variabile da analizzare. Stesso discorso di prima per l'output e le ipotesi del test.

Il terzo assunto, omogeneità delle varianze (ovvero delle diverse varianze considerate suddivise in funzione dei livelli del fattore, viene così calcolato:

 >bartlett.test (y~A)

dove:

  • y è la variabile dipendente;
  • A è il fattore;

per quanto riguarda l'output è sufficiente leggere il p-value e assicurarsi che sia maggiore o uguale ad un livello alpha prefissato (di default è 0.05). l'ipotesi nulla sostiene infatti che tutte le varianze sono tra loro omogenee. Nel caso questo assunto non sia rispettato è necessario eseguire il calcolo dell'ANOVA con la correzione di Welch.

verificati gli assunti si può procedere con l'ANOVA vera e propria.

Modello tra casi[modifica | modifica wikitesto]

In questo caso è sufficiente utilizzare il seguente comando:

 >anova(lm(y~A))

la cui ipotesi nulla è che le diverse medie dei gruppi del fattore sono uguali.

Si noti che l'ipotesi alternativa sostiene che almeno una è diversa dalle altre, non necessariamente tutte diverse tra loro.

nel caso avessimo più fattori possiamo scrivere:

>anova(lm(y~A*B)) se vogliamo tenere conto delle interazioni tra diversi fattori 
>anova(lm(y~A+B)) se non vogliamo considerare l'interazione;

Modello entro casi[modifica | modifica wikitesto]

In questo caso dobbiamo verificare i 3 assunti di prima più un quarto: l'assunto di sfericità (che sostiene che le covarianze siano omogenee). Per tale verifica:

 >mauchly.test(lm(y~x)~1, X=~1)

e si valuta il p-value: deve essere maggiore o uguale al livello di significatività imposto: l'ipotesi nulla è quella che sostiene la sfericità. nel caso non sia verificato si esegue il calcolo con la correzione di Greenhouse-Geisser

nel caso in cui tale assunto è verificato basta inserire il comando:

 >summary(aov(y~A))

e si osserva il p-value: anche qui l'ipotesi nulla depone a favore dell'uguaglianza tra le medie.

Bibliografia[modifica | modifica wikitesto]

  • Zani S.; Analisi dei dati statistici, vol. I; 1994; Giuffrè editore; Milano
  • Gili A., Frosini B.V., Zanardi G. e Zenga M.; Variability and concentration, in: Italian contribution to the metodology of statistic; 1987; Cleup; Padova
  • Brasini S., Tassinari F., Tassinari G.; Marketing e pubblicità; 1993; Il Mulino; Bologna
  • Rao C.R.; Diversity: its measurement, decomposition, apportionment and analysis; 1982; Sankhya vol. 44 serie A pagg 1-12

Voci correlate[modifica | modifica wikitesto]

statistica Portale Statistica: accedi alle voci di Wikipedia che trattano di statistica