Analisi della varianza

Da Wikipedia, l'enciclopedia libera.
(Reindirizzamento da ANOVA)
Vai alla navigazione Vai alla ricerca

L'analisi della varianza (ANOVA, dall'inglese Analysis of Variance) è un insieme di tecniche statistiche facenti parte della statistica inferenziale che permettono di confrontare due o più gruppi di dati calcolando e confrontando la variabilità interna a questi gruppi con la variabilità tra i gruppi.

L'analisi della varianza prevede una verifica di validità dell'ipotesi nulla, che prescrive che i dati di tutti i gruppi abbiano la stessa origine, ovvero la stessa distribuzione stocastica, e le differenze osservate tra i gruppi siano dovute solo al caso.

Si tratta di tecniche usate soprattutto quando le variabili esplicative sono di tipo nominale (discreto); nulla impedisce di usarle anche in presenza di variabili esplicative di tipo ordinale o continuo, ma in questo caso si ha un'efficienza minore rispetto a tecniche alternative (ad esempio la regressione lineare).

Ipotesi di base

[modifica | modifica wikitesto]

L'ipotesi alla base dell'analisi della varianza è che dati gruppi, sia possibile scomporre la varianza in due componenti: Varianza interna ai gruppi (anche detta Varianza Within) e Varianza tra i gruppi (Varianza Between). La ragione che spinge a compiere tale distinzione è la convinzione, da parte del ricercatore, che determinati fenomeni trovino spiegazione in caratteristiche proprie del gruppo di appartenenza. Un esempio tipico, ripreso dalle analisi sociologiche, si trova nello studio dei gruppi di tossicodipendenti. In questo caso l'analisi della varianza si usa per determinare se più gruppi possono essere in qualche modo significativamente diversi tra loro (è la varianza between a contribuire più significativamente alla varianza totale - il fenomeno è legato a caratteristiche proprie di ciascun gruppo, come la zona di residenza) o, viceversa, risultano omogenei (è la varianza within a contribuire più significativamente alla varianza totale - il fenomeno è legato a caratteristiche proprie di tutti i gruppi). In altre parole, il confronto si basa sull'idea che se la variabilità interna ai gruppi è relativamente elevata rispetto alla variabilità tra i gruppi, allora probabilmente la differenza tra questi gruppi è soltanto il risultato della variabilità interna.

Il più noto insieme di tecniche si basa sul confronto della varianza e usa variabili di test distribuite come la variabile casuale F di Fisher-Snedecor.

Le diverse tecniche vengono suddivise a seconda del fatto che il modello preveda:

  • una sola causa: ad esempio, il gradimento di un cibo dipende dal colore del medesimo;
  • più di una causa: ad esempio il successo scolastico dipende sia dal grado di interesse individuale nei confronti dello studio e dell'ottenimento di buoni voti, sia dal grado di istruzione dei genitori;
  • interazione tra più cause: ad esempio, la velocità di effetto di una cura medica dipende dall'azione di due farmaci, i quali però si annullano (o rinforzano) a vicenda.

Discussione analitica

[modifica | modifica wikitesto]

La relazione tra varianza totale riferita alle unità e varianze calcolate sui singoli gruppi (con ) risulta essere:

dove è la media totale delle unità, uguale alle medie parziali di ciascun gruppo con pesi uguali alle rispettive frequenze relative di gruppo . La prima sommatoria è la varianza within mentre la seconda è la varianza between; equivalentemente si può scrivere:

A loro volta, le medie parziali dei valori del -esimo gruppo sono date da:

Inoltre si ha che:

La varianza within è uguale alla media ponderata delle varianze parziali, calcolate in ogni gruppo. I pesi sono uguali alle loro frequenze relative.

La varianza between è uguale alla varianza ponderata delle medie parziali. I pesi sono uguali alle frequenze relative di gruppo.

Esempio di analisi della varianza semplice

[modifica | modifica wikitesto]

In questo esempio abbiamo gruppi di uguale numerosità (per semplificare l'esempio), con , indicati con e unità statistiche (cioè il numero di osservazioni sperimentali totali).

Il modello prevede che

con che indica il gruppo e .

L'ipotesi nulla prevede che:

  • i valori osservati derivino da una distribuzione gaussiana;
  • con stessa media e stessa varianza ;
  • sia uguale per tutti i gruppi (e pertanto nullo).

I dati osservati nei quattro gruppi sono:

j A B C D
1 0,72 0,75 0,68 0,78
2 0,69 0,85 0,70 0,86
3 0,71 0,82 0,67 0,87
4 0,70 0,80 0,65 0,84
5 0,68 0,88 0,70 0,85

Siano adesso:

  • : la somma degli scarti quadratici delle medie dei singoli gruppi () dalla media generale ;
  • : la somma degli scarti quadratici dei singoli valori rispetto alla media del gruppo a cui appartengono;
  • : la somma degli scarti quadratici di tutti singoli valori rispetto alla media generale .

Ovvero:

La variabile test diventa:

dove:

è il numero di gruppi (nel nostro esempio: );
la numerosità dei singoli gruppi (nel nostro caso per ogni gruppo);
, ovvero il numero complessivo di casi osservati (nel nostro caso ).

Nell'esempio si ottiene che:

e pertanto

Tale valore viene confrontato con i valori di una variabile casuale F di Snedecor con e gradi di libertà. Se si accetta una percentuale di falsi positivi del tale valore è:

Pertanto, essendo si rigetta l'ipotesi nulla che prevedeva l'assenza di effetti e si afferma che molto probabilmente almeno uno dei quattro gruppi è diverso dagli altri. Forse tutti i gruppi sono diversi uno dall'altro, forse solo uno di loro.

Un test (proposto per la prima volta da Ronald Fisher) permette di determinare la più piccola differenza significativa tra la media di due gruppi, confrontandoli uno a uno.

Tale differenza è:

Software statistico R

[modifica | modifica wikitesto]

Il calcolo dell'ANOVA con il software R si esegue in diversi modi: a seconda dei dati da analizzare. Prima di procedere nel calcolo vero e proprio è necessario verificare i seguenti assunti:

  1. Indipendenza dei punteggi osservati (se i soggetti sono tra loro indipendenti ci troviamo nell'opzione 'TRA CASI'; se l'assunto non è rispettato (ovvero si fanno più misurazioni agli stessi soggetti) siamo nell'opzione 'ENTRO CASI' che segue modalità di calcolo proprie);
  2. normalità della distribuzione;
  3. omoschedasticità (o omogeneità delle varianze);

Il secondo assunto può essere valutato in due modi:

  • test di normalità di Kolmogorov-Smirnov:
 >ks.test(x, pnorm, mean(x), sd(x))

dove:

  • x è la variabile di cui si vuole valutare la normalità;
  • mean(x) calcola la media di tale distribuzione;
  • sd(x) calcola la deviazione standard di tale distribuzione;
  • pnorm esegue il confronto tra la distribuzione e una distribuzione normale teorica con media=mean(x) e deviazione standard=sd(x).

Dell'output restituito si legge solo il p-value: deve essere maggiore o uguale a 0.05 (o ad un alpha prefissato). L'ipotesi nulla sostiene infatti che la distribuzione è normale;

  • test di normalità di Shapiro-Wilk:
 >shapiro.test(x)

questo comando richiede solo la variabile da analizzare. Stesso discorso di prima per l'output e le ipotesi del test.

Il terzo assunto, omogeneità delle varianze (ossia delle diverse varianze considerate suddivise in funzione dei livelli del fattore), viene così calcolato:

 >bartlett.test (y~A)

dove:

  • y è la variabile dipendente;
  • A è il fattore;

per quanto riguarda l'output è sufficiente leggere il p-value e assicurarsi che sia maggiore o uguale ad un livello alpha prefissato (di default è 0.05). L'ipotesi nulla sostiene infatti che tutte le varianze sono tra loro omogenee. Nel caso questo assunto non sia rispettato è necessario eseguire il calcolo dell'ANOVA con la correzione di Welch.

Verificati gli assunti si può procedere con l'ANOVA vera e propria.

Modello tra casi

[modifica | modifica wikitesto]

In questo caso è sufficiente utilizzare il seguente comando:

 >anova(lm(y~A))

la cui ipotesi nulla è che le diverse medie dei gruppi del fattore sono uguali.

Si noti che l'ipotesi alternativa sostiene che almeno una è diversa dalle altre, non necessariamente tutte diverse tra loro.

nel caso avessimo più fattori possiamo scrivere:

>anova(lm(y~A*B)) se vogliamo tenere conto delle interazioni tra diversi fattori 
>anova(lm(y~A+B)) se non vogliamo considerare l'interazione;

Modello entro casi

[modifica | modifica wikitesto]

In questo caso dobbiamo verificare i 3 assunti di prima più un quarto: l'assunto di sfericità (che sostiene che le covarianze siano omogenee). Per tale verifica:

 >mauchly.test(lm(y~x)~1, X=~1)

e si valuta il p-value: deve essere maggiore o uguale al livello di significatività imposto: l'ipotesi nulla è quella che sostiene la sfericità. nel caso non sia verificato si esegue il calcolo con la correzione di Greenhouse-Geisser

nel caso in cui tale assunto è verificato basta inserire il comando:

 >summary(aov(y~A))

e si osserva il p-value: anche qui l'ipotesi nulla depone a favore dell'uguaglianza tra le medie.

  • Zani S.; Analisi dei dati statistici, vol. I; 1994; Giuffrè editore; Milano
  • Gili A., Frosini B.V., Zanardi G. e Zenga M.; Variability and concentration, in: Italian contribution to the metodology of statistic; 1987; Cleup; Padova
  • Brasini S., Tassinari F., Tassinari G.; Marketing e pubblicità; 1993; Il Mulino; Bologna
  • Rao C.R.; Diversity: its measurement, decomposition, apportionment and analysis; 1982; Sankhya vol. 44 serie A pagg 1-12

Voci correlate

[modifica | modifica wikitesto]

Altri progetti

[modifica | modifica wikitesto]
Controllo di autoritàJ9U (ENHE987007294737605171
  Portale Statistica: accedi alle voci di Wikipedia che trattano di statistica