Falso positivo

Da Wikipedia, l'enciclopedia libera.
Ipotesi accettata rifiutata
valida
buona decisione
vero positivo
errore di secondo tipo:
falso negativo
sbagliata
errore di primo tipo:
falso positivo
buona decisione
vero negativo

In statistica il falso positivo è il risultato di un test che porta erroneamente ad accettare l'ipotesi sulla quale esso è stato condotto.

Più in generale, in qualunque ambito in cui si presenti una decisione predittiva binaria (positivo o negativo), un falso positivo indica la scelta a torto di "positivo", ovvero un falso allarme. Un esempio in informatica è un antivirus che considera erroneamente dannoso un programma innocuo.

In statistica questo errore del test è detto errore di primo tipo. L'altro possibile errore è quello di secondo tipo, che genera falsi negativi.

Altri termini[modifica | modifica wikitesto]

In medicina e in statistica viene analizzata la capacità di un test di evitare i falsi positivi, dai punti di vista inferenziale e probabilistico.

In medicina, dove solitamente viene ipotizzata una malattia, la specificità di un test misura la sua capacità di analizzare dei soggetti sani (ipotesi sbagliata), ovvero la frequenza con cui non vengano attribuiti falsi positivi; la predittività del test misura invece la validità dei risultati "positivi", ovvero la frequenza con cui sono veri.

Specificità = Veri negativi / Totale sani = Veri negativi / (Veri negativi + Falsi positivi)
Predittività = Veri positivi / Totale positivi = Veri positivi / (Veri positivi + Falsi positivi)

In statistica viene considerata, in maniera simile alla specificità, la probabilità che ha un test di commettere un errore di secondo tipo quando l'ipotesi H0 è sbagliata, ovvero la probabilità che della popolazione che non verifica l'ipotesi venga scelto un campione casuale all'interno della regione di accettazione: La probabilità di un test di compiere un errore (di secondo tipo) quando l'ipotesi nulla è falsa, è

Questa probabilità non è in genere calcolabile, a meno che l'ipotesi alternativa H1 indichi una precisa legge di probabilità.

Diminuendo la regione di accettazione e aumentando la regione di rifiuto, l'ipotesi nulla H0 verrà rifiutata "più spesso", quindi si potranno verificare più errori del secondo tipo ma meno errori del primo tipo (la linea verticale nel diagramma si sposta verso sinistra), e viceversa.

Esempio[modifica | modifica wikitesto]

Un test per verificare se una moneta ha una probabilità maggiore di fornire testa rispetto a croce può essere condotto lanciando 9 volte la moneta e ritenendola "sbilanciata" in favore di testa se questa esce almeno 5 volte. La moneta segue una legge di Bernoulli B(p), l'ipotesi nulla è H0={p>1/2} e il numero di teste su 10 lanci segue il processo di Bernoulli B(p,10).

Senza conoscere la distribuzione (e la legge) di tutte le possibili monete, equilibrate e non, non è invece possibile calcolare la probabilità che il test ritenga sbilanciata verso testa una moneta che non lo è, commettendo un errore del secondo tipo.

Supponendo invece di sapere che la moneta può solo essere di due tipi, con p=1/3 e p=2/3 (ovvero per le quali una faccia è due volte più probabile dell'altra), l'ipotesi nulla diventa H0={p>1/2}={p=2/3} e l'ipotesi alternativa H1={p≤1/2}={p=1/3}. In questo caso è possibile calcolare la probabilità che una variabile aleatoria X di legge B(1/3,10) verifichi X≥5 ovvero la probabilità di commettere un errore (del secondo tipo) quando l'ipotesi è falsa.

Per poco probabile che sia, quindi, circa una volta ogni sette una moneta che non verifica l'ipotesi sarà (a torto) positiva al test.

Voci correlate[modifica | modifica wikitesto]