Falso negativo

Da Wikipedia, l'enciclopedia libera.
(Reindirizzamento da Errore di secondo tipo)
Jump to navigation Jump to search

Spiegazione intuitiva (senza l'uso dell'ipotesi nulla)[modifica | modifica wikitesto]

In statistica il falso negativo, analogo all'errore di secondo tipo, è il risultato di un test che porta erroneamente a rifiutare l'ipotesi sulla quale esso è stato condotto. Da notare che la tabella sotto può indurre in confusione a causa dell'utilizzo dell'ipotesi nulla (H0); l'ipotesi nulla è opposta all'ipotesi. Come si vede dalla tabella ipotesi nulla vera significa che il test è negativo.

Più in generale, in qualunque ambito in cui si presenti una decisione predittiva binaria (vero o falso), un falso negativo indica che è stato erroneamente segnalata come assente una caratteristica che in realtà è presente. Un esempio in informatica è un filtro antispam che lasci erroneamente passare una lettera indesiderata.

L'altro possibile errore è quello di primo tipo, che genera un falso positivo.

Spiegazione mediante l'uso dell'ipotesi nulla[modifica | modifica wikitesto]

Tabella dei tipi di errore L'ipotesi nulla (H0) è
Vera Falsa
La decisione

circa l'ipotesi nulla (H0) è

Non rigettata Inferenza corretta

(vero negativo)

Errore di tipo 2

(Falso Negativo)

Rigettata Errore di tipo 1

(Falso Positivo)

Inferenza corretta

(Vero Positivo)

Altri termini[modifica | modifica wikitesto]

In medicina e in statistica viene analizzata la capacità di un test di riconoscere l'ipotesi quando è valida, dai punti di vista inferenziale e probabilistico.

In medicina, i falsi negativi possono fornire un messaggio falsamente rassicurante ai pazienti e ai medici che la malattia sia assente quando invece è presente. Questo a volte porta a un trattamento inadeguato sia del paziente che della sua malattia. Un esempio comune è quello di affidarsi a test di stress cardiaco per rilevare l'aterosclerosi coronarica, sebbene i test di stress cardiaco siano noti solo per rilevare i limiti del flusso sanguigno arterioso coronarico a causa di stenosi avanzata.

I falsi negativi producono problemi gravi e controintuitivi, specialmente quando si cerca la condizione. Se un test con una percentuale di falsi negativi di solo il 10% viene utilizzato per testare una popolazione con un tasso di occorrenza reale del 70%, molti dei negativi rilevati dal test saranno falsi. I falsi positivi possono anche produrre problemi gravi e controintuitivi quando viene cercata la condizione, come nello screening. Se un test ha un tasso di falsi positivi di uno su diecimila, ma solo uno su un milione di campioni (o persone) è positivo, la maggior parte dei positivi rilevati da quel test sarà falsa. La probabilità che un risultato positivo osservato sia un falso positivo può essere calcolata usando il teorema di Bayes.[1] La sensibilità di un test è la frequenza con la quale il test fornisce risultati corretti su soggetti malati.

Sensibilità = Veri positivi / Totale malati = Veri positivi / (Veri positivi + Falsi negativi)

In statistica la significatività di un test è la probabilità di commettere un errore di primo tipo quando l'ipotesi H0 è valida, ovvero la probabilità che della popolazione che verifica l'ipotesi venga scelto un campione casuale all'interno della regione di rifiuto:

Aumentando la regione di accettazione e diminuendo la regione di rifiuto, l'ipotesi verrà accettata "più spesso", quindi si potranno verificare più errori del primo tipo ma meno errori del secondo tipo (la linea verticale nel diagramma si sposta verso destra), e viceversa.

Spesso viene scelta come H0 una precisa legge di probabilità in mezzo ad altre, e questo rende possibile calcolare α; in genere non è invece possibile calcolare esattamente la probabilità β di compiere un errore di secondo tipo quando l'ipotesi viene accettata. Poiché α cambia in funzione della regione di rifiuto, quest'ultima viene spesso modificata per adattarsi al valore α richiesto.

Esempio[modifica | modifica wikitesto]

Un test per verificare se una moneta è equilibrata può essere condotto lanciando 10 volte la moneta e ritenendola equilibrata se fornisce un numero di teste compreso tra 3 e 7.

La moneta segue una legge di Bernoulli B(p), l'ipotesi nulla è H0={p=1/2} e il numero di teste su 10 lanci è un processo di Bernoulli B(p,10). La probabilità che una variabile aleatoria X di legge B(p,10) non verifichi 3≤X≤7 è (circa)

Per poco probabile che sia, quindi, circa una volta ogni dieci una moneta equilibrata fornirà una sequenza di 10 lanci che cadono nella regione di rifiuto e il test rifiuterà a torto l'ipotesi "moneta equilibrata", commettendo un errore del primo tipo.

Senza conoscere la distribuzione (e la legge) di tutte le possibili monete, equilibrate e non, non è invece possibile calcolare la probabilità che il test consideri equilibrata una moneta che non lo è, commettendo un errore del secondo tipo.

Note[modifica | modifica wikitesto]

  1. ^ (EN) Type I and type II errors, in Wikipedia, 7 maggio 2018. URL consultato il 15 maggio 2018.

Voci correlate[modifica | modifica wikitesto]