Fallacia del tasso di base

Da Wikipedia, l'enciclopedia libera.
Jump to navigation Jump to search

La fallacia del tasso di base, chiamato anche ignoranza del tasso di base o bias del tasso di base, è una fallacia statistica. Quando si presentano informazioni relative al tasso di base di incidenza generale di una particolare malattia/condizione/stato insieme a informazioni specifiche (cioè informazioni relative a uno specifica indagine/campionamento), lle persone tendono a ignorare il tasso di incidenza di base a favore delle informazioni legate alle situazioni specifiche, piuttosto che integrare correttamente le due.[1]

Paradosso dei falsi positivi[modifica | modifica wikitesto]

Un esempio della fallacia del tasso di base è quanto le persone siano sorprese dal paradosso dei falsi positivi: si tratta di situazioni in cui ci sono più risultati di test falsi positivi che veri positivi, sebbene lo strumento di testing abbia una accuratezza anche piuttosto elevata. Ad esempio, potrebbe essere che su 1.000 persone testate per un'infezione, 50 di loro risultano positive a un certo test, ma ciò è dovuto al fatto che 10 tra queste persone sono realmente malate e 40 sono falsi positivi. Si potrebbe erroneamente pensare che dunque il test non sia affidabile. Tuttavia, la probabilità di un risultato positivo del test è determinata non solo dall'accuratezza del test, ma anche dalle caratteristiche della popolazione campionata.[2] Quando la proporzione di coloro che hanno una determinata condizione, è inferiore al tasso di falsi positivi del test, anche i test che hanno una probabilità molto bassa di dare un falso positivo in un singolo caso daranno più falsi positivi che veri positivi nel complesso.[3] Il paradosso sorprende la maggior parte delle persone.[4]

Questo paradosso è particolarmente contro-intuitivo quando si interpreta un risultato positivo in un test su una popolazione molto piccola in percentuale dopo aver lavorato con numerosi risultati positivi tratti da una popolazione molto numerosa in percentuale.[3] Se il tasso di falsi positivi del test è superiore alla proporzione della nuova popolazione con la condizione, un amministratore del test, la cui esperienza è basata su frequenti indagini condotte in una popolazione ad alta prevalenza, può arrivare a concludere dall'esperienza che un risultato positivo del test di solito indica un soggetto positivo, quando in realtà è molto più probabile che si sia verificato un falso positivo.

Esempi[modifica | modifica wikitesto]

Esempio 1: Test di verifica di positività a una certa malattia[modifica | modifica wikitesto]

Popolazione ad alta incidenza[modifica | modifica wikitesto]

Numero
delle persone
Infetto Non infetto Totale
Test positivo 400 (vero positivo) 30 (falso positivo) 430
Test negativo 0 (falso negativo) 570 (vero negativo) 570
Totale 400 600 1000

Immaginiamo di eseguire un test per una malattia infettiva su una popolazione A di 1000 persone, di cui il 40% è infetto. Il test ha un tasso di falsi positivi del 5% (0,05) e nessun tasso di falsi negativi. Il risultato atteso dei 1000 test sulla popolazione A sarebbe:

Persone infette con il test che indica la positività (vero positivo)
1000 × 40/100 = 400 persone sono effettivamente malate e con test positivo
Persone non infette con test erroneamente positivo (falso positivo)
1000 × 100 – 40/100 × 0.05 = 30 persone
I restanti 570 test sono correttamente negativi.

Così, nella popolazione A, una persona che riceve un test positivo potrebbe essere oltre il 93% fiducioso (400/30 + 400) di avere ricevuto una diagnosi di infezione corretta.

Popolazione a bassa incidenza[modifica | modifica wikitesto]

Numero delle persone Infetto Non infetto Totale
Test positivo 20 (vero positivo) 49 (falso positivo) 69
Test negativo 0 (falso negativo) 931 (vero negativo) 931
Totale 20 980 1000

Consideriamo ora lo stesso test applicato alla popolazione B, in cui solo il 2% è infetto. Il risultato atteso di 1000 test sulla popolazione B sarebbe:

Infetto con test positivo (vero positivo)
1000 × 2/100 = 20 persone sono veri positivi
Non infetto con test che indica la malattia (falso positivo)
1000 × 100 – 2/100 × 0.05 = 49 persone ricevono una diagnosi errata
I restanti 931 (= 1000 - (49 + 20)) test sono correttamente negativi.

Nella popolazione B, solo 20 delle 69 persone totali con un risultato positivo del test sono effettivamente infette. Quindi, la probabilità di essere effettivamente infettato dopo aver avuto un risultato positivo al test è solo il 29% (20/20 + 49) nonostante il test sia "accurato al 95%".

Un tester con esperienza di situazioni come quelle nel gruppo A potrebbe trovare un paradosso che nel gruppo B, un test che di solito aveva indicato correttamente l'infezione ora risulti piena di falsi positivi. La confusione della probabilità a posteriori di infezione con la probabilità a priori di ricevere un falso positivo è un errore piuttosto comune quando si riceve un risultato di un test per un disturbo pericoloso per la salute.

Esempio 2: Conducenti ubriachi[modifica | modifica wikitesto]

Un gruppo di agenti di polizia ha un etilometro che rileva falsa ubriachezza nel 5% dei casi in cui l'autista è sobrio. Tuttavia, gli etilometri non mancano mai di rilevare una persona veramente ubriaca. Un guidatore su mille guida ubriaco. Supponiamo che gli agenti di polizia fermino un guidatore a caso per somministrare un test dell'etilometro. Il test indica che l'autista è ubriaco. Diamo per scontato che tu non sappia nient'altro sulla persona testata. Qual è la probabilità che sia davvero ubriaco?

Molti risponderebbero fino al 95%, ma la probabilità corretta è di circa il 2%.

Una spiegazione è la seguente: in media, per ogni 1.000 conducenti testati,

  • 1 guidatore è ubriaco ed è sicuro al 100% che per quel guidatore c'è un vero risultato positivo del test, quindi c'è 1 vero risultato positivo del test
  • 999 conducenti non sono ubriachi e tra questi conducenti ci sono il 5% di falsi positivi, quindi ci sono 49,95 risultati falsi positivi

Pertanto, la probabilità che uno dei conducenti tra i 1 + 49,95 = 50,95 risultati positivi del test sia davvero ubriaco è .

La validità di questo risultato, tuttavia, dipende dalla validità del presupposto iniziale che l'agente di polizia abbia fermato l'autista veramente a caso, e non a causa di una cattiva guida. Se questo o un altro motivo non arbitrario per fermare il conducente era presente, il calcolo andrebbe rifatto includendo la probabilità che un guidatore ubriaco guidi con competenza e la probabilità che un guidatore non ubriaco guidi con (in)-competenza.

Più formalmente, la stessa probabilità di circa 0,02 può essere stabilita utilizzando il teorema di Bayes. L'obiettivo è trovare la probabilità che il conducente sia ubriaco dato che l'etilometro ha indicato di essere ubriaco, che può essere rappresentato come

dove D significa che l'etilometro indica che il conducente è davvero ubriaco. Il teorema di Bayes ci dice che

Ci è stato detto quanto segue nel primo paragrafo:

e

Come puoi vedere dalla formula, è necessario valorizzare p ( D ) per il teorema di Bayes, che si può calcolare dai valori precedenti usando la legge della probabilità totale:

che dà

Inserendo questi numeri nel teorema di Bayes, si trova che

Esempio 3: Identificazione di un terrorista[modifica | modifica wikitesto]

Supponiamo che in una città di 1 milione di abitanti ci siano 100 terroristi e 999.900 non terroristi. Per semplificare l'esempio, si ipotizza che tutte le persone presenti in città siano abitanti. Pertanto, la probabilità di base che un abitante della città selezionato a caso sia un terrorista è 0,0001 e la probabilità di base che lo stesso abitante sia un non terrorista è 0,9999. Nel tentativo di catturare i terroristi, la città installa un sistema di allarme con una telecamera di sorveglianza e un software di riconoscimento facciale automatico.

Il software ha due tassi di errore dell'1%:

  • Il tasso di falsi negativi: se la telecamera scansiona un terrorista, l'allarme suonerà il 99% delle volte e non suonerà l'1% delle volte.
  • Il tasso di falsi positivi: se la telecamera scansiona un non terrorista, l'allarme non suonerà il 99% delle volte, ma suonerà l'1% delle volte.

Supponiamo ora che un abitante faccia scattare l'allarme. Qual è la possibilità che la persona sia un terrorista? In altre parole, qual è P (T | B), la probabilità che un terrorista sia stato scoperto dato il suono dell'allarme? Uno che commette la "fallacia del tasso di base" dedurrebbe che esiste una probabilità del 99% che la persona rilevata sia un terrorista. Sebbene l'inferenza sembri avere senso, in realtà si tratta di un ragionamento errato. I calcoli seguenti mostrano che le chance che la persona sia un terrorista sono effettivamente vicine all'1%, non al 99%.

L'errore deriva dal confondere la natura di due diversi tassi di fallimento. Il "numero di non-terroristi per 100 terroristi" e il "numero di non-terroristi per 100 allarmi" sono quantità indipendenti. Uno non è necessariamente uguale all'altro e non devono nemmeno essere vicini come valore, come nel nostro esempio. Per dimostrarlo, considera cosa accade se un sistema di allarme identico fosse installato in una seconda città senza terroristi. Come nella prima città, l'allarme suona per 1 su 100 abitanti non-terroristi rilevati, ma a differenza della prima città, l'allarme non suona mai per un terrorista. Pertanto, il 100% di tutte le occasioni in cui suona l'allarme sono per i non-terroristi, ma non è nemmeno possibile calcolare un tasso di falsi negativi. Il "numero di non terroristi per 100 campane" in quella città è 100, ma P (T | B) = 0%. Non ci sono possibilità che un terrorista sia stato scoperto dato il suono dell'allarme.

Immagina che l'intera popolazione della prima città di un milione di persone passi davanti alla telecamera. Circa 99 dei 100 terroristi faranno scattare l'allarme, e così faranno circa 9.999 dei 999.900 non terroristi. Saranno quindi circa 10.098 le persone a far scattare l'allarme, tra le quali circa 99 saranno terroristi. Quindi, la probabilità che una persona che fa scattare l'allarme sia effettivamente un terrorista, è solo di circa 99 su 10.098, che è inferiore all'1% e molto, molto inferiore alla nostra stima iniziale del 99%.

L'errore del tasso di base è così fuorviante in questo esempio perché ci sono molti più non terroristi che terroristi e il numero di falsi positivi (non-terroristi scansionati come terroristi) è molto maggiore dei veri positivi (il numero reale di terroristi).

Risultati in psicologia[modifica | modifica wikitesto]

Negli esperimenti, si è scoperto che le persone preferiscono informazioni più specifiche rispetto alle informazioni generali quando le prime sono disponibili.[5][6][7]

In alcuni esperimenti, agli studenti è stato chiesto di stimare le medie dei voti (GPA) di studenti ipotetici. Quando venivano fornite statistiche rilevanti sulla distribuzione del GPA, gli studenti tendevano a ignorarle se si fornivano informazioni descrittive sullo studente in particolare, anche se le nuove informazioni descrittive erano ovviamente di scarsa o nessuna rilevanza per il rendimento scolastico.[6] Questa scoperta è stata utilizzata per sostenere che i colloqui sono una parte non necessaria del processo di ammissione all'università perché gli intervistatori non sono in grado di scegliere i candidati idonei meglio delle statistiche di base.

Gli psicologi Daniel Kahneman e Amos Tversky hanno tentato di spiegare questa scoperta in termini di una semplice regola o "euristica" chiamata rappresentatività . Hanno sostenuto che molti giudizi relativi alla probabilità, o causa ed effetto, si basano su quanto una cosa sia rappresentativa di un'altra, o di una categoria.[6] Kahneman considera la negligenza del tasso di base una forma specifica di negligenza dell'estensione.[8] Richard Nisbett ha sostenuto che alcuni pregiudizi di attribuzione come l'errore fondamentale di attribuzione sono esempi dell'errore del tasso di base: le persone non usano le "informazioni di consenso" (il "tasso di base") su come gli altri si sono comportati in situazioni simili e preferiscono invece attribuzioni disposizionali più semplici.[9]

Vi è un notevole dibattito in psicologia sulle condizioni in cui le persone utilizzano o meno le informazioni sul tasso di base.[10][11] I ricercatori del programma euristiche-e-pregiudizi hanno sottolineato i risultati empirici che mostrano che le persone tendono a ignorare i tassi di base e fare inferenze che violano alcune norme del ragionamento probabilistico, come il teorema di Bayes. La conclusione tratta da questa linea di ricerca è stata che il pensiero probabilistico umano è fondamentalmente difettoso e soggetto a errori.[12] Altri ricercatori hanno sottolineato il legame tra processi cognitivi e formati di informazioni, sostenendo che tali conclusioni non sono generalmente giustificate.[13][14]

Considera di nuovo l'esempio 2 di cui sopra. L'inferenza richiesta è stimare la probabilità (posteriore) che un guidatore (scelto a caso) sia ubriaco, dato che il test dell'etilometro è positivo. Formalmente, questa probabilità può essere calcolata utilizzando il teorema di Bayes, come mostrato sopra. Tuttavia, esistono diversi modi per presentare le informazioni rilevanti. Considera la seguente variante formalmente equivalente del problema:

1 guidatore su 1000 guida ubriaco. Gli etilometri non mancano mai di rilevare una persona veramente ubriaca. Per 50 dei 999 conducenti che non sono ubriachi, l'etilometro mostra falsamente ubriachezza. Supponiamo che i poliziotti fermino un guidatore a caso e lo costringano a fare un test dell'etilometro. Il test indica che è ubriaco. Diamo per scontato che tu non sappia nient'altro su di lui. Qual è la probabilità che sia davvero ubriaco?

In questo caso, le informazioni numeriche rilevanti - p (ubriaco), p ( D | ubriaco), p ( D | sobrio), sono presentate in termini di frequenze naturali rispetto a una certa classe di riferimento (vedi problema della classe di riferimento). Studi empirici mostrano che le inferenze delle persone corrispondono più strettamente alla regola di Bayes quando le informazioni sono presentate in questo modo, aiutando a superare la trascuratezza di base dei non addetti ai lavori e degli esperti.[15] Di conseguenza, organizzazioni come la Cochrane Collaboration consigliano di utilizzare questo tipo di formato per la comunicazione delle statistiche sulla salute.[16] Insegnare alle persone a tradurre questo tipo di problemi di ragionamento bayesiano in formati di frequenza naturale è più efficace che insegnare loro semplicemente a collegare le probabilità (o percentuali) nel teorema di Bayes.[17] È stato anche dimostrato che le rappresentazioni grafiche delle frequenze naturali (ad esempio, file di icone) aiutano le persone a fare inferenze migliori.[18][19]

Perché i formati di frequenza naturale sono utili? Una ragione importante è che questo formato di informazioni facilita l'inferenza richiesta perché semplifica i calcoli necessari. Questo può essere visto quando si utilizza un modo alternativo di calcolare la probabilità richiesta p (ubriaco | D ):

dove N (ubriaco ∩ D ) indica il numero di conducenti che sono ubriachi e ottengono un risultato positivo all'etilometro, e N ( D ) indica il numero totale di casi con un risultato positivo dell'etilometro. L'equivalenza di questa equazione con la precedente segue dagli assiomi della teoria della probabilità, secondo la quale N (ubriaco ∩ D ) = N × p ( D | ubriaco) × p (ubriaco). È importante sottolineare che, sebbene questa equazione sia formalmente equivalente alla regola di Bayes, non è psicologicamente equivalente. L'uso di frequenze naturali semplifica l'inferenza perché l'operazione matematica richiesta può essere eseguita su numeri naturali, invece di frazioni normalizzate (cioè, probabilità), perché rende più trasparente l'alto numero di falsi positivi e perché le frequenze naturali mostrano esplicitamente una "struttura con insiemi innestati".[20][21]

Non tutti i formati di frequenza facilitano il ragionamento bayesiano.[21][22] Le frequenze naturali si riferiscono alle informazioni sulla frequenza che risultano dal campionamento naturale,[23] che preserva le informazioni sul tasso di base (ad esempio, il numero di conducenti ubriachi quando si prende un campione casuale di conducenti). Questo è diverso dal campionamento sistematico, in cui i tassi di base sono fissati a priori (ad esempio, negli esperimenti scientifici). In quest'ultimo caso non è possibile inferire la probabilità a posteriori p (ubriaco | test positivo) confrontando il numero di conducenti ubriachi e risultando positivi rispetto al numero totale di persone che ottengono un risultato positivo dell'etilometro, perché le informazioni sul tasso di base non sono preservate e devono essere reintrodotte esplicitamente usando il teorema di Bayes.

Note[modifica | modifica wikitesto]

  1. ^ fallacyfiles.org, http://www.fallacyfiles.org/baserate.html.
  2. ^ M. H. Rheinfurth e L. W. Howell, Probability and Statistics in Aerospace Engineering (PDF), NASA, March 1998, p. 16.
    «MESSAGE: False positive tests are more probable than true positive tests when the overall population has a low prevalence of the disease. This is called the false-positive paradox.».
  3. ^ a b H. L. Vacher, Quantitative literacy - drug testing, cancer screening, and the identification of igneous rocks, in Journal of Geoscience Education, May 2003, p. 2.
    «At first glance, this seems perverse: the less the students as a whole use steroids, the more likely a student identified as a user will be a non-user. This has been called the False Positive Paradox».
    - Citing: L. Gonick e W. Smith, The cartoon guide to statistics, New York, Harper Collins, 1993, p. 49.
  4. ^ B. L. Madison, Mathematical Proficiency for Citizenship, in Schoenfeld (a cura di), Assessing Mathematical Proficiency, Mathematical Sciences Research Institute Publications, Newª ed., Cambridge University Press, August 2007, p. 122, ISBN 978-0-521-69766-8.
    «The correct [probability estimate...] is surprising to many; hence, the term paradox.
  5. ^ Maya Bar-Hillel, The base-rate fallacy in probability judgments (PDF), in Acta Psychologica, vol. 44, n. 3, 1980, pp. 211–233, DOI:10.1016/0001-6918(80)90046-3.
  6. ^ a b c Daniel Kahneman e Amos Tversky, On the psychology of prediction, in Psychological Review, vol. 80, n. 4, 1973, pp. 237–251, DOI:10.1037/h0034747.
  7. ^ Daniel Kahneman e Amos Tversky, Evidential impact of base rates, in Daniel Kahneman, Paul Slovic & Amos Tversky (a cura di), Judgment under uncertainty: Heuristics and biases, Science, vol. 185, 1985, pp. 153–160, DOI:10.1126/science.185.4157.1124.
  8. ^ Daniel Kahneman, Evaluation by moments, past and future, in Daniel Kahneman and Amos Tversky (a cura di), Choices, Values and Frames, 2000.
  9. ^ Richard E. Nisbett, E. Borgida e R. Crandall, Popular induction: Information is not always informative, in J. S. Carroll & J. W. Payne (a cura di), Cognition and social behavior, vol. 2, 1976, pp. 227–236.
  10. ^ J. J. Koehler, The base rate fallacy reconsidered: Descriptive, normative, and methodological challenges, in Behavioral and Brain Sciences, vol. 19, 2010, pp. 1–17, DOI:10.1017/S0140525X00041157.
  11. ^ A. K. Barbey e S. A. Sloman, Base-rate respect: From ecological rationality to dual processes, in Behavioral and Brain Sciences, vol. 30, n. 3, 2007, pp. 241–254; discussion 255–297, DOI:10.1017/S0140525X07001653, PMID 17963533.
  12. ^ A. Tversky e D. Kahneman, Judgment under Uncertainty: Heuristics and Biases, in Science, vol. 185, n. 4157, 1974, pp. 1124–1131, Bibcode:1974Sci...185.1124T, DOI:10.1126/science.185.4157.1124, PMID 17835457.
  13. ^ Leda Cosmides e John Tooby, Are humans good intuitive statisticians after all? Rethinking some conclusions of the literature on judgment under uncertainty, in Cognition, vol. 58, 1996, pp. 1–73, DOI:10.1016/0010-0277(95)00664-8.
  14. ^ G. Gigerenzer e U. Hoffrage, How to improve Bayesian reasoning without instruction: Frequency formats, in Psychological Review, vol. 102, n. 4, 1995, p. 684, DOI:10.1037/0033-295X.102.4.684.
  15. ^ U. Hoffrage, S. Lindsey e R. Hertwig, Medicine: Communicating Statistical Information, in Science, vol. 290, n. 5500, 2000, pp. 2261–2262, DOI:10.1126/science.290.5500.2261, PMID 11188724.
  16. ^ E. A. Akl, A. D. Oxman e J. Herrin, Using alternative statistical formats for presenting risks and risk reductions, in The Cochrane Database of Systematic Reviews, n. 3, 2011, pp. CD006776, DOI:10.1002/14651858.CD006776.pub2, PMID 21412897.
  17. ^ P. Sedlmeier e G. Gigerenzer, Teaching Bayesian reasoning in less than two hours, in Journal of Experimental Psychology: General, vol. 130, n. 3, 2001, p. 380, DOI:10.1037/0096-3445.130.3.380.
  18. ^ G. L. Brase, Pictorial representations in statistical reasoning, in Applied Cognitive Psychology, vol. 23, n. 3, 2009, pp. 369–381, DOI:10.1002/acp.1460.
  19. ^ A. Edwards, G. Elwyn e A. Mulley, Explaining risks: Turning numerical data into meaningful pictures, in BMJ, vol. 324, n. 7341, 2002, pp. 827–830, DOI:10.1136/bmj.324.7341.827, PMID 11934777.
  20. ^ V. Girotto e M. Gonzalez, Solving probabilistic and statistical problems: A matter of information structure and question form, in Cognition, vol. 78, n. 3, 2001, pp. 247–276, DOI:10.1016/S0010-0277(00)00133-5, PMID 11124351.
  21. ^ a b U. Hoffrage, G. Gigerenzer e S. Krauss, Representation facilitates reasoning: What natural frequencies are and what they are not, in Cognition, vol. 84, n. 3, 2002, pp. 343–352, DOI:10.1016/S0010-0277(02)00050-1, PMID 12044739.
  22. ^ G. Gigerenzer e U. Hoffrage, Overcoming difficulties in Bayesian reasoning: A reply to Lewis and Keren (1999) and Mellers and McGraw (1999), in Psychological Review, vol. 106, n. 2, 1999, pp. 425, DOI:10.1037/0033-295X.106.2.425.
  23. ^ G. D. Kleiter, Natural Sampling: Rationality without Base Rates, in Contributions to Mathematical Psychology, Psychometrics, and Methodology, Recent Research in Psychology, 1994, pp. 375–388, DOI:10.1007/978-1-4612-4308-3_27, ISBN 978-0-387-94169-1.

Voci correlate[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]