Teorema di Bayes

Da Wikipedia, l'enciclopedia libera.

Il teorema di Bayes (conosciuto anche come formula di Bayes o teorema della probabilità delle cause), proposto da Thomas Bayes, deriva da due teoremi fondamentali delle probabilità: il teorema della probabilità composta e il teorema della probabilità assoluta. Viene impiegato per calcolare la probabilità di una causa che ha scatenato l'evento verificato. Per esempio si può calcolare la probabilità che una certa persona soffra della malattia per cui ha eseguito il test diagnostico (nel caso in cui questo sia risultato negativo) o viceversa non sia affetta da tale malattia (nel caso in cui il test sia risultato positivo), conoscendo la frequenza con cui si presenta la malattia e la percentuale di efficacia del test diagnostico. Formalmente il teorema di Bayes è valido in tutte le interpretazioni della probabilità. In ogni caso, l'importanza di questo teorema per la statistica è tale che la divisione tra le due scuole (statistica bayesiana e statistica frequentista) nasce dall'interpretazione che si dà al teorema stesso.

Enunciato del teorema di Bayes[modifica | modifica sorgente]

Considerando un insieme di alternative A_1,\ldots,A_n che partizionano lo spazio degli eventi \Omega (ossia \ A_i\cap A_j=\varnothing\ \forall i \neq j e \cup_{i=1}^n A_i=\Omega) si trova la seguente espressione per la probabilità condizionata:

P(A_i|E) = \frac{P(E | A_i) P(A_i)}{P(E)} = \frac{P(E | A_i) P(A_i)}{\sum_{j=1}^n P(E | A_j) P(A_j)}

Dove:

  • P(A) è la probabilità a priori o probabilità marginale di A. "A priori" significa che non tiene conto di nessuna informazione riguardo E.
  • P(A|E) è la probabilità condizionata di A, noto E. Viene anche chiamata probabilità a posteriori, visto che è derivata o dipende dallo specifico valore di E.
  • P(E|A) è la probabilità condizionata di E, noto A.
  • P(E) è la probabilità a priori di E, e funge da costante di normalizzazione.

Intuitivamente, il teorema descrive il modo in cui le opinioni nell'osservare A siano arricchite dall'aver osservato l'evento E.

Un esempio[modifica | modifica sorgente]

Si consideri una scuola che ha il 60% di studenti maschi e il 40% di studentesse femmine.
Le studentesse indossano in egual numero gonne o pantaloni; gli studenti indossano tutti quanti i pantaloni. Un osservatore, da lontano, nota un generico studente coi pantaloni. Qual è la probabilità che quello studente sia una femmina?

Il problema può essere risolto con il teorema di Bayes, ponendo l'evento A che lo studente osservato sia femmina, e l'evento B che lo studente osservato indossi i pantaloni. Per calcolare P(A|B), dovremo sapere:

  • P(A), ovvero la probabilità che lo studente sia femmina senza nessun'altra informazione. Dato che l'osservatore vede uno studente a caso, ciò significa che tutti gli studenti hanno la stessa probabilità di essere osservati. Essendo le studentesse il 40% del totale, la probabilità risulterà 2/5.
  • P(A'), ovvero la probabilità che lo studente sia maschio senza nessun'altra informazione. Essendo A' l'evento complementare di A, risulta 3/5.
  • P(B|A), ovvero la probabilità che uno studente indossi i pantaloni, noto che lo studente è femmina. Poiché indossano gonne e pantaloni in egual numero, la probabilità sarà di 1/2.
  • P(B|A'), ovvero la probabilità che uno studente indossi i pantaloni, noto che lo studente è maschio. Tutti gli studenti maschi indossano i pantaloni, quindi vale 1.
  • P(B), ovvero la probabilità che uno studente qualsiasi (maschio o femmina) indossi i pantaloni. Poiché il numero di coloro che indossa i pantaloni è di 80 (60 maschi + 20 femmine) su 100 studenti fra maschi e femmine, la probabilità P(B) è di 80/100 = 4/5.

Ciò detto, possiamo applicare il teorema:

P(A|B) = \frac{P(B|A) P(A)}{P(B)} = \frac{\frac{1}{2} \times \frac{2}{5}}{\frac{4}{5}} = \frac{1}{4}.

C'è pertanto 1/4 di probabilità che lo studente sia femmina cioè 25%.[1]

Derivazione del teorema[modifica | modifica sorgente]

Teorema di Bayes. Ω è lo spazio delle misure: A, non A, B, non B. Il grafico evidenzia tutte le possibilità condizionate.

Il teorema deriva dalla definizione di probabilità condizionata. La probabilità di un evento A, noto un evento B, risulta:

P(A|B)=\frac{P(A \cap B)}{P(B)}

In modo analogo, la probabilità di un evento B noto un evento A:

P(B|A) = \frac{P(A \cap B)}{P(A)}

Pertanto:

P(A \cap B) = P(B|A)\, P(A)

Sostituendo nella prima uguaglianza, si trova il teorema di Bayes:

P(A|B) = \frac{P(A \cap B)}{P(B)} = \frac{P(B|A)\,P(A)}{P(B)}.

Applicazioni[modifica | modifica sorgente]

Applicazione al Problema di Monty Hall[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Problema di Monty Hall.

Si supponga di partecipare a un gioco a premi, in cui si può scegliere fra tre porte: dietro una di esse c'è un'automobile, dietro le altre, due capre. Si sceglie una porta, diciamo la numero 1, e il conduttore del gioco a premi, che sa cosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3, rivelando una capra. Quindi domanda: «Vorresti scegliere la numero 2?» Ti conviene cambiare la tua scelta originale?

Si potrebbe pensare che, con due porte chiuse, si abbia una probabilità 50:50 per ognuna, e che quindi non ci sia motivo di cambiare porta. Non è questo il caso. Chiamiamo l'evento che la macchina si trovi dietro una certa porta rispettivamente A1, A2, e A3.

All'inizio, è ovvio che:

P(A_1) = P(A_2) = P(A_3) = \frac 1 3

Come detto prima, la porta scelta è la numero 1. Chiameremo allora B l'evento "il presentatore apre la porta 3". La sua probabilità a priori sarà del 50%, e quindi  P(B)= 1/2 . Ora:

  • Nel caso in cui la macchina sia dietro la porta 1, il presentatore sarà libero di scegliere la porta 2 o 3 casualmente. Pertanto, P(B|A_1) = 1/2
  • Nel caso in cui la macchina sia dietro la porta 2, il presentatore sarà obbligato ad aprire la porta 3. Pertanto P(B|A_2) = 1
  • Nel caso in cui la macchina sia dietro la porta 3, il presentatore sarà obbligato ad aprire la porta 2. Pertanto P(B|A_3) = 0

Da cui:


\begin{align}
P(A_1|B) & =  \frac{P(B | A_1) P(A_1)}{P(B)} =   \frac{\frac 1 2 \cdot \frac 1 3}{\frac 1 2} = \frac 1 3
\\
P(A_2|B) & =  \frac{P(B | A_2) P(A_2)}{P(B)} =   \frac{1 \cdot \frac 1 3}{\frac 1 2} = \frac 2 3
\\
P(A_3|B) & =  \frac{P(B | A_3) P(A_3)}{P(B)} =   \frac{0 \cdot \frac 1 3}{\frac 1 2} = 0.
\end{align}

Da ciò è evidente che si deve sempre cambiare con la porta 2.

Filtri bayesiani[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Filtro bayesiano.

I filtri bayesiani sono uno strumento utilizzato per combattere lo spam che deve il suo funzionamento proprio al teorema di Bayes. Un filtro bayesiano fa uso di un classificatore bayesiano per riconoscere se una certa sequenza di simboli (come una parola) si presenta spesso nei messaggi di spam, quindi applica l'inferenza bayesiana per calcolare la probabilità che un determinato messaggio sia spam.

Cenni storici[modifica | modifica sorgente]

Il teorema si chiama così in onore del reverendo Thomas Bayes (1702–1761), il quale studiò come calcolare una distribuzione per il parametro di una distribuzione binomiale. Un suo amico, Richard Price, pubblicò il lavoro nel 1763, dopo la morte di Bayes, nell'articolo Essay Towards Solving a Problem in the Doctrine of Chances. Alcuni anni dopo (nel 1774) viene formulato da Pierre Simon Laplace che probabilmente non era a conoscenza del lavoro di Bayes.

Una ricerca da parte di un professore di statistica (Stigler, 1982) sembrerebbe suggerire che il teorema di Bayes sia stato scoperto da Nicholas Saunderson anni prima di Bayes.

Note[modifica | modifica sorgente]

  1. ^ La verifica dell'esattezza del risultato, in questo semplice esempio, è immediata se si ricorre alla semplice definizione di "probabilità di un evento" = "numero dei casi favorevoli all'evento/numero dei casi possibili". Il numero dei casi possibili, indossando lo studente (o studentessa) osservato i pantaloni, è di 80 (60 maschi + 20 femmine) mentre quello dei casi favorevoli (cioè le femmine che indossano pantaloni) è 20, quindi la probabilità che si tratti di una femmina è 20/80 cioè 1/4 c.v.d.

Bibliografia[modifica | modifica sorgente]

Versioni saggistiche[modifica | modifica sorgente]

  • Thomas Bayes (1763), An Essay towards solving a Problem in the Doctrine of Chances. By the late Rev. Mr. Bayes, F. R. S. communicated by Mr. Price, in a letter to John Canton, A. M. F. R. S., Philosophical Transactions, Giving Some Account of the Present Undertakings, Studies and Labours of the Ingenious in Many Considerable Parts of the World, 53:370–418.
  • Thomas Bayes (1763/1958), Studies in the History of Probability and Statistics: IX. Thomas Bayes' Essay Towards Solving a Problem in the Doctrine of Chances, Biometrika 45:296–315. (Bayes' essay in modernized notation).

Commenti[modifica | modifica sorgente]

  • G. A. Barnard, Studies in the History of Probability and Statistics: IX. Thomas Bayes' Essay Towards Solving a Problem in the Doctrine of Chances, Biometrika 45:293–295, 1958
  • Daniel Covarrubias, An Essay Towards Solving a Problem in the Doctrine of Chances
  • Stephen M. Stigler, Thomas Bayes' Bayesian Inference, Journal of the Royal Statistical Society, Series A, 145:250–258, 1982
  • Isaac Todhunter, A History of the Mathematical Theory of Probability from the time of Pascal to that of Laplace, Macmillan, 1865. Ristampa 1949, 1956 by Chelsea e 2001 by Thoemmes.

Voci correlate[modifica | modifica sorgente]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica