Distribuzione beta-binomiale

Da Wikipedia, l'enciclopedia libera.

In teoria delle probabilità la distribuzione casuale beta-binomiale è una famiglia di distribuzioni di probabilità discrete che può essere vista come generalizzazione della distribuzione binomiale. Descrive la distribuzione del numero di successi su n esperimenti indipendenti di tipo sì/no, ma, contrariamente alla distribuzione Binomiale, la probabilità di successo non è un parametro fisso π, ma è un valore distribuito come una variabile casuale Beta B(a,b). Si tratta infatti di una mistura di Binomiale in cui il parametro π ha distribuzione Beta.

La distribuzione beta-binomiale dipende da tre parametri: n, a, b.

Definizione[modifica | modifica sorgente]

Se X~BeB(n,a,b) è una variabile casuale distribuita come una v.c. beta-binomiale con i parametri n, a, b allora per x \ge 0

P(X=x) = C {n \choose x} \Gamma(a+x) \Gamma(b+n-x)

dove la costante C è data da

C = \frac{\Gamma(a+b)}{\Gamma(a) \Gamma(b) \Gamma (a+b+n)}

e \Gamma( ) è la funzione gamma.

Un modo alternativo per descrivere la BeB(n,a,b) è dato da

P(X=x) = {n \choose x} \frac{\Beta(a+x , b+n-x)}{\Beta (a, b)}

dove \Beta( ) è la funzione beta.

Caratteristiche[modifica | modifica sorgente]

Il valore atteso dipende da tutti e tre i parametri

E(X) = n \frac{a}{a+b}

così come pure la varianza

Var(X) = n \frac{a b}{(a+b)^2} \frac{a+b+n}{a+b+1}

l'assimetria viene indicata con

(a + b + 2 n)\frac{b-a}{a+b+2} \sqrt{\frac{1+a+b}{n a b (n+a+b)}}
=(a + b + 2 n)\frac{b-a}{a+b+2}\ \frac{1}{a+b} \sqrt{\frac{1}{Var(X)}}


Utilizzando la notazione p=\frac{a}{a+b} il valore atteso e la varianza possono essere descritti in una forma che ricorda quella della v.c. binomiale.

E(X) = n \frac{a}{a+b} = n p
Var(X) = n \frac{a b}{(a+b)^2} \frac{a+b+n}{a+b+1} = n p (1-p)  \frac{a+b+n}{a+b+1}

dalla quale si nota che a parità di valore atteso (ed n) la v.c. beta-binomiale ha sempre una varianza maggiore della v.c. binomiale.

e l'assimitria viene indicata con

\frac{1-2p}{\sqrt{Var(X)}} \frac{a + b + 2 n}{a + b + 2}
= \frac{1-2p}{\sqrt{n p (1-p)}} \frac{a + b + 2 n}{a + b + 2} \sqrt{\frac{a + b + 1}{a + b + n}}

e così anche in questo caso diventa evidente come l'assimetria della beta-binomiale sia sempre maggiore dell'assimetria della binomiale, a parità valore atteso (ed n).

Casi particolari[modifica | modifica sorgente]

Nel caso che a=1 e b=1, allora si tratta di una variabile casuale uniforme discreta con P(X=x)=1/(n+1) essendoci n+1 valori possibili.

Ambiti di applicazione[modifica | modifica sorgente]

La v.c. beta-binomiale è idonea a descrivere fenomeni solitamente descritti dalla v.c. binomiale, qualora però la probabilità vari.

Un possibile caso è quello di prevedere quante lampadine si fulmino entro 1 anno dall'installazione sapendo che la probabilità che si fulmino non è uguale per tutte, ma riesce ad essere descritta da una v.c. Beta.

Analogamente, qualora ci si trovi di fronte ad un modello che dovrebbe essere descritto da una v.c. binomiale, ma dove i dati mostrano una distribuzione molto "larga", allora si può sospettare che la probabilità degli eventi non sia costante, ma vari attorno ad un valore come nel modello beta-binomiale.

Esempi[modifica | modifica sorgente]

Probabilità di estrarre X palline rosse da un'urna della quale si conosce solo approssimativamente la composizione[modifica | modifica sorgente]

Un modello[modifica | modifica sorgente]

Nell'ambito dell'inferenza bayesiana, da un'urna della quale si ignora il numero di palline presenti ma che da estrazioni precedenti risulta che vi siano una percentuale di palline rosse che varia come una v.c. Beta(a,b), dovranno essere estratte (e ogni volta renserite) n palline. Ci si chiede quale sia la probabilità che x di queste siano rosse. La risposta sta nella v.c. BetaB(n,a,b)

Esempio numerico[modifica | modifica sorgente]

Partendo da un concetto di completa ignoranza che ci porta a descrivere la distribuzione a priori come una v.c. uniforme continua e dunque come una Beta(1,1) vengono estratte 15 palline, delle quali solo una è rossa. In questo modo la probabilità a posteriori diventa una v.c. Beta(1+1,1+14)=Beta(2,15).

A questo punto si decide di fare una ulteriore estrazione di 40 palline e ci si chiede quale sia la probabilità che esattamente due di queste siano rosse.

Essendo in questa seconda estrazione la probabilità P(X=x) quella di una v.c. BetaB(40,2,15) si ottiene che

P(X=2 | n=40, a=2, b=15) = C {40 \choose 2} \Gamma(2+2) \Gamma(15+40-2)

dove

C = \frac{\Gamma(2+15)}{\Gamma(2) \Gamma(15) \Gamma (2+15+40)}

ed essendo {40 \choose 2} =  780 e inoltre essendo in generale \Gamma(k) = (k-1)! e pertanto

\Gamma(2) = 1
\Gamma(4) = 6
\Gamma(15) = 14!
\Gamma(17) = 16!
\Gamma(53) = 52!
\Gamma(57) = 56!


si ottiene

P(X=2 | n=40, a=2, b=15) = \frac{16!}{1 \ 14! \ 56!} (780 \ 6 \ 52!) =
= 780 \ 6 \ \frac{16!}{14!} \ \frac{54!}{56!} = \frac{780}{53} \  \frac{6}{54} \  \frac{15}{55} \ \frac{16}{56} =
 = \frac{260}{53}  \  \frac{2}{77} = 0,12741975 = 12,74%
Le due v.c. usate nell'esempio


Questo risultato è diverso da quello che si sarebbe ottenuto utilizzando come probabilità di successo la stima puntuale, vale a dire la semplice proporzione ottenuta nella prima serie di estrazioni (1/15 = 6,67%) e applicando per la seconda la v.c. binomiale B(n=40,p=1/15). In questo caso si sarebbe ottenuto P(X=2 | n=40, p=1/15) = 25,19%.

Il grafico mette in evidenza il fatto che la v.c. B(n=40,p=1/15) è molto più "stretta" della BetaB(40,2,15), ciò è dovuto al fatto che nell'approccio bayesiano non ci si "dimentica" che vi è una incertezza su quale sia la vera proporzione di palline rosse e questa incertezza rende probabili anche valori più "distanti".

Scelta bayesiana tra due modelli: Estrazione da un'urna: determinare a quale urna nota corrisponda un'urna[modifica | modifica sorgente]

  • Di un'urna si sa che una percentuale ignota di palline sono rosse.
  • Si sa che l'urna è o l'urna A oppure l'urna B.
  • Dall'urna A sono state estratte in passato 10 palline, delle quali 2 rosse (dunque il 20%),
  • mentre dall'urna B in passato su 15 palline estratte 10 erano rosse (pari al 67%).
  • Nulla fa pensare che l'urna in questione sia l'urna A piuttosto che l'urna B.
  • Né dell'urna A, né dell'urna B si conosce il numero complessivo di palline.
  • dall'urna in questione vengono estratte 50 palline, delle quali 12 sono rosse (il 24%).

Domande

  • qual è la probabilità che l'urna in questione sia l'urna A?
  • qual è la distribuzione a posteriori della percentuale di palline rosse?
  • qual è la probabilità che dall'urna in questione alla prossima estrazione di 10 palline, neanche una volta esca una rossa?

Nell'ambito dell'inferenza bayesiana si può dire pertanto che

  • la probabilità a priori che l'urna in questione sia l'urna A è pari a P(U=A)=1/2 e di conseguenza P(U=B)=1-P(U=A)=1/2
  • per l'urna A, grazie all'estrazione di 10 palline, delle quali 2 rosse, la distribuzione a posteriori della percentuale di palline rosse è una v.c. Beta Beta(a_A=1+2,b_A=1+10-2), nel caso che la distribuzione a priori sia una rettangolare, equivalente ad una Beta(1,1)
  • analogamente per l'urna B, la distribuzione a posteriori è una Beta(a_B=1+10,b_B=1+15-10)

Per procedere è necessario fare ricorso alla v.c. beta-binomiale, infatti sapendo che su 50 palline estratte 12 sono rosse, si può calcolare la probabilità P(U=A|X=12,n=50) che si tratti dell'urna A, nel seguente modo

P(U=A|X=x,n)=\frac{P(U=A) BetaB(X=x,n,a_A,b_A)}{P(U=A) BetaB(X=x,n,a_A,b_A) + P(U=B) BetaB(X=x,n,a_B,b_B)}

che grazie al fatto che P(U=B)=1-P(U=A)=1/2=P(U=A) si semplifica ottenendo

P(U=A|X=x,n)=\frac{ BetaB(X=x,n,a_A,b_A)}{ BetaB(X=x,n,a_A,b_A) + BetaB(X=x,n,a_B,b_B)}

tenuto conto dei valori dell'esempio, si calcola

BetaB(X=12,n=50,a_A=2,b_A=9) = 0,04499198
BetaB(X=12,n=50,a_B=11,b_B=6) = 0,0007276656
P(U=A|X=12,n=50)=\frac{ 0,04499198}{0,04499198 + 0,0007276656 }=\frac{ 0,04499198}{0.04571965 } = 0,984084 = 98,4%

ciò vuol dire che la probabilità che l'urna in questione sia l'urna A è del 98,4%. Questo risultato è comprensibile, visto che il 24% dell'urna ignota è molto più prossimo al 20% dell'urna A che non al 67% dell'urna B.

Tenuto conto delle prime due estrazioni (quando le urne erano note) e l'estrazione dall'urna della quale si era perso il nome, e del fatto che al 98,4% l'urna in questione è l'urna A, ma che c'è pur sempre una probabilità del 1,6% che si tratti dell'urna B, la percentuale di palline rosse in questa urna della quale non si sa quale delle due sia viene descritta dalla mistura delle due v.c. Beta(n,a=a_i,b=b_i) (con i=A,B) ponderate con le probabilità P(U=i|X=x,n).

Una volta nota tale mistura di v.c. è possibile calcolare la probabilità che alla prossima estrazione di 10 palline neanche una sia rossa. Par fare ciò è necessario fare ricorso a tecniche di calcolo numerico.

Collegamenti esterni[modifica | modifica sorgente]

Bibliografia[modifica | modifica sorgente]

  • Leonhard Held, "Methoden der statistischen Inferenz. Likelihood und Bayes", con la collaborazione di Daniel Sabanés Bové, Spektrum Akademischer Verlag Heidelberg 2008, ISBN 978-3-8274-1939-2
  • Jim Albert, "Bayesian Computation With R", Springer New York, 2009, ISBN 978-0-387-92297-3 [1]