Distribuzione Beta

Da Wikipedia, l'enciclopedia libera.
Distribuzione \Beta(\alpha,\beta)
Funzione di densità di probabilità
Funzione di densità di probabilità
Funzione di ripartizione
Funzione di ripartizione
Parametri \alpha,\beta>0\
Supporto [0,1]\
Funzione di densità \frac{x^{\alpha-1}(1-x)^{\beta-1}}{\Beta(\alpha,\beta)}
Funzione di ripartizione I_x(\alpha,\beta)\
(funzione Beta incompleta regolarizzata)
Valore atteso \frac{\alpha}{\alpha+\beta}
Mediana
Moda \frac{\alpha-1}{\alpha+\beta-2} se \alpha,\beta>1\


0\ se \alpha<1\ e \beta\geqslant1
1\ se \alpha\geqslant1 e \beta<1\

Varianza \frac{\alpha\beta}{(\alpha+\beta)^2(\alpha+\beta+1)}
Indice di asimmetria 2\frac{\beta-\alpha}{\alpha+\beta+2}\sqrt{\frac{\alpha+\beta+1}{\alpha\beta}}
Curtosi
Entropia
Funzione generatrice dei momenti 1  +\sum_{k=1}^{\infty} \left( \prod_{r=0}^{k-1} \frac{\alpha+r}{\alpha+\beta+r} \right) \frac{t^k}{k!}
Funzione caratteristica {}_1F_1(\alpha; \alpha+\beta; i\,t)

In teoria delle probabilità e in statistica la distribuzione \Beta (Beta) è una distribuzione di probabilità continua definita da due parametri \alpha e \beta sull'intervallo unitario [0,1].

Questa distribuzione trova particolare utilizzo nella statistica bayesiana perché governa la probabilità p di un processo di Bernoulli a posteriori dell'osservazione di \alpha-1 "successi" e \beta-1 "fallimenti", quando p è a priori distribuita uniformemente tra 0 e 1.

Definizione[modifica | modifica wikitesto]

La distribuzione Beta di parametri (\alpha,\beta) (entrambi positivi) è definita sull'intervallo [0,1] con funzione di densità di probabilità

f(x)=\frac{x^{\alpha-1}(1-x)^{\beta-1}}{\Beta(\alpha,\beta)}.

In altri termini la funzione di densità di probabilità è proporzionale alla funzione

x^{\alpha-1}(1-x)^{\beta-1},

riscalata per un fattore dato dalla funzione Beta

\Beta(\alpha,\beta)=\int_0^1x^{\alpha-1}(1-x)^{\beta-1}dx;

in questo modo ha probabilità totale P([0,1])=1.

La sua funzione di ripartizione è la funzione Beta incompleta regolarizzata

F(x)=I_x(\alpha,\beta)=\frac{\Beta_x(\alpha,\beta)}{\Beta(\alpha,\beta)}=\frac{\int_0^xt^{\alpha-1}(1-t)^{\beta-1}dt}{\int_0^1t^{\alpha-1}(1-t)^{\beta-1}dt}.

Caratteristiche[modifica | modifica wikitesto]

I momenti semplici di una variabile aleatoria X con distribuzione Beta di parametri (\alpha,\beta) sono

\mu_k=E[X^k]=\frac{\int_0^1x^{\alpha+k-1}(1-x)^{\beta-1}dx}{\int_0^1x^{\alpha-1}(1-x)^{\beta-1}dx}=\frac{\Beta(\alpha+k,\beta)}{\Beta(\alpha,\beta)}=\frac{(\alpha)_k}{(\alpha+\beta)_k},

dove x_k indica il fattoriale crescente con k fattori, (x)_k=x(x+1)\cdots(x+k-1). (L'ultima uguaglianza può essere dedotta dall'espressione della funzione Beta attraverso la funzione Gamma, \Beta(\alpha,\beta)=\Gamma(\alpha)\Gamma(\beta)/\Gamma(\alpha+\beta) e dalla proprietà \Gamma(x+1)=x\Gamma(x).)

I momenti semplici soddisfano quindi la relazione ricorsiva

\mu_{k+1}=\frac{\alpha+k}{\alpha+\beta+k}\mu_k.

Inoltre la distribuzione ha:

I parametri \alpha e \beta possono essere determinati univocamente dalla speranza e dalla varianza:

\alpha=E[X]\left(\frac{E[X](1-E[X])}{\text{Var}(X)}-1\right);
\beta=(1-E[X])\left(\frac{E[X](1-E[X])}{\text{Var}(X)}-1\right).

Queste formule vengono applicate nel metodo dei momenti con la media e la varianza osservate su un campione.

L'entropia è

H(X)=\log\Beta(\alpha,\beta)-(\alpha-1)\digamma(\alpha)-(\beta-1)\digamma(\beta)+(\alpha+\beta-2)\digamma(\alpha+\beta),

dove \digamma è la funzione digamma.

La moda della distribuzione dipende dai segni di \alpha-1 e \beta-1, ed è unica solo se almeno uno dei due è positivo:

se \alpha>1 e \beta>1 allora la moda è \frac{\alpha-1}{\alpha+\beta-2};
se \alpha>1 (o \alpha=1) e \beta<1 allora la moda è 1;
se \beta>1 (o \beta=1) e \alpha<1 allora la moda è 0.

(La funzione di densità di probabilità ha un asintoto in 0 se \alpha<1, in 1 se \beta<1.)

Relazioni con altre distribuzioni[modifica | modifica wikitesto]

Una distribuzione Beta può essere definita su un qualunque intervallo [a,b], prendendo Y=a+(b-a)X.

Se X segue la distribuzione Beta di parametri (\alpha,\beta) allora 1-X segue la distribuzione Beta di parametri (\beta,\alpha).

  • Per \alpha=\beta=\tfrac{3}{2} la densità di probabilità f(x)=\sqrt{x(1-x)} della distribuzione Beta descrive la metà superiore di una circonferenza: (2f(x))^2+(2x-1)^2=1, descrive un semicerchio. La variabile aleatoria Y=r(2X-1) segue una distribuzione di Wigner di parametro r.
  • Se X e Y sono due variabili aleatorie indipendenti con distribuzioni Gamma di rispettivi parametri (\alpha,\theta) e (\beta,\theta), allora la variabile aleatoria \tfrac{X}{X+Y} segue la distribuzione Beta di parametri (\alpha,\beta).
  • Se la variabile aleatoria X segue la distribuzione Beta di parametri (\alpha,\beta) allora la variabile aleatoria T=\tfrac{X}{1-X} è descritta dalla distribuzione Beta del secondo tipo, che ha funzione di densità di probabilità
f(t)=\frac{x^{\alpha-1}/(1-x)^{\alpha+\beta}}{\Beta(\alpha,\beta)}
  • La distribuzione di Wilks \Lambda(p,m,n) può essere interpretata come la distribuzione che governa il prodotto X_1\cdots X_n di n variabili aleatorie indipendenti X_1,...,X_n con rispettivi parametri (\tfrac{m+1-p}{2},\tfrac{p}{2}),...,(\tfrac{m+n-p}{2},\tfrac{p}{2}).

Statistica bayesiana[modifica | modifica wikitesto]

La distribuzione Beta e il processo di Bernoulli[modifica | modifica wikitesto]

Se X è distribuita come una v.c. binomiale con parametri n e π

f(x|\pi)=Binom(x|n;\pi)

e il parametro π è distribuito a priori come una v.c. Beta con i parametri a e b

g(\pi)=Beta(\pi|a;b)

allora il parametro π è distribuito a posteriori anch'esso come una v.c. Beta, ma con parametri a+x e b+n-x

g(\pi|x)=Beta(\pi|a+x;b+n-x)

Qualora la distribuzione a priori sia una variabile casuale rettangolare nell'intervallo [0;1] (ovvero ipotizzando a priori tutti i possibili valori di π equiprobabili), e pertanto a=1 e b=1, allora la distribuzione a posteriori è una Beta con parametri x+1 e n-x+1

g(\pi|x)=(n+1) {n \choose x} \pi^x (1-\pi)^{n-x}

che ha come valore modale p (e dunque come valore più probabile)

p=\frac{x}{n}, che corrisponde alla frequenza osservata che è la stima usata in ambito frequentistico

mentre il valore che minimizza lo scarto quadratico, ovvero la media è

p=\frac{x+1}{n+2}, che per x<n/2 è maggiore del valore modale \frac{x}{n}


Infatti, la probabilità di ottenere \alpha-1 successi e \beta-1 fallimenti in un processo di Bernoulli di parametro p è \tbinom{\alpha+\beta-2}{\alpha-1\,,\,\beta-1}p^{\alpha-1}(1-p)^{\beta-1}, proporzionale alla densità f(p) della distribuzione Beta di parametri (\alpha,\beta).

Pertanto, se la variabile aleatoria S segue una distribuzione binomiale \mathcal{B}(P,\alpha+\beta-2) con parametro aleatorio P distribuito a priori uniformemente sull'intervallo unitario [0,1], a posteriori dell'osservazione S=\alpha-1 il parametro P segue la distribuzione \Beta(\alpha,\beta).

Più in generale, se S è una variabile aleatoria con distribuzione binomiale \mathcal{B}(P,n) e il parametro P segue a priori la distribuzione \Beta(\alpha,\beta), allora a posteriori dell'osservazione S=s il parametro P segue la distribuzione \Beta(\alpha+s,\beta+n-s).

Il caso della distribuzione uniforme a priori è un caso particolare di quest'ultimo, essendo \Beta(1,1)=\mathcal{U}(0,1).

Priori coniugati e la v.c. binomiale negativa[modifica | modifica wikitesto]

Se X è distribuita come una v.c. binomiale negativa con parametri m e θ

f(x|\theta)=BinNeg(x|m;\theta)

e il parametro θ è distribuito a priori come una v.c. Beta con i parametri a e b

g(\theta)=Beta(\theta|a;b)

allora il parametro θ è distribuito a posteriori anch'esso come una v.c. Beta, ma con parametri a+m e b+x

g(\theta|x)=Beta(\theta|a+m;b+x)

Qualora la distribuzione a priori sia una variabile casuale rettangolare nell'intervallo [0;1] (ovvero ipotizzando a priori tutti i possibilii valori di θ equiprobabili), e pertanto a=1 e b=1, allora la distribuzione a posteriori è una Beta con parametri m+1 e x+1

che ha come valore modale t (e dunque come valore più probabile)

t=m/(m+x)

Similmente, se la variabile aleatoria T segue la distribuzione di Pascal \mathcal{NB}(P,n) e P segue a priori la distribuzione \Beta(\alpha,\beta), allora a posteriori dell'osservazione T=t il parametro P segue la distribuzione \Beta(\alpha+n,\beta+t).

Voci correlate[modifica | modifica wikitesto]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica