Distribuzione ![{\displaystyle \mathrm {B} (\alpha ,\beta )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1fea4d61abd27c28412c65add2f028b57b17fb12) |
---|
Funzione di densità di probabilità
|
Funzione di ripartizione
|
Parametri |
|
---|
Supporto |
|
---|
Funzione di densità |
|
---|
Funzione di ripartizione | ![{\displaystyle I_{x}(\alpha ,\beta )\ }](https://wikimedia.org/api/rest_v1/media/math/render/svg/3d3675f23867b6886a5acc43f767ef6438d50e18) (funzione Beta incompleta regolarizzata)
|
---|
Valore atteso |
|
---|
Moda | se
se e
se e
|
---|
Varianza |
|
---|
Indice di asimmetria |
|
---|
Funzione generatrice dei momenti |
|
---|
Funzione caratteristica |
|
---|
Manuale |
In teoria delle probabilità e in statistica, la distribuzione
(Beta) è una distribuzione di probabilità continua definita da due parametri
e
sull'intervallo unitario
.
Questa distribuzione nasce in modo molto naturale nella inferenza bayesiana, perché governa la probabilità
di un processo di Bernoulli a posteriori dell'osservazione di
"successi" e
"fallimenti", quando
è a priori distribuita uniformemente tra
e
.
La distribuzione Beta di parametri
(entrambi positivi) è definita sull'intervallo
con funzione di densità di probabilità
.
In altri termini la funzione di densità di probabilità è proporzionale alla funzione
,
riscalata per un fattore dato dalla funzione Beta
;
in questo modo ha probabilità totale
.
La sua funzione di ripartizione è la funzione Beta incompleta regolarizzata
.
I momenti semplici di una variabile aleatoria
con distribuzione Beta di parametri
sono
,
dove
indica il fattoriale crescente con k fattori,
.
(L'ultima uguaglianza può essere dedotta dall'espressione della funzione Beta attraverso la funzione Gamma,
e dalla proprietà
.)
I momenti semplici soddisfano quindi la relazione ricorsiva
.
In particolare, la distribuzione ha:
- valore atteso
;
- varianza
;
- indice di asimmetria
;
- indice di curtosi
.
Invertendo le relazioni qui sopra, che forniscono il valore atteso e la varianza in funzione dei parametri
e
, possiamo esprimere univocamente i suddetti parametri in termini del valore atteso e della varianza:
;
.
Queste formule vengono applicate nel metodo dei momenti, con la media e la varianza osservate su un campione.
L'entropia è
,
dove
è la funzione digamma.
La moda della distribuzione dipende dai segni di
e
, ed è unica solo se almeno uno dei due è positivo:
- se
e
allora la moda è
;
- se
(o
) e
allora la moda è 1;
- se
(o
) e
allora la moda è 0.
(La funzione di densità di probabilità ha un asintoto in 0 se
, in 1 se
.)
Una distribuzione Beta può essere definita su un qualunque intervallo
, costruendo una nuova variabile casuale
.
Se
segue la distribuzione Beta di parametri
allora
segue la distribuzione Beta di parametri
.
- La distribuzione di Dirichlet è una generalizzazione della distribuzione Beta: essa descrive la distribuzione a posteriori dei parametri di una distribuzione multinomiale a posteriori, appunto, di un'osservazione. La distribuzione di Dirichlet con due parametri è esattamente la distribuzione Beta.
- Per
la densità di probabilità del tipo Beta
è, in termini geometrici, la metà superiore di una circonferenza:
, descrive un semicerchio. La variabile aleatoria
segue una distribuzione di Wigner di parametro r.
- Se
e
sono due variabili aleatorie indipendenti con distribuzioni Gamma di rispettivi parametri
e
, allora la variabile aleatoria
segue la distribuzione Beta di parametri
.
- Se la variabile aleatoria
segue la distribuzione Beta di parametri
allora la variabile aleatoria
è descritta dalla distribuzione Beta del secondo tipo, che ha funzione di densità di probabilità
![{\displaystyle f(t)={\frac {x^{\alpha -1}/(1-x)^{\alpha +\beta }}{\mathrm {B} (\alpha ,\beta )}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1533800593131534ff605f9099003a755c80243c)
- La distribuzione di Wilks
può essere interpretata come la distribuzione che governa il prodotto
di n variabili aleatorie indipendenti
con rispettivi parametri
.
- Se
è una variabile aleatoria con distribuzione di Kumaraswamy di parametri
allora
segue la distribuzione Beta di parametri
.
E' immediato dimostrare che, se X è distribuita come una v.c. binomiale
con parametri n e π
![{\displaystyle f(x|\pi )=Binom(x|n;\pi )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a32da453ea32f21ef5528bbdc3f322bdd853264c)
e il parametro π è distribuito a priori come una v.c. Beta con i parametri a e b
![{\displaystyle g(\pi )=Beta(\pi |a;b)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/62b0f28cb5a055101f7eeeee9607f92438f0aa67)
allora il parametro π è distribuito a posteriori, anch'esso, come una v.c. Beta, ma con parametri a+x e b+n-x
![{\displaystyle g(\pi |x)=Beta(\pi |a+x;b+n-x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8bf362fc6f3721c384f929662c84ffb4187a07da)
Come detto in precedenza, qualora il parametro π sia distribuito a priori come una variabile casuale rettangolare nell'intervallo [0;1] (ovvero ipotizzando a priori tutti i possibili valori di π equiprobabili), e pertanto a=1 e b=1, allora la distribuzione a posteriori del parametro π è una Beta con parametri x+1 e n-x+1
![{\displaystyle g(\pi |x)=(n+1){n \choose x}\pi ^{x}(1-\pi )^{n-x}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/15fc1f5fb5f8689a4c9bbf83f5aa8ab2342dc652)
essa ha come valore modale p
, che corrisponde alla stima usata in ambito frequentistico, mentre il valore atteso o media, è
, che per x<n/2 è maggiore del valore modale
. Il valore atteso minimizza lo scarto quadratico.
Infatti, la probabilità di ottenere
successi e
fallimenti in un processo di Bernoulli di parametro p è
, proporzionale alla densità
della distribuzione Beta di parametri
.
Pertanto, come detto sopra, se la variabile aleatoria
segue una distribuzione binomiale
con parametro aleatorio P distribuito a priori uniformemente sull'intervallo unitario
, a posteriori dell'osservazione
il parametro P segue la distribuzione
.
Più in generale, se
è una variabile aleatoria con distribuzione binomiale
e il parametro P segue a priori la distribuzione
, allora a posteriori dell'osservazione
il parametro P segue la distribuzione
.
Il caso della distribuzione uniforme a priori è un caso particolare di quest'ultimo, essendo
.
Se X è distribuita come una v.c. binomiale negativa
con parametri m e θ
![{\displaystyle f(x|\theta )=BinNeg(x|m;\theta )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ff69928e72523378c6188e763e3353318f48f8df)
e il parametro θ è distribuito a priori come una v.c. Beta con i parametri a e b
![{\displaystyle g(\theta )=Beta(\theta |a;b)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e3147ea61eef734331f8de0d3a83f51a83c3aadc)
allora il parametro θ è distribuito a posteriori anch'esso come una v.c. Beta, ma con parametri a+m e b+x
![{\displaystyle g(\theta |x)=Beta(\theta |a+m;b+x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/13467e23766078ee52d34eb2742068fc0dc2a3c5)
Qualora la distribuzione a priori sia una variabile casuale rettangolare nell'intervallo [0;1] (ovvero ipotizzando a priori tutti i possibili valori di θ equiprobabili), e pertanto a=1 e b=1, allora la distribuzione a posteriori è una Beta con parametri m+1 e x+1
che ha come valore modale t
- t=m/(m+x)
Similmente, se la variabile aleatoria
segue la distribuzione di Pascal
e P segue a priori la distribuzione
, allora a posteriori dell'osservazione
il parametro P segue la distribuzione
.