Probabilità condizionata

Da Wikipedia, l'enciclopedia libera.

In teoria della probabilità la probabilità condizionata di un evento A rispetto a un evento B è la probabilità che si verifichi A, sapendo che B è verificato. Questa probabilità, indicata P(A|B) o P_B(A), esprime una "correzione" delle aspettative per A, dettata dall'osservazione di B. (Ha senso solo se B ha una probabilità non nulla di verificarsi.)

Esempio[modifica | modifica sorgente]

Per esempio, la probabilità di ottenere "4" con il lancio di un dado a sei facce (evento A) ha probabilità P(A)=1/6 di verificarsi. Sapendo però che il risultato del lancio è un numero tra "4", "5" e "6" (evento B), la probabilità di A diventa

P(A|B)=\frac{P(A\cap B)}{P(B)} = \frac{P(A) + P(B) - P(A\cup B)}{P(B)} = \frac{1/6 + 3/6 - 3/6}{3/6}  = 1/3.

Si consideri questo secondo esempio, la probabilità di ottenere "1" con il lancio di un comune dado (evento A) ha probabilità P(A)=1/6 di verificarsi. Sapendo però che il risultato del lancio è un numero tra "4", "5" e "6" (evento B), la probabilità di A diventa

P(A|B)=\frac{P(A\cap B)}{P(B)} = \frac{P(A) + P(B) - P(A\cup B)}{P(B)} = \frac{1/6 + 3/6 - 4/6}{3/6}  = 0 .

Definizione[modifica | modifica sorgente]

La probabilità di A condizionata da B è

P(A|B)=P_B(A)=\frac{P(A\cap B)}{P(B)},

dove P(A\cap B) è la probabilità congiunta dei due eventi, ovvero la probabilità che si verifichino entrambi.

In termini più rigorosi, dato uno spazio misurabile (\Omega,\mathcal{A}) di misura P, ogni evento B eredita una struttura di spazio misurato (B,\mathcal{A}_B,P), restringendo gli insiemi misurabili a quelli contenuti in B, ed induce una nuova misura P'_B(A)=P(A\cap B) su (\Omega,\mathcal{A}), con P'_B(\Omega)=P(B). Se (\Omega,\mathcal{A},P) è uno spazio probabilizzato (P(\Omega)=1) e B non è trascurabile (P(B)\neq0), allora riscalando P'_B a \textstyle P_B=\frac{1}{P(B)}P'_B si ottiene lo spazio probabilizzato \textstyle(\Omega,\mathcal{A},P_B) delle probabilità condizionate da B.

Proprietà[modifica | modifica sorgente]

La formula della probabilità condizionata permette di descrivere la probabilità congiunta come

P(A\cap B)=P(A|B)P(B)

Ovvero, la probabilità che si verifichino sia A che B è pari alla probabilità che si verifichi B moltiplicata per la probabilità che si verifichi A supponendo che B sia verificato.

Due eventi A e B sono indipendenti quando vale una delle tre equazioni equivalenti

  • P(A\cap B)=P(A)P(B);
  • P(A|B)=P(A);
  • P(B|A)=P(B).

Casi particolari[modifica | modifica sorgente]

Se A e B sono eventi disgiunti, cioè se A\cap B=\emptyset, le loro probabilità condizionate sono nulle: sapendo che uno dei due eventi si è verificato, è impossibile che si sia verificato anche l'altro.

Se l'evento A implica l'evento B, cioè se A\subset B, allora la loro intersezione è A, per cui P(A\cap B)=P(A) e:

  • P(B|A)=\frac{P(A)}{P(A)}=1 (A implica B);
  • \textstyle P(A|B)=\frac{P(A)}{P(B)} (B è necessario per A).

Nel caso di una misura di probabilità uniforme su uno spazio Ω finito, questa formula per P(A|B) esprime la definizione classica di probabilità come "casi favorevoli (A) su casi possibili (B)".
Invece, per P(B|A) otteniamo il valore 1 che, per un numero finito di valori lo stesso Bayes interpretò in senso lato come la certezza che il tutto. sia condizionato dalla parte.

Ulteriori definizioni[modifica | modifica sorgente]

La speranza condizionata E[X|B] di una variabile aleatoria X ad un evento B è la speranza di X calcolata sulle probabilità P_B (condizionate da B).

La probabilità di un evento A può essere condizionata da una variabile aleatoria discreta X, originando una nuova variabile aleatoria, Y=P(A|X), che per X=x assume il valore Y=P(A|x).

Applicazioni[modifica | modifica sorgente]

Il teorema di Bayes esprime l'uguaglianza simmetrica P(A|B)P(B)=P(B|A)P(A) del teorema della probabilità composta come

\textstyle P(A|B)=P(B|A)\frac{P(A)}{P(B)}.

Questo teorema è alla base dell'inferenza bayesiana in statistica, dove P è detta "probabilità a priori di B" e PB "probabilità a posteriori di 'B".

Paradossi[modifica | modifica sorgente]

Molti paradossi sono legati alla probabilità condizionata e derivano sia da un'errata formulazione del problema sia dalla confusione di P(A|B) con P(A) o con P(B|A).

Esempi particolari sono il paradosso delle due buste, il paradosso dei due bambini, il problema di Monty Hall e il paradosso di Simpson.

Voci correlate[modifica | modifica sorgente]

Bibliografia[modifica | modifica sorgente]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica