Indipendenza stocastica

Da Wikipedia, l'enciclopedia libera.
Se riscontri problemi nella visualizzazione dei caratteri, clicca qui.

Nell'ambito del calcolo delle probabilità, l'indipendenza stocastica di due eventi A e B si ha quando il verificarsi di uno non modifica la probabilità di verificarsi dell'altro, ovvero quando la probabilità condizionata P(A | B) oppure P(B | A) è pari rispettivamente a P(A) e P(B)

P(A | B) = P(A)
P(B | A) = P(B)

queste due condizioni si possono sintetizzare con la formula

P(AB) = P(A) · P(B).

In altre parole, dire che due eventi sono indipendenti tra loro significa dire che il fatto di sapere che uno di essi si è verificato non modifica la valutazione di probabilità sul secondo. Per esempio, il fatto di ottenere "1" quando viene lanciato un dado ed il fatto di ottenere ancora un "1" la seconda volta che il dado viene lanciato, sono indipendenti.

Analogamente, quando si afferma che due variabili casuali X e Y definite sullo stesso spazio campionario H sono indipendenti si afferma che conoscere qualcosa riguardo al valore di una di esse non apporta alcuna informazione circa il valore dell'altra. Per esempio, il numero che appare sulla faccia superiore di un dado la prima volta che viene lanciato e il numero che appare la seconda volta sono indipendenti. Formalmente, questo si verifica quando per ogni coppia di eventi B, B' risulta

P(XBYB' ) = P(XB) · P (YB' )

Equivalentemente ciò si verifica se, detta F la funzione di ripartizione della variabile congiunta (X,Y) e fX, fY le due funzioni di ripartizione marginali, allora per ogni x,y vale che

F(x,y)=fX(x) · fY(y)

Condizioni analoghe si trovano per la funzione di densità di probabilità e la funzione di probabilità, se X è rispettivamente una variabile casuale continua o una variabile casuale discreta:

f(x,y)=fX(x)· fY(y)

e

p(x,y)=pX(x)· pY(y)

Generalizzazioni[modifica | modifica sorgente]

Nell'ambito della teoria della probabilità, la nozione di indipendenza stocastica può essere generalizzata ampiamente. Sia (\Omega,\mathfrak{F},\mathbb{P}) uno spazio di probabilità, e sia \{\mathfrak{F}_\alpha\}_{\alpha \in \mathcal{A}} una famiglia arbitraria (finita o non finita) di σ-algebre contenute in \mathfrak{F}: \mathfrak{F}_\alpha \subseteq \mathfrak{F}. Esse si dicono indipendenti rispetto a \mathbb{P} se, per ogni sottoinsieme finito \mathcal{I}=\{\alpha_1,\ldots,\alpha_n\} di \mathcal{A}, e per ogni sottoinsieme A_\alpha \in \mathfrak{F}_\alpha, accade:

\mathbb{P}\left(\cap_{\alpha \in \mathcal{I}} A_\alpha\right)=\prod_{\alpha \in \mathcal{I}} \mathbb{P}\left(A_\alpha\right).

Questa nozione si riduce alla precedente nel caso in cui la famiglia di σ-algebre sia formata da due soli elementi \mathfrak{F}_A e \mathfrak{F}_B, dove, dato un insieme misurabile E, \mathfrak{F}_E è la σ-algebra da esso generata: \mathfrak{F}_E=\{\emptyset, E, E^c, \Omega \}.

Questa estensione, ampiamente usata nella teoria dei processi stocastici, trova la sua motivazione nel fatto che l'indipendenza stocastica di una famiglia di σ-algebre, non è in generale equivalente all'indipendenza dei suoi elementi a due a due. Ad esempio, dati tre insiemi A, B, C, sapendo che A e B, A e C, B e C sono indipendenti, non se ne può dedurre che:

\mathbb{P}(A\cap B \cap C)=\mathbb{P}(A) \,\mathbb{P}(B)\,\mathbb{P}(C).

Voci correlate[modifica | modifica sorgente]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica