Disuguaglianza di Markov

Da Wikipedia, l'enciclopedia libera.

In teoria della probabilità e statistica, la disuguaglianza di Markov afferma che, per una variabile casuale \ X non negativa il cui valore atteso esiste:

P\left(X\geq\alpha\right)\leq\frac{\mathbb{E}[X]}{\alpha}

Questa disuguaglianza permette di stabilire un limite superiore al valore di probabilità dalla sola conoscenza del valore atteso E[x], a condizione che la variabile casuale sia definita non negativa.

La disuguaglianza di Markov è anche utilizzata nella dimostrazione della disuguaglianza di Čebyšëv.

Dimostrazione[modifica | modifica wikitesto]

Si definiscano le variabili casuali X ed I come segue:

X: \Omega \rightarrow \mathbb{R}^+_0 con \Omega spazio campionario

\ I=\left\{
\begin{matrix}
1 & \iff & X\geq\alpha\\
0 & \iff & X<\alpha
\end{matrix}\right. \alpha \in \R^+

Chiaramente \forall \alpha vale la seguente diseguaglianza larga {\textstyle \ 0\leq I\leq\frac{X}{\alpha} }

Supponiamo inoltre che per la variabile aleatoria X \exist \mathbb{E}[X]

allora:

P\left(X\geq\alpha\right)= \mathbb{E}[I]
Il valore atteso è definito come somma di tutti i valori che la variabile aleatoria può assumere moltiplicati per la probabilità che tale variabile assuma effettivamente tali valori: nel nostro caso
\mathbb{E}[I] = 0 \cdot P(I=0) + 1 \cdot P(I=1)=P(I=1)
Ma ancora, la probabilità che I sia uguale a 1 è proprio la probabilità che X sia maggiore o uguale ad \alpha
\mathbb{E}[I]\leq\mathbb{E}\left[\frac{X}{\alpha}\right]
Il valore atteso mantiene la diseguaglianza degli argomenti poiché si tratta di una funzione non decrescente, in vista del fatto che gli argomenti sono variabili non negative. Basti pensare alla definizione di valore atteso, nel caso discreto e quello continuo, la quale genera serie a termini positivi in un caso, e integrali di funzioni positive nell'altro.
\mathbb{E}\left[\frac{X}{\alpha}\right] = \frac{\mathbb{E}[X]}{\alpha}
Per la linearità del valore atteso. Quindi si conclude che
P\left(X\geq\alpha\right)\leq\frac{\mathbb{E}[X]}{\alpha}

Diseguaglianza di Čebyšëv[modifica | modifica wikitesto]

Partendo dall'appena dimostrata diseguaglianza possiamo ottenere, come corollario, il seguente enunciato:

P(|X-\mathbb{E}[X]|\geq \gamma)\leq\frac{Var(X)}{\gamma^2}

con parametro \gamma positivo.

Per farlo definiamo una variabile aleatoria X: \Omega \rightarrow \mathbb{R}

e associamo ad essa la variabile aleatoria Y = (X-\mathbb{E}[X])^2

Così definita Y è una variabile aleatoria non negativa, pertanto applichiamo ad essa la diseguaglianza di Markov, ottenendo

P\left(Y\geq\gamma^2\right)\leq\frac{\mathbb{E}[Y]}{\gamma^2} = P\left((X-\mathbb{E}[X])^2\geq\gamma^2\right)\leq\frac{\mathbb{E}[(X-\mathbb{E}[X])^2]}{\gamma^2}

a destra otteniamo la definizione di Varianza {\textstyle Var(X) = \mathbb{E}[(X-\mathbb{E}[X])^2]}

e sapendo che in generale \forall x,\mu,\alpha vale quanto segue (x-\mu)^2\geq\alpha^2 \iff |x-\mu|\geq|\alpha|

otteniamo quanto si voleva dimostrare, ovvero

P(|X-\mathbb{E}[X]|\geq\gamma)\leq\frac{Var(X)}{\gamma^2}

che può anche essere riscritta ponendo il parametro t=\frac{\gamma}{\sqrt{Var(X)}}

P(|X-\mathbb{E}[X]|\geq t \sqrt{Var(X)})\leq\frac{1}{t^2}

possiamo inoltre semplificare la scrittura usando, anziché la Varianza, lo strumento statistico della deviazione standard, definito proprio come sua radice.

P(|X-\mathbb{E}[X]|\geq t \sigma)\leq\frac{1}{t^2}

Legge debole dei grandi numeri[modifica | modifica wikitesto]

La diseguaglianza di Čebyšëv, viene inoltre utilizzata nella famosa legge dei grandi numeri, di cui qui verrà dimostrata il suo enunciato cosiddetto "debole". L'enunciato è il seguente:

Consideriamo una popolazione di N elementi di variabili aleatorie indipendenti tutte di valore atteso \mu e varianza \sigma^{2}.

\{X_n\}_{n \in \mathbb{N},
\ n\leq N } \subset \mathbb{R}

\mathbb{E}[X_n] = \mu, \ \forall n

Var(X_n)=\sigma^2, \ \forall n

E definendo lo stimatore del valor medio \bar{X}_N = \frac{1}{N}\sum_{n=1}^{N} X_n si ha

\forall \epsilon \in \mathbb{R}^+ \lim_{N\rightarrow\infty} P(|\bar{X}_N-\mu|\leq\epsilon)=1

Il che vuol dire che aumentando la grandezza della popolazione in nostro possesso, lo stimatore del valor medio va sempre di più a coincidere con il valore atteso.

Dimostrazione[modifica | modifica wikitesto]

Applichiamo la disuguaglianza di Čebyšëv allo stimatore del valor medio:

P(|\bar{X}_N-\mathbb{E}[\bar{X}_N]|\geq\epsilon)\leq \frac{Var(\bar{X}_N)}{\epsilon^2}

\forall \ \epsilon \in \mathbb{R}^+

Per le proprietà di linearità del valore atteso abbiamo che in generale la media aritmetica di variabili aleatorie di diverso valore atteso corrisponde a uno stimatore di valore atteso pari alla media aritmetica dei singoli valori attesi. Nel nostro caso tutte le X_n hanno lo stesso valore atteso \mu, pertanto

\mathbb{E}[\bar{X}_N]=\frac{1}{N}\sum_{n=1}^N \mathbb{E}[X_n] =\mu

Poiché le X_n sono indipendenti tra di loro vale quanto segue \forall a,b \in \mathbb{R}, \forall i, j \in \mathbb{N} \ t.c. \ i\leq j\leq N

Var(aX_i+bX_j)=a^2Var(X_i)+b^2Var(X_j)

Nel nostro caso quindi abbiamo che

Var(\bar{X}_N)=\frac{1}{N^2}\sum_{n=1}^N Var(X_n)=\frac{\sigma^2}{N}

Quindi riscriviamo la nostra relazione alla luce di quanto detto

P(|\bar{X}_N-\mu|\geq\epsilon)\leq \frac{\sigma^2}{N\epsilon^2} \rightarrow 1-P(|\bar{X}_N-\mu|\geq\epsilon)\geq 1-\frac{\sigma^2}{N\epsilon^2}

Il primo termine può essere riscritto mediante il complementare dell'evento di cui stiamo calcolando la probabilità

1-P(|\bar{X}_N-\mu|\geq\epsilon)=P(|\bar{X}_N-\mu|\leq\epsilon)

Ma comunque la probabilità di qualunque evento è al più 1:

1 \geq P(|\bar{X}_N-\mu|\leq\epsilon)\geq 1-\frac{\sigma^2}{N\epsilon^2}

Pertanto se portiamo al limite tale espressione otteniamo quanto stavamo cercando (Teorema dei due carabinieri)

\lim_{N\rightarrow\infty} P(|\bar{X}_N-\mu|\leq\epsilon)=1

Il che vuol dire che è certo l'evento preso in considerazione, ovvero che definitivamente la distanza tra \bar{X}_N e \mu è maggiorata da \epsilon arbitrario positivo

\forall \epsilon >0 \ \exist \bar{N} \ t.c. \forall N > \bar{N}

|\bar{X}_N-\mu|\leq \epsilon

Il che significa in conclusione, per definizione di limite, che

\lim_{N\rightarrow\infty}\bar{X}_N = \mu

Voci correlate[modifica | modifica wikitesto]


matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica