Vai al contenuto

Disuguaglianza di Markov

Da Wikipedia, l'enciclopedia libera.

In teoria della probabilità e statistica, la disuguaglianza di Markov afferma che, per una variabile casuale non negativa il cui valore atteso esiste:

Questa disuguaglianza permette di stabilire un limite superiore al valore di probabilità dalla sola conoscenza del valore atteso a condizione che la variabile casuale sia definita non negativa.

La disuguaglianza di Markov è anche utilizzata nella dimostrazione della disuguaglianza di Čebyšëv.

Dimostrazione

[modifica | modifica wikitesto]

Si definiscano le variabili casuali ed come segue:

con spazio campionario e

con Chiaramente per ogni non nullo, vale la seguente disuguaglianza larga

Supponiamo inoltre che per la variabile aleatoria esiste allora:

Il valore atteso è definito come somma di tutti i valori che la variabile aleatoria può assumere moltiplicati per la probabilità che tale variabile assuma effettivamente tali valori: nel nostro caso

Ma ancora, la probabilità che sia uguale a 1 è proprio la probabilità che sia maggiore o uguale ad

Il valore atteso mantiene la disuguaglianza degli argomenti poiché si tratta di una funzione non decrescente, in vista del fatto che gli argomenti sono variabili non negative. Basti pensare alla definizione di valore atteso, nel caso discreto e quello continuo, la quale genera serie a termini positivi in un caso, e integrali di funzioni positive nell'altro.

Per la linearità del valore atteso. Quindi si conclude che

Disuguaglianza di Čebyšëv

[modifica | modifica wikitesto]

Partendo dall'appena dimostrata disuguaglianza possiamo ottenere, come corollario, il seguente enunciato:

con parametro positivo. Per farlo definiamo una variabile aleatoria e associamo ad essa la variabile aleatoria

Così definita è una variabile aleatoria non negativa, pertanto applichiamo ad essa la disuguaglianza di Markov, ottenendo

a destra otteniamo la definizione di varianza

e sapendo che in generale vale quanto segue

otteniamo quanto si voleva dimostrare, cioè

che può anche essere riscritta ponendo il parametro

possiamo inoltre semplificare la scrittura usando, anziché la varianza, lo strumento statistico della deviazione standard, definito proprio come sua radice.

Legge debole dei grandi numeri

[modifica | modifica wikitesto]

La disuguaglianza di Čebyšëv, viene inoltre utilizzata nella famosa legge dei grandi numeri, di cui qui verrà dimostrata il suo enunciato cosiddetto "debole". L'enunciato è il seguente:

Consideriamo una popolazione di elementi di variabili aleatorie indipendenti tutte di valore atteso e varianza .

E definendo lo stimatore del valor medio si ha

Il che vuol dire che aumentando la grandezza della popolazione in nostro possesso, lo stimatore del valor medio va sempre di più a coincidere con il valore atteso.

Dimostrazione

[modifica | modifica wikitesto]

Applichiamo la disuguaglianza di Čebyšëv allo stimatore del valor medio:

per ogni Per le proprietà di linearità del valore atteso abbiamo che in generale la media aritmetica di variabili aleatorie di diverso valore atteso corrisponde a uno stimatore di valore atteso pari alla media aritmetica dei singoli valori attesi. Nel nostro caso tutte le hanno lo stesso valore atteso , pertanto

Poiché le sono indipendenti tra di loro vale quanto segue tale che

Nel nostro caso quindi abbiamo che

Quindi riscriviamo la nostra relazione alla luce di quanto detto

Il primo termine può essere riscritto mediante il complementare dell'evento di cui stiamo calcolando la probabilità

Ma comunque la probabilità di qualunque evento è al più 1:

Pertanto se portiamo al limite tale espressione otteniamo quanto stavamo cercando per il teorema del confronto:

Il che vuol dire che è certo l'evento preso in considerazione, ovvero che definitivamente la distanza tra e è maggiorata da arbitrario positivo

Il che significa in conclusione, per definizione di limite, che

Voci correlate

[modifica | modifica wikitesto]

Collegamenti esterni

[modifica | modifica wikitesto]