Convergenza di variabili casuali

Da Wikipedia, l'enciclopedia libera.

In teoria della probabilità e statistica è molto vivo il problema di studiare fenomeni con comportamento incognito ma, nei grandi numeri, riconducibili a fenomeni noti e ben studiati. A ciò vengono in soccorso i vari teoremi di convergenza di variabili casuali, che appunto studiano le condizioni sotto cui certe successioni di variabili casuali di una certa distribuzione tendono ad altre distribuzioni.

I più importanti risultati raggiungibili sotto forma di convergenza di variabili casuali sono il teorema del limite centrale, che afferma che, col crescere della numerosità di un campione, la sua distribuzione di probabilità è più o meno come quella di una gaussiana e la legge dei grandi numeri, che giustifica al posto di un valore di probabilità incognito l'uso di una sua stima fatta su di un campione finito.

Si distinguono più tipi di convergenza. Ognuna di queste condizioni si esporrà qua per variabili casuali reali univariate, ma si generalizza senza troppe difficoltà per variabili casuali multivariate.

Convergenza in distribuzione[modifica | modifica wikitesto]

Una successione di variabili casuali (X_n)_{n \in \N} con funzioni di ripartizione  F_n si dice convergente in distribuzione o convergente in legge alla variabile casuale  X con funzione di ripartizione  F , cioè X_n \stackrel{d}{\rightarrow} X, se il seguente limite esiste

\lim_{n \to \infty}F_n(x)=F(x)

in ogni punto x \in \R in cui F risulta continua. Questo è il tipo di convergenza usato nel teorema del limite centrale.

Poiché F_X(x) = P(X \leq x), ciò che la convergenza in distribuzione implica è che all'aumentare di n la probabilità che la successione assuma valori minori o uguali ad x (ovvero assuma valori in un certo intervallo) sarà sempre più simile alla probabilità che X assuma valori nello stesso intervallo. Si noti che questo non richiede che X e X_n assumano i medesimi valori. Da questa osservazione segue che X e X_n possono essere definiti a partire da spazi di probabilità modellanti esperimenti casuali differenti.

Esempi[modifica | modifica wikitesto]

  • X_n={1 \over n} converge a X=0. Vale infatti
F_n(x)=I_{[1/n,+ \infty)} = \left\{\begin{matrix} 0, x < {1 \over n} \\ 1, x \geq {1 \over n}\end{matrix}\right.

e quindi

\lim_{n \to \infty}F_n(x) = F_X(x) = I_{[0, +\infty)} = \left\{\begin{matrix} 0, x < 0 \\ 1, x \geq 0\end{matrix}\right.

Teoremi[modifica | modifica wikitesto]

  • X_n \stackrel{d}{\rightarrow} X se e solo se per ogni funzione continua e limitata g(x) vale \lim_{n\to\infty}E[g(X_n)]=E[g(X)]
  • Se X_n \stackrel{d}{\rightarrow} X e l'unione dei supporti delle X_n è limitato allora E[X_n] \rightarrow E[X]
  • Se X_n \stackrel{d}{\rightarrow} X e h è una funzione continua, allora h(X_n) \stackrel{d}{\rightarrow} h(X)
  • Se X_n è una variabile k-variata, X_n=(X_{n,1},...,X_{n,k}) e X_n \stackrel{d}{\rightarrow} X allora X_{n,i} \stackrel{d}{\rightarrow} X_i per ogni i=1,...,k

Convergenza in probabilità[modifica | modifica wikitesto]

Come notato prima la convergenza in distribuzione dà informazioni relative alla sola distribuzione della variabile casuale limite, mentre nulla possiamo dire sugli effettivi valori studiati. Per questo si introduce una nozione di convergenza più forte.

Diremo allora che una successione di variabili casuali (X_n)_{n \in \N} converge in probabilità alla variabile casuale X, in simboli X_n \stackrel{p}{\rightarrow} X, se per ogni \varepsilon > 0

\lim_{n \to \infty}P(|X_n-X| < \varepsilon)=1[1]

o equivalentemente

\lim_{n \to \infty}P(|X_n - X| \geq \varepsilon) = 0

Formalmente, scelti \varepsilon > 0, \delta > 0 esiste N tale che per ogni n \geq N

P(|X_n - X| < \varepsilon) \geq 1 - \delta.

Questo tipo di convergenza è usato nella legge debole dei grandi numeri.

Quello che la definizione di convergenza in probabilità sostiene è che, all'aumentare di n, la probabilità che i valori assunti dalla successione differiscano dai valori assunti da X meno di una quantità positiva \varepsilon piccola a piacere, si avvicina sempre più ad 1.

Teoremi[modifica | modifica wikitesto]

  • X_n \stackrel{p}{\rightarrow} X se e solo se X_n - X \stackrel{p}{\rightarrow} 0.
  • X_n \stackrel{p}{\rightarrow} X (variabili k-variate) se e solo se X_{n,i} \stackrel{p}{\rightarrow} X_i per ogni i=1,...,k.
  • Se X_n \stackrel{p}{\rightarrow} X, allora X_n \stackrel{d}{\rightarrow} X.
  • Se X_n \stackrel{d}{\rightarrow} X e X è degenere (ovvero è una v.c. costante), allora X_n \stackrel{p}{\rightarrow} X.
  • Se X_n \stackrel{p}{\rightarrow} X e g è una funzione continua, allora g(X_n) \stackrel{p}{\rightarrow} g(X).

Convergenza quasi certa[modifica | modifica wikitesto]

Una successione di variabili casuali (X_n)_{n \in \N} si dice convergere quasi certamente (o quasi ovunque) alla variabile casuale X, in simboli X_n \stackrel{q.c.}{\rightarrow} X o X_n \stackrel{q.o.}{\rightarrow} X, se

P(\lim_{n \to \infty}X_n=X)=1.

Poiché la funzione di probabilità P è definita su eventi, ovvero insiemi di esiti, la formula precedente può essere riscritta come

P(\{\omega \isin \Omega | \lim_{n \to \infty}X_n(\omega) = X(\omega)\}) = 1.

Ovvero, dato lo spazio di probabilità (\Omega, \Sigma, P), il limite

\lim_{n \to \infty}X_n(\omega) = X(\omega)

esiste per ogni \omega \isin U t.c. P(U) = 1.

Quello che la definizione sostiene è che le v.c. X_n e X differiranno, in limite, solo su eventi di probabilità nulla. Questa è la nozione di convergenza più forte, perché esprime il fatto che, all'aumentare della numerosità del campione, è un evento quasi certo che le realizzazioni campionarie tenderanno a coincidere con le osservazioni della variabile casuale X. Questo è il tipo di convergenza usato nella legge forte dei grandi numeri.

Teoremi[modifica | modifica wikitesto]

  • X_n \stackrel{q.c.}{\rightarrow} X se e solo se X_n - X \stackrel{q.c.}{\rightarrow} 0.
  • X_n \stackrel{q.c.}{\rightarrow} X (variabili k-variate) se e solo se X_{n,i} \stackrel{q.c.}{\rightarrow} X_i per ogni i=1,...,k.
  • X_n \stackrel{q.c.}{\rightarrow} X se e solo se per ogni \varepsilon > 0, \lim_{n\to\infty}P(\bigcap_{n\geq m}(|X_n-X|<\varepsilon))=1.
  • Se X_n \stackrel{q.c.}{\rightarrow} X, allora X_n \stackrel{p}{\rightarrow} X[2].
  • Dalla precedente si ricava X_n \stackrel{q.c.}{\rightarrow} X \Rightarrow X_n \stackrel{d}{\rightarrow} X, poiché X_n \stackrel{p}{\rightarrow} X \Rightarrow X_n \stackrel{d}{\rightarrow} X

Convergenza in media r-esima[modifica | modifica wikitesto]

Una successione di variabili casuali (X_n)_{n \in \N} si dice convergere in media r-esima, o in norma r-esima, alla variabile casuale X, con r>0, se[3]:

\lim_{n \to \infty}E(|X_n-X|^r)=0

Se r=1, X_n si dice convergere in media a X. Se r=2, la convergenza si dice in media quadratica.

Secondo l'approccio assiomatico di Kolmogorov, questa convergenza equivale alla convergenza in norma Lp.

Teoremi[modifica | modifica wikitesto]

  • Se X_n \rightarrow X in media r-esima con r> 0, allora X_n \rightarrow X in probabilità[4]
  • Se X_n \rightarrow X in media r-esima con r> 0, allora X_n \rightarrow X quasi certamente a meno di sottosuccessioni
  • Se X_n \rightarrow X in media r-esima e r > s \geq 1, allora X_n \rightarrow X in media s-esima

Note[modifica | modifica wikitesto]

  1. ^ J. Jacod; P. Protter, op. cit., Pag. 143
  2. ^ J. Jacod; P. Protter, op. cit., Pag. 144
  3. ^ J. Jacod; P. Protter, op. cit., Pag. 142
  4. ^ J. Jacod; P. Protter, op. cit., Pag. 144

Bibliografia[modifica | modifica wikitesto]

  • (EN) Jean Jacod, Philip Protter, Probability Essentials, Springer, 2000, ISBN 3-540-43871-8.
matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica