Teoremi centrali del limite

Da Wikipedia, l'enciclopedia libera.

I teoremi centrali del limite sono una famiglia di teoremi di convergenza debole nell'ambito della teoria della probabilità.

Una delle formulazioni più note del teorema è la seguente:

Sia  X_j variabili aleatorie indipendenti e identicamente distribuite, con  E[X_j] = \mu and  Var[X_j] = \sigma^2 \ \ \ \ \forall j , con  0 < \sigma^2 < \infty (Ovvero  X_j \in \mathcal{L}^2 ).

Sia  \displaystyle Y_n = \frac{\sum_{j=1}^n X_j - n \mu}{\sigma \sqrt{n}} .

Allora  Y_n converge in distribuzione a una normale standard;  Y_n \to^D Y \sim N(0,1)

Ciò spiega l'importanza che la funzione gaussiana assume nell'ambito della statistica e della teoria della probabilità in particolare. Fu dimostrato nel 1922 da Lindeberg nell'articolo "Eine neue Herleitung des Exponentialgesetzes in der Wahrscheinlichkeitsrechnung", e poi in modo indipendente da Turing.

Teorema di Lindeberg-Lévy[modifica | modifica sorgente]

La più nota formulazione di un teorema centrale del limite è quella dovuta a Lindeberg e Lévy; si consideri una successione di variabili casuali \ \left\{x_{j}\right\}_{j=1}^{n} indipendenti e identicamente distribuite, Definendo come variabile casuale complessiva:

\ x^*=\frac{1}{\sqrt n}\sum_{j=1}^{n}\frac{x_{j}-\langle x \rangle_n}{\sigma_n} = \frac{1}{\sqrt n}\sum_{j=1}^{n} y_j

Bisogna semplicemente dimostrare che la variabile complessiva x^* converge in distribuzione alla gaussiana con valore atteso 0 e varianza 1, ovvero che:

\lim_{n\to\infty} x^* = \frac{e^{- \frac{\scriptscriptstyle 1}{\scriptscriptstyle 2} x^2}}{\sqrt{2\pi}}.

Sempre per semplicità di notazione sono state definite esplicitamente anche le variabili normalizzate come:

\ y_{j}=\frac{x_{j}-\langle x \rangle_n}{\sigma_n}

Si osservi che \ \textrm{E}[y_{j}]=0,\ \textrm{var}(y_{j})=\textrm{E}[y_{j}^{2}]=1\ \forall j.

Teorema di De Moivre-Laplace[modifica | modifica sorgente]

Si tratta di un'applicazione del teorema di Lindeberg-Levi al caso di distribuzione binomiale:

Se Y=Bi(n,p) è una variabile casuale binomiale, che possiamo vedere come somma di n variabili casuali bernoulliane. Allora per n\to\infty:

Y=N(np,np(1-p)),

ovvero una gaussiana con media np e varianza np(1-p).

Se standardizziamo:

\lim_{n\to\infty} \frac{Y_n-np}{\sqrt{np(1-p)}}=Z.

Questo teorema è molto utile nel caso si vogliano valori approssimati del numero di successi nella ripetizione di un esperimento indipendente dagli esiti passati, visto che la variabile aleatoria binomiale risulta spesso difficile da calcolare con numeri elevati. L'approssimazione è tanto migliore quanto più è alto il numero di esperimenti.

Note[modifica | modifica sorgente]

  1. ^ a b Flandoli, op. cit., p. 1,2

Bibliografia[modifica | modifica sorgente]

Voci correlate[modifica | modifica sorgente]

Altri progetti[modifica | modifica sorgente]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica