Teoremi centrali del limite

Da Wikipedia, l'enciclopedia libera.

I teoremi centrali del limite sono una famiglia di teoremi di convergenza debole nell'ambito della teoria della probabilità. A tutti i teoremi è comune l'affermazione che la media aritmetica di una popolazione di variabili indipendenti e identicamente distribuite per la quale esistano e siano finiti il momento primo (la media aritmetica stessa):

\langle x \rangle_n =\frac{\sum_{j=1}^{n}x_{j}}{n}

e il momento secondo, quindi anche la deviazione standard:

\operatorname{\sigma}_n (x) = \sqrt{\frac{\sum_{j=1}^{n} (x_j-\langle x \rangle)^2}{n}}

al limite per la dimensione della popolazione tendente all'infinito, converge in distribuzione alla gaussiana che ha come valore atteso la media aritmetica della popolazione e come deviazione standard la deviazione standard della popolazione:[1]

\lim_{n\to\infty} \langle x \rangle_n = \frac {1}{\sigma \sqrt{2 \pi}} \exp{\left(-\frac{(x-\langle x \rangle)^2}{2 \sigma^2} \right)}

Ciò spiega l'importanza che la funzione gaussiana assume nell'ambito della statistica e della teoria della probabilità in particolare. Fu dimostrato nel 1922 da Lindeberg nell'articolo "Eine neue Herleitung des Exponentialgesetzes in der Wahrscheinlichkeitsrechnung", e poi in modo indipendente da Turing.

Teorema di Lindeberg-Lévy[modifica | modifica sorgente]

La più nota formulazione di un teorema centrale del limite è quella dovuta a Lindeberg e Lévy; si consideri una successione di variabili casuali \ \left\{x_{j}\right\}_{j=1}^{n} indipendenti e identicamente distribuite, Definendo come variabile casuale complessiva:

\ x^*=\frac{1}{\sqrt n}\sum_{j=1}^{n}\frac{x_{j}-\langle x \rangle_n}{\sigma_n} = \frac{1}{\sqrt n}\sum_{j=1}^{n} y_j

Bisogna semplicemente dimostrare che la variabile complessiva x^* converge in distribuzione alla gaussiana con valore atteso 0 e varianza 1, ovvero che:

\lim_{n\to\infty} x^* = \frac{e^{- \frac{\scriptscriptstyle 1}{\scriptscriptstyle 2} x^2}}{\sqrt{2\pi}}.

Sempre per semplicità di notazione sono state definite esplicitamente anche le variabili normalizzate come:

\ y_{j}=\frac{x_{j}-\langle x \rangle_n}{\sigma_n}

Si osservi che \ \textrm{E}[y_{j}]=0,\ \textrm{var}(y_{j})=\textrm{E}[y_{j}^{2}]=1\ \forall j.

Teorema di De Moivre-Laplace[modifica | modifica sorgente]

Si tratta di un'applicazione del teorema di Lindeberg-Levi al caso di distribuzione binomiale:

Se Y=Bi(n,p) è una variabile casuale binomiale, che possiamo vedere come somma di n variabili casuali bernoulliane. Allora per n\to\infty:

Y=N(np,np(1-p)),

ovvero una gaussiana con media np e varianza np(1-p).

Se standardizziamo:

\lim_{n\to\infty} \frac{Y_n-np}{\sqrt{np(1-p)}}=Z.

Questo teorema è molto utile nel caso si vogliano valori approssimati del numero di successi nella ripetizione di un esperimento indipendente dagli esiti passati, visto che la variabile aleatoria binomiale risulta spesso difficile da calcolare con numeri elevati. L'approssimazione è tanto migliore quanto più è alto il numero di esperimenti.

Note[modifica | modifica sorgente]

  1. ^ Ross, op. cit., p. 208
  2. ^ a b Flandoli, op. cit., p. 1,2

Bibliografia[modifica | modifica sorgente]

Voci correlate[modifica | modifica sorgente]

Altri progetti[modifica | modifica sorgente]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica