Metodo dei momenti (statistica)

Da Wikipedia, l'enciclopedia libera.

Il metodo dei momenti in statistica è un metodo di ricerca degli stimatori, introdotto nel 1894 da Karl Pearson.[1] In base al metodo dei momenti, uno stimatore deve soddisfare una condizione che caratterizza uno o più suoi momenti campionari; in generale si impone l'uguaglianza tra il momento campionario e la sua controparte, non osservabile, che caratterizza la popolazione (es. tra media campionaria e valore atteso per la popolazione), determinando lo stimatore come soluzione dell'equazione che ne risulta.

Esempi[modifica | modifica sorgente]

Si consideri un campione \ \left\{x_{i}\right\}_{i=1}^{n} di variabili casuali identicamente distribuite, ed aventi distribuzione Gaussiana:

\ f_{X_{i}}(x_{i})=\frac{1}{\sqrt{2\pi\sigma^{2}}}\exp\left\{-\frac{1}{2}\left(\frac{x_{i}-\mu}{\sigma}\right)^{2}\right\}


Ricordando che:

\ \sigma^{2}=\textrm{var}(x_{i})=\textrm{E}[x_{i}^{2}]-(\textrm{E}[x_{i}])^{2}

si vogliono determinare gli stimatori per i parametri \ \mu e \ \sigma^{2}.

Impiegando il metodo dei momenti, si impone che:

- i momenti campionari di ordine < 3 siano uguali alle loro controparti teoriche;

- il valore atteso comune degli \ x_i, \ \textrm{E}[x_{i}]=\mu;

- il momento di ordine 2 \ \textrm{E}[x_{i}^{2}]=\sigma^{2}+(\textrm{E}[x_{i}])^{2}:

\ \left\{\begin{matrix}n^{-1}\sum_{i}x_{i}&=&\hat{\mu}\\ n^{-1}\sum_{i}x_{i}^{2}&=&\hat{\sigma}^{2}+\hat{\mu}^{2}\end{matrix}\right.


Dalla prima equazione segue che lo stimatore per il parametro valore atteso è la media campionaria. Sostituendo tale espressione nella seconda equazione, si ha:

\ \hat{\sigma}^{2}=\frac{1}{n}\sum_{i}x_{i}^{2}-\hat{\mu}^{2}=\frac{1}{n}\left(\sum_{i}x_{i}^{2}-n\hat{\mu}^{2}\right)=\frac{1}{n}\sum_{i}\left(x_{i}-\hat{\mu}\right)^{2}


È interessante osservare come si tratti degli stessi stimatori ottenuti con il metodo della massima verosimiglianza.

A scanso di equivoci, si precisa che i due metodi di ricerca degli stimatori non conducono necessariamente a individuare gli stessi stimatori in condizioni più generali.


Onde illustrare le proprietà degli stimatori testé derivati, si osserva come sia immediato verificare la correttezza di \ \hat{\mu}:

\ \textrm{E}[\hat{\mu}]=\textrm{E}\left[\frac{1}{n}\sum_{i=1}^{n}x_{i}\right]=\frac{1}{n}\sum_{i=1}^{n}\textrm{E}[x_{i}]=\mu

D'altra parte, \ \hat{\sigma}^{2} non gode di tale proprietà. Ricordando che:

\ \sum_{i}(x_{i}-\mu)^{2}=\sum_{i}(x_{i}-\hat{\mu})^{2}+n(\hat{\mu}-\mu)^{2}

segue che:

\ \textrm{E}[\hat{\sigma}^{2}]=\frac{1}{n}\textrm{E}\left(\sum_{i=1}^{n}(x_{i}-\hat{\mu})^{2}\right)=\frac{1}{n}\textrm{E}\left[\sum_{i}(x_{i}-\hat{\mu})^{2}+n(\hat{\mu}-\mu)^{2}\right]=\frac{n-1}{n}\sigma^{2}

Dunque \ \hat{\sigma}^{2} non è uno stimatore corretto; un tale stimatore sarebbe dato dalla statistica:

\ \hat{s}^{2}=\frac{1}{n-1}\sum_{i=1}^{n}(x_{i}-\hat{\mu})^{2}


Val la pena d'altra parte di osservare che \ \hat{\sigma}^{2} è comqunque uno stimatore asintoticamente corretto; infatti:

\ \lim_{n\rightarrow\infty}\textrm{E}[\hat{\sigma}^{2}]=\lim_{n\rightarrow\infty}\frac{n-1}{n}\sigma^{2}=\sigma^{2}

Vantaggi e svantaggi del metodo dei momenti[modifica | modifica sorgente]

Sotto diversi punti di vista, il metodo dei momenti è stato superato dal metodo della massima verosimiglianza di Fisher, poiché gli stimatori di massima verosimiglianza sono maggiormente efficienti, ossia tali che le stime hanno una maggiore probabilità di essere prossime ai valori oggetto di stima.

D'altro canto, spesso e volentieri le equazioni del metodo della massima verosimiglianza risultano intrattabili se non in via numerica, laddove gli stimatori del metodo dei momenti possono essere rapidamente calcolati in via analitica.

Le stime del metodo dei momenti possono inoltre essere utilizzate come punto di partenza per procedimenti numerici volti a determinare gli stimatori di massima verosimiglianza, ad esempio come punto iniziale del metodo di Newton-Raphson.

In alcuni casi, infrequenti con campioni di grandi dimensioni ma non rari nel caso di campioni di piccola dimensione, le stime ottenute tramite il metodo dei momenti si trovano al di fuori dello spazio dei parametri e sono dunque inattendibili. Tale problema non sorge mai nel caso delle stime di massima verosimiglianza. Inoltre, gli stimatori del metodo dei momenti possono non essere statistiche sufficienti, ossia possono non rappresentare adeguatamente tutta l'informazione contenuta nel campione.

Bibliografia[modifica | modifica sorgente]

  • D.C. Boes, F.A. Graybill, A.M. Mood (1988), Introduzione alla Statistica, McGraw-Hill Libri Italia, ISBN 88-386-0661-7, il testo di riferimento per i fondamenti della statistica matematica; contiene diversi capitoli sui metodi di ricerca degli stimatori.

Voci correlate[modifica | modifica sorgente]

Note[modifica | modifica sorgente]

  1. ^ (EN) e Alastair R. Hall, Generalized method of moments, Oxford University Press, 2005, p. 6.