Stima kernel di densità

Da Wikipedia, l'enciclopedia libera.
Jump to navigation Jump to search

In statistica, la stima kernel di densità[1] (o kernel density estimation) è un metodo non parametrico utilizzato per il riconoscimento di pattern e per la classificazione attraverso una stima di densità negli spazi metrici, o spazio delle feature. Per ogni x all'interno dello spazio delle feature, l'algoritmo permette di calcolare la probabilità di appartenere ad una classe C, considerando la densità di C in un intorno k del punto x. Il metodo si basa su un intorno di dimensione fissa calcolata in funzione al numero di osservazione N.

È nota anche come metodo delle finestre di Parzen-Rosenblatt o delle finestre di Parzen,[2] dagli statistici Emanuel Parzen e Murray Rosenblatt.

Idea di base[modifica | modifica wikitesto]

Classificazione per prossimità[modifica | modifica wikitesto]

Un metodo di classificazione per prossimità (finestre di parzen o k-nearest neighbors), propone di calcolare la probabilità condizionale in un punto x con la seguente stima di densità:

dove:

  • è il numero di osservazione nel training set;
  • è il volume dell'intorno del punto ;
  • sono gli elementi nell'intorno , appartenenti alla classe .

Strategia[modifica | modifica wikitesto]

L'algoritmo a finestre di Parzen, propone di ridurre la dimensione della regione intorno ad , in funzione del numero di osservazioni disponibili. Questa strategia si basa sull'idea di ridurre il più possibile, in maniera da ottenere una stima approssimata a quella reale del punto, allo stesso tempo cerca di non considerare una regione tanto piccola da avere , non perché è impossibile per , ma perché la regione non è troppo piccola per contenerlo.

Comparazione tra un istogramma (sx) e la sua kernel density estimate (dx) costruite utilizzando gli stessi dati. 6 kernel singoli sono rappresentati da linee tratteggiate rosse, mentre la kernel density estimate è raffigurata in blu

Algoritmo[modifica | modifica wikitesto]

Funzione K[modifica | modifica wikitesto]

Si consideri una funzione che dipende dal parametro di scala , e dalla distanza di a un punto fissato 0. È richiesto che questa funzione abbia integrale unitario sul dominio .

Il metodo[modifica | modifica wikitesto]

Consiste nell'assegnare nel punto nel seguente modo:

Σi (h,d(x,xi)

Cioè la densità nel punto si ottiene considerando il contributo come la somma dei contributi forniti dalle osservazioni nel campione spalmate secondo la legge , normalizzati ad .

La scelta di h[modifica | modifica wikitesto]

La scelta di è un problema molto delicato, generalmente dipende dal problema in esame. Una regola molto diffusa e generalizzata è quella di prendere (-1/5).

Valutazioni[modifica | modifica wikitesto]

Un problema di questo metodo è dovuto alla scelta fissa della funzione K per tutto lo spazio delle feature. Alla fine se si utilizza una finestra molto piccola, si introduce il rischio di overfitting. Se si utilizza una finestra troppo grande si hanno più errori nelle zone più addensate. Per questo motivo una finestra dinamica (Algoritmo k-nn) potrebbe dare risultati migliori.

Note[modifica | modifica wikitesto]

  1. ^ kernel density [kernel, stima di densità], in Dizionario di economia e finanza, Istituto dell'Enciclopedia Italiana, 2012.
  2. ^ Cosimo Distante, Clustering (PDF), Consiglio Nazionale delle Ricerche - Istituto di Scienze Applicate e Sistemi Intelligenti, 13-14. URL consultato il 3 luglio 2017 (archiviato il 3 luglio 2017).

Altri progetti[modifica | modifica wikitesto]