Discussione:Campionamento di Gibbs

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca

Collegamenti esterni modificati[modifica wikitesto]

Gentili utenti,

ho appena modificato 1 collegamento/i esterno/i sulla pagina Campionamento di Gibbs. Per cortesia controllate la mia modifica. Se avete qualche domanda o se fosse necessario far sì che il bot ignori i link o l'intera pagina, date un'occhiata a queste FAQ. Ho effettuato le seguenti modifiche:

Fate riferimento alle FAQ per informazioni su come correggere gli errori del bot

Saluti.—InternetArchiveBot (Segnala un errore) 11:50, 12 feb 2018 (CET)[rispondi]

Collegamenti esterni modificati[modifica wikitesto]

Gentili utenti,

ho appena modificato 1 collegamento/i esterno/i sulla pagina Campionamento di Gibbs. Per cortesia controllate la mia modifica. Se avete qualche domanda o se fosse necessario far sì che il bot ignori i link o l'intera pagina, date un'occhiata a queste FAQ. Ho effettuato le seguenti modifiche:

Fate riferimento alle FAQ per informazioni su come correggere gli errori del bot

Saluti.—InternetArchiveBot (Segnala un errore) 16:15, 21 lug 2018 (CEST)[rispondi]

sezione "inferenza"[modifica wikitesto]

Il campionamento di Gibbs è comunemente usato per inferenza statistica (ad esempio per determinare il migliore valore di un parametro, come il numero di persone che probabilmente faranno acquisti presso un certo magazzino in un dato giorno, il candidato preferito, ecc.). L'idea è di incorporare i dati osservati nel processo di campionamento mediante la creazione di variabili separate per ogni parte dei dati osservati fissando le variabili in questione ai loro valori osservati, piuttosto che campionare da quelle variabili. La distribuzione delle variabili rimanenti è allora a tutti gli effetti una distribuzione a posteriori condizionata sui dati osservati.

Il valore con probabilità maggiore di un parametro desiderato (la moda) potrebbe allora essere selezionato semplicemente come il valore del campione che occorre più frequentemente; questo è essenzialmente equivalente a massimizzare a posteriori la stima di un parametro. (Poiché i parametri sono solitamente continui, è spesso necessario raggruppare i valori campionati che sono adiacenti tra loro in un numero finito di intervalli consecutivi allo scopo di ottenere una stima sensata della moda). Più comunemente, tuttavia, è scelto il valore atteso (media) dei valori campionati; questo è uno stimatore bayesiano che ha il vantaggio di prendere in considerazione l'intera distribuzione disponibile dal campionamento bayesiano, mentre un algoritmo di massimizzazione come quello di massimizzazione del valore atteso è in grado di fornire solo un singolo punto dalla distribuzione. Per esempio, per una distribuzione unimodale il valore della media (valore atteso) è solitamente simile a quello della moda (il valore più comune), ma se la distribuzione è asimmetrica in una direzione, la media si sposterà correttamente in quella direzione in modo da tenere conto della maggiore probabilità in quella direzione. (Si noti tuttavia che se la distribuzione è multimodale, il valore atteso può coincidere con un valore avente probabilità nulla rendendo la sua interpretazione più ardua rispetto ad esempio a quella della moda nel medesimo contesto).

Nonostante alcune delle variabili corrispondano tipicamente a parametri di interesse, altre sono variabili non interessanti ("prive di senso") vengono introdotte in generale nel modello allo scopo di esprimere propriamente le relazioni tra variabili. Nonostante i valori campionati rappresentino la distribuzione congiunta sopra tutte le variabili, i parametri non interessanti possono essere semplicemente ignorati nel momento in cui vengono calcolati il valore atteso o la moda delle variabili interessanti; questo equivale a marginalizzare sopra le variabili non interessanti. Quando un valore è desiderato per più variabili, il valore atteso è calcolato semplicemente sopra ogni variabile presa separatamente. (Tuttavia, quando si calcola la moda tutte le variabili devono essere considerate).

L'apprendimento supervisionato, l'apprendimento non supervisionato e l'apprendimento parzialmente supervisionato (vale a dire l'apprendimento con valori mancanti) possono tutti essere trattati semplicemente fissando tutte le variabili i cui valori sono noti e campionando dalle rimanenti.

Per i dati osservati, ci sarà una variabile per ogni osservazione piuttosto che, per esempio, una variabile corrispondente alla media campionaria o alla varianza campionaria di un insieme di osservazioni. Infatti, non ci saranno di fatto variabili corrispondenti a concetti come "media campionaria" o "varianza campionaria". Invece, in tale caso ci saranno delle variabili rappresentanti i valori incogniti della media e della varianza, e la determinazione dei valori campione per quelle variabili risulterà automaticamente come risultato dell'applicazione del campionamento di Gibbs.

Modelli lineari generalizzati (cioè varianti della regressione lineare) possono di fatto essere trattati mediante il campionamento di Gibbs. Per esempio, la regressione probit utile per determinare la probabilità di una data scelta binaria (ad esempio si/no), con distribuzioni a priori di tipo normale dei coefficienti di regressione, può essere implementata con campionamenti di Gibbs in quanto è possibile introdurre variabili aggiuntive e sfruttare la coniugazione con la distribuzione a priori. Tuttavia, la regressione logistica non può essere trattata in questo modo. Una possibilità è quella di approssimare le funzione logistica con una miscela di (tipicamente 7-9) distribuzioni normali. Più comunemente, tuttavia, al posto del campionamento di Gibbs viene usato l'algoritmo di Metropolis-Hastings.

riporto qui, dopo averla rimossa dalla voce, l'intera sezione "inferenza", che trovo molto confondente: cerca di spiegare l'utilizzo del gibbs sampler partendo dai problemi pratici, quando è inutile provare a comprendere queste cose senza sapere almeno che cos'è un modello statistico multivariato. se uno ha le conoscenze propedeutiche, questa sezione è inutile e di disturbo, altrimenti questa sezione non può certo chiarirgli le idee, tanto più che è importante considerare che il gibbs sampler è sono uno dei vari MCMC, e che certi problemi si risolvono grazie a modelli che implementano una MCMC, che può essere, nel caso, un campionamento di gibbs. per cui è assurdo scrivere in questa voce tanti dettagli che andrebbero letti in tre o quattro voci prima di questa. a questo proposito ho posto in testa alla voce il collegamento a MCMC. --ppong (msg) 15:21, 31 gen 2019 (CET)[rispondi]

Collegamenti esterni modificati[modifica wikitesto]

Gentili utenti,

ho appena modificato 1 collegamento esterno sulla pagina Campionamento di Gibbs. Per cortesia controllate la mia modifica. Se avete qualche domanda o se fosse necessario far sì che il bot ignori i link o l'intera pagina, date un'occhiata a queste FAQ. Ho effettuato le seguenti modifiche:

Fate riferimento alle FAQ per informazioni su come correggere gli errori del bot.

Saluti.—InternetArchiveBot (Segnala un errore) 18:13, 13 ago 2019 (CEST)[rispondi]