Modello di Markov nascosto

Da Wikipedia, l'enciclopedia libera.
Transizioni di stato in un modello di Markov nascosto (esempio)
x — Stato nascosto
y — Uscita osservabile
a — Probabilità di transizione
b — Probabilità di uscita

Un Modello di Markov nascosto (Hidden Markov Model - HMM) è una catena di Markov i cui stati non sono osservabili direttamente. Più precisamente:

  • la catena ha un certo numero di stati
  • gli stati evolvono secondo una catena di Markov
  • ogni stato genera un evento con una certa distribuzione di probabilità che dipende solo dallo stato
  • l'evento è osservabile ma lo stato no

I modelli nascosti di Markov sono conosciuti particolarmente per le loro applicazioni nel riconoscimento dello schema temporale dei discorsi parlati, della scrittura a mano, nel riconoscimento di textures e la bioinformatica (per esempio HMMer).

Come usare il modello di Markov nascosto[modifica | modifica wikitesto]

Ci sono 3 problemi canonici connessi con gli HMM:

  • Dati i parametri del modello, calcolare la probabilità di una sequenza particolare dell'uscita. Questo problema è risolto dall'algoritmo forward-backward.
  • Dati i parametri del modello, trovare la sequenza più probabile che potrebbe generare una data sequenza dell'uscita. Questo problema è risolto dall'algoritmo di Viterbi (Andrea Viterbi).
  • Data una sequenza dell'uscita o un insieme di tali sequenze, trovare l'insieme più probabile per il quale si possano dichiarare le probabilità dell'uscita e di transizione. Questo significa "addestrare" i parametri dell'HMM dato mediante il gruppo dei dati relativi alle sequenze. Questo problema è risolto dall'algoritmo di Baum-Welch.

Esempio concreto[modifica | modifica wikitesto]

Si considerino due amici, Alice e Bob, che vivono lontani e quotidianamente parlano al telefono di ciò che hanno fatto in giornata. Bob fa tre sole attività: cammina nel parco, fa shopping e pulisce il suo appartamento. La scelta di cosa fare è determinata esclusivamente dal tempo atmosferico. Alice non sa che tempo fa da Bob quando lo chiama, ma sa cosa fa Bob ogni giorno. Sulla base di quello che Bob fa, Alice cerca di indovinare che tempo c'è stato dove vive Bob.

Ci sono due stati, "pioggia" e "sole", ma Alice non può osservarli direttamente, ovvero sono nascosti. Ogni giorno, c'è una certa probabilità che Bob faccia una delle seguenti attività, a seconda del tempo: camminare, fare shopping o pulire. Dato che Bob parla ad Alice delle sue attività, queste sono le osservazioni. L'intero sistema è quello di un modello nascosto di Markov.

Alice sa qual è l'andamento generale del tempo dove vive Bob e quello che piace fare a Bob in media. In altre parole sono noti i parametri del HMM, che possono essere rappresentati come segue nel linguaggio di programmazione Python:

stati = ('Pioggia', 'Sole')
 
osservazioni = ('camminare', 'shopping', 'pulire')
 
probabilità_iniziale = {'Pioggia': 0.6, 'Sole': 0.4}
 
probabilità_transizione = {
   'Pioggia' : {'Pioggia': 0.7, 'Sole': 0.3},
   'Sole'  : {'Pioggia': 0.4, 'Sole': 0.6},
   }
 
probabilità_emissione = {
   'Pioggia' : {'camminare': 0.1, 'shopping': 0.4, 'pulire': 0.5},
   'Sole'  : {'camminare': 0.6, 'shopping': 0.3, 'pulire': 0.1},
   }

dove probabilità_iniziale rappresenta la probabilità di ciascuno dei due stati dell'HMM pioggia/sole, quando Bob la chiama (quello che sa è che dove vive Bob il clima è piovoso). probabilità_di_transizione rappresenta la probabilità che domani piova/ci sia il sole condizionata dal fatto che oggi piove/c'è il sole. In questo esempio, c'è il 30% di possibilità che il giorno successivo ci sarà il sole se oggi piove. probabilità_di_emissione rappresenta la probabilità che Bob faccia una certa attività delle tre possibili. Se piove, c'è il 50% di probabilità che stia pulendo il suo appartamento; se c'è il sole, c'è il 60% di probabilità che sia fuori a camminare.

Alice può calcolare la sequenza più probabile di stati nascosti in giorni successivi, conoscendo questi tre dati, moltiplicando la probabilità di transizione per la probabilità di emissione di ciascun giorno e sommando i valori.

P(Y)=\sum_{X}P(Y\mid X)P(X),\,

dove Y=y(0), y(1),\dots,y(L-1) è l'insieme ordinato degli eventi e X=x(0), x(1), \dots, x(L-1)\, è l'insieme ordinato degli stati nascosti.


Applicazioni dei modelli nascosti di Markov[modifica | modifica wikitesto]

  • Riconoscimento della parola, di texture e di movimento del corpo, lettura ottica dei caratteri
  • Sintesi vocale
  • Bioinformatica e studio del genoma
  • Predizione delle regioni codificanti nella sequenza del genoma
  • Modellizzazione delle famiglie di proteine o delle famiglie geniche
  • Previsione degli elementi secondari della struttura dalle sequenze primarie della proteina

Storia[modifica | modifica wikitesto]

I modelli nascosti di Markov sono stati descritti per la prima volta in una serie di studi statistici di Leonard E. Baum ed altri autori nella seconda metà degli anni sessanta. Una delle prime applicazioni degli HMM era il riconoscimento della parola, a partire dagli anni settanta.

Nella seconda metà degli anni ottanta, si è cominciato ad applicare gli HMM all'analisi delle sequenze biologiche, in particolare quella del DNA. Da allora, questa metodologia è diventata di grande aiuto nel campo della bioinformatica.

Bibliografia[modifica | modifica wikitesto]

Voci correlate[modifica | modifica wikitesto]