Hash table

Da Wikipedia, l'enciclopedia libera.

In informatica una hash table, in italiano tabella hash è una struttura dati usata per mettere in corrispondenza una data chiave con un dato valore. Viene usata per l'implementazione di strutture dati astratte associative come Map o Set. L'hash table è molto utilizzata nei metodi di ricerca nominati Hashing. L'hashing è un'estensione della ricerca indicizzata da chiavi che gestisce problemi di ricerca nei quali le chiavi di ricerca non presentano queste proprietà. Una ricerca basata su hashing è completamente diversa da una basata su confronti: invece di muoversi nella struttura data in funzione dell'esito dei confronti tra chiavi, si cerca di accedere agli elementi nella tabella in modo diretto tramite operazioni aritmetiche che trasformano le chiavi in indirizzi della tabella. Esistono vari tipi di algoritmi di hashing. Per quanto affermato, in una tabella di hashing ben dimensionata il costo medio di ricerca di ogni elemento è indipendente dal numero di elementi. L'hashing è un problema classico dell'informatica; molti algoritmi sono stati proposti, studiati a fondo e impiegati in pratica. Due metodi molto diffusi sono l'hashing statico e l'hashing estendibile e lineare, metodi utilizzati anche dai programmi DBMS.

Una piccola rubrica telefonica come esempio di hash table.

Funzionamento e implementazione[modifica | modifica wikitesto]

Il primo passo per realizzare algoritmi di ricerca tramite hashing è quello di determinare la funzione di hash: il dato da indicizzare viene trasformato da un'apposita funzione di hash in un intero compreso tra 0 ed m-1 che viene utilizzato come indice in un array di lunghezza m. Supponendo che U sia l'universo delle chiavi e T[0 ... m-1] una tabella hash, una funzione hash h, stabilisce una corrispondenza tra U e le posizioni nella tabella hash, quindi:

h:U \rightarrow \{0,1,...,m-1\}

Idealmente, chiavi diverse dovrebbero essere trasformate in indirizzi differenti, ma poiché non esiste la funzione di hash perfetta, ovvero totalmente iniettiva, è possibile che due o più chiavi diverse siano convertite nello stesso indirizzo. Il caso in cui la funzione hash applicata a due chiavi diverse genera un medesimo indirizzo viene chiamato collisione e può essere gestito in vari modi. La scelta di una buona funzione di hash è indispensabile per ridurre al minimo le collisioni e garantire prestazioni sempre ottimali. Il risultato migliore si ha con funzioni pseudo-casuali che distribuiscono i dati in input in modo uniforme. Molto spesso però, una buona funzione di hash può non bastare: infatti le prestazioni di una hash table sono fortemente legate anche al cosiddetto fattore di carico (load factor) calcolato come Celle libere/Elementi presenti e che dice quanta probabilità ha un nuovo elemento di collidere con uno già presente nella tabella. Questa probabilità, in realtà, è più alta di quanto si possa pensare, come dimostra il paradosso del compleanno. È bene dunque mantenere il load factor il più basso possibile (di solito un valore di 0.75 è quello ottimale) per ridurre al minimo il numero di collisioni. Ciò può essere fatto, ad esempio, ridimensionando l'array ogni volta che si supera il load factor desiderato.

Gestione delle collisioni[modifica | modifica wikitesto]

Di seguito vengono riportati i metodi più diffusi per la gestione delle collisioni.

  • Scansione lineare: Quando viene incontrata una collisione non si fa altro che utilizzare l'indice successivo a quello che collide, sino a che non si trovi una casella libera.
  • Scansione quadratica: Quando viene incontrata una collisione non si fa altro che utilizzare l'indice che collide elevato al quadrato con normalizzazione rispetto alla grandezza della tabella dell'indice ottenuto, sino a che non si trovi una casella libera.
  • Hashing doppio: se facendo l'hash di una chiave si incontra una collisione, allora si somma all'indice ottenuto il risultato di una nuova funzione hash (generalmente diversa dalla prima e che ha come parametro l'indice ottenuto precedentemente), e si tenta l'inserimento nel nuovo indice così ottenuto, riapplicando la seconda funzione sino a che non si trovi una casella libera.
  • Concatenazione (o con lista di trabocco): per ogni cella della tabella di hash si fa corrispondere invece di un elemento, una Lista (solitamente una lista concatenata). In questo modo un elemento che collide viene aggiunto alla lista corrispondente all'indice ottenuto.

Hashing statico[modifica | modifica wikitesto]

Nell'hashing statico si utilizza il concetto di bucket, che è l'insieme di pagine contenenti le etichette dei record di dati. Se una pagina bucket primaria è piena, viene creata una pagina di overflow. Per cercare l'etichetta corrispondente alla chiave k (M = numero di bucket) si utilizza la seguente formula di hash h(k) = \mbox{bucket} a cui appartiene l'etichetta. La funzione di hash h agisce sul campo della chiave di ricerca del record r e deve distribuire i valori su 0,...,M-1 (M bucket). Le prestazioni della ricerca dipendono molto dalla funzione h.

Le pagine di bucket primarie, nell'hashing statico, sono allocate consecutivamente. Questo può portare ad avere il problema di lunghe catene di overflow che degradano le prestazioni dato che non abbiamo pagine contigue.

Esempio di funzione hash[modifica | modifica wikitesto]

h(k) = (a*k+b) \bmod{M} (con a e b costanti)

Hashing estendibile[modifica | modifica wikitesto]

Sostanzialmente è un miglioramento dell'hashing statico, perché oltre ad inserire bucket di overflow permette di raddoppiare il numero di bucket e di riorganizzare le etichette. L'unico problema sta nella riorganizzazione delle etichette, dato che questa operazione è costosa in termini di tempo. Esistono due soluzioni. La prima (hashing estendibile) gestisce una directory di puntatori ai bucket primari, la seconda (hashing lineare) permette di risolvere il problema senza l'utilizzo delle directory ma con una famiglia di funzioni hash. Nell'hashing estendibile si parla di profondità di directory e si intende il numero minimo di bit che permette di rappresentare il numero di elementi contenuti nella directory.

Hashing lineare[modifica | modifica wikitesto]

L'hashing lineare, come accennato nel paragrafo precedente, permette di risolvere il problema delle lunghe catene di overflow senza l'utilizzo delle directory. L'idea di base è quella di utilizzare una famiglia di funzioni hash h_0,h_1,... h_n dove h_i ha un range che è la metà di quello di h_i+1. Questo vuol dire che il range di h_1 è 2^1 N

Esempio[modifica | modifica wikitesto]

Se N=32 allora il numero minimo di bit per la rappresentazione del numero è 5. Quindi h_0 = h \bmod 2^0 N cioè h_0 = h \bmod 32 La prossima funzione h_2 avrà range 5+1 e potrà rappresentare i bucket da 0 a 63. La funzione di hash sarà come segue h_1 = h \bmod 2 ^ 1 * 32

Bilanciamento spazio/tempo[modifica | modifica wikitesto]

In base alla grandezza dell'array in cui avviene la ricerca e la memorizzazione delle informazioni, si ha una tabella della complessità computazionale del tempo necessario alla ricerca stessa. A maggiore spazio disponibile, corrisponderà un minor tempo necessario nel caso peggiore.

Spazio Tempo
m = 1 O(n)
m < n O(1 + \alpha)
m \gg n O(1)

Ad n corrisponde il numero di elementi presenti nell'array, ad m il numero di posti disponibili mentre \alpha è il fattore di carico.

Analisi del costo di scansione[modifica | modifica wikitesto]

Il numero di passi da effettuare per una scansione completa della tabella è data nel caso medio da:

Esito ricerca Scansione lineare Hashing doppio / Scansione quadratica
Chiave trovata  {{1} \over {2}} + {{1} \over {2 - 2\alpha}}  {{-\log_e (1 - \alpha)\,} \over {\alpha}}
Chiave non trovata  {{1} \over {2}} + {{1} \over {(2 - 2\alpha)^{2}}}   {{1} \over {1 - \alpha}}

dove α è il fattore di carico.

Bibliografia[modifica | modifica wikitesto]

  • Thomas H. Cormen, Charles E. Leiserson, Ronald L. Rivest, Introduzione agli algoritmi. Jackson Libri, 2003, ISBN 88-256-1421-7.

Voci correlate[modifica | modifica wikitesto]

Altri progetti[modifica | modifica wikitesto]