Cache

Da Wikipedia, l'enciclopedia libera.
Se riscontri problemi nella visualizzazione dei caratteri, clicca qui.
bussola Disambiguazione – Se stai cercando altri significati, vedi Cache (disambigua).


(vedi anche Memoria cache)


La memoria cache (detta comunemente, per ellissi, cache) è un termine dell'informatica che indica una area di memoria temporanea, che memorizza un insieme di dati che possano successivamente essere velocemente recuperati quando necessari.

L'origine del nome deriva appunto dal fatto che la memoria cache ed il suo utilizzo sono trasparenti al programmatore, in pratica "nascosti" allo stesso perché amministrata direttamente dal sistema operativo o dall'hardware.

Etimologia e pronuncia[modifica | modifica wikitesto]

"Cache" è un prestito del francese. In particolare è un adattamento del termine francese "caché" (in italiano "nascosto"). Solitamente viene pronunciato come l'inglese "cash" (/ˈkæʃ/)[1] o, in alternativa, /ˈkeɪʃ/[2] o /ˈkaːʃ/.[3]

Caratteristiche e funzionamento[modifica | modifica wikitesto]

Una cache è associata ad una memoria "principale", in cui risiedono i dati. Essa è tipicamente di capienza inferiore rispetto alla memoria principale, ma il suo utilizzo è più conveniente in termini di tempo di accesso e/o carico sul sistema.

Quando è necessario l'accesso ad un dato, questo dato viene prima cercato nella cache. Se è presente e valido, viene utilizzata la copia presente. Altrimenti, viene recuperato dalla memoria principale, e memorizzato nella cache, nel caso possa servire successivamente.

La memoria principale può essere hardware come un disco rigido, ma anche un complesso database distribuito, come il DNS o il Web. In questi casi, la memoria principale può essere modificata senza passare dalla cache, il che comporta problemi di coerenza tra i dati "originali" e quelli nella cache, ovvero un possibile disallineamento.

In alcuni casi è possibile convalidare i dati contenuti nella cache interrogando la memoria principale per verificare se sono ancora sincronizzati e corretti. Questo è compito che nel web, per esempio, fanno i server proxy: chiedono al server HTTP se la pagina che posseggono è stata modificata dopo la sua memorizzazione, e se non lo è evitano di trasferirla e la ripropongono direttamente al client.

In altri casi, si utilizza un meccanismo di scadenza a tempo dei dati memorizzati, e fino a quando un dato presente nella cache non è scaduto questo viene utilizzato, anche se non corrisponde a quanto presente nella memoria principale. Questo è il meccanismo adottato dal DNS.

Una cache riduce il carico di richieste che deve essere smaltito dalla memoria principale, e dal collegamento tra questa e l'utilizzatore dei dati. Anche questo può contribuire a migliorare le prestazioni del sistema. Si pensi per esempio ad un server proxy utilizzato da molti utenti: quando un utente richiede una pagina che era già stata richiesta da un altro, il proxy potrà rispondere senza doversi collegare al sito originale, ed eviterà così di caricare sia il sito originale che la rete, migliorando così le prestazioni del sistema anche per le richieste che devono essere inoltrate ai siti originali.

Una cache utilizza un algoritmo per decidere quali dati mantenere e quali scartare, che tiene conto delle pagine utilizzate più di recente, della contiguità delle pagine, o di diversi altri fattori.

Una cache può indicizzare i dati memorizzati sulla base del loro indirizzo (un blocco di memoria o di dati su disco fisso) o del loro "nome" (cache associativa, ad esempio una pagina Web o un nome DNS).

In alcuni casi la memoria cache supporta anche la modifica dei dati. Questo è di implementazione semplice se la cache è l'unico percorso di accesso alla memoria principale, come nel caso della cache della memoria RAM presente nei processori: la cache "accetta" una operazione di scrittura verso la RAM, permettendo al processore di proseguire l'elaborazione, presenta subito al processore i dati aggiornati se questo ne chiede nuovamente la lettura, e si prende carico di scriverli sulla RAM prima di eliminare la pagina. In questo modo, se un dato in memoria è modificato frequentemente dal processore, è possibile mantenere le modifiche nella cache ed evitare continui trasferimenti verso la RAM.

Tipologie[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi CPU cache, Domain Name System#Caching e web cache.

Esistono vari tipi di cache, che si distinguono tra loro per il contesto dove vengono utilizzate.

  • La CPU cache viene utilizzata per accelerare l'accesso alle posizioni di memoria RAM usate più frequentemente. Si tratta di una piccola quantità di memoria veloce installata direttamente sul processore o nelle sue immediate vicinanze. Viene utilizzata memoria di tipo SRAM, grazie al suo ridotto consumo e alla notevole velocità.
  • La page cache consiste nell'avere una parte della RAM usata dal sistema operativo in cui si copiano dall'hard disk i dati correntemente in uso. In questo caso, l'accesso alla RAM è più veloce dell'accesso al disco. Poiché la memoria disponibile è generalmente limitata, il sistema operativo cerca di mantenere il più possibile in memoria una pagina, mantenendo una tabella delle pagine che non sono usate correntemente ma lo sono state in passato. Quando occorre caricare una pagina nuova, verrà sovrascritta la più vecchia non ancora in uso.
  • la disk cache consiste nell'avere un hard disk che ha al suo interno una parte di RAM, dove possono venire caricati i settori del disco logicamente contigui a quello richiesto. Quando si accede in lettura al disco, nel caso i dati richiesti siano presenti nella cache si evita lo spostamento della testina di lettura del disco stesso, velocizzando il reperimento dell'informazione e contribuendo al ridurre l'usura del disco stesso.
  • la DNS cache è un server DNS che non possiede informazioni autoritative, ma è in grado di chiederle ai server autoritativi e memorizzare le risposte. I server DNS utilizzati dagli utenti di Internet sono normalmente dei server cache. Il DNS usa un meccanismo di scadenza, per cui ogni record recuperato da un server autoritativo è valido per un certo tempo, dopo il quale deve essere scartato.
  • la web cache è una parte di hard disk dedicata da un server proxy http, oppure dal browser di un utente, a salvare le pagine man mano caricate durante la navigazione, che potranno pertanto essere riproposte senza doverle chiedere di nuovo al sistema remoto. In questo caso, il collo di bottiglia che si vuole eliminare è quello della larghezza di banda. Non sempre è però lecita l'operazione di mettere una pagina in cache: si pensi ad esempio a quando si fa un'operazione bancaria on line. Generalmente è la stessa pagina web che viene inviata insieme alle istruzioni sul suo possibile utilizzo in una cache; in certi casi si può forzare il proprio browser a ricaricare la pagina, tenendo schiacciato il tasto "ctrl" oppure "shift" mentre si clicca sull'icona di ricarica.
  • la Google cache, o più propriamente cache dei motori di ricerca, consiste in copie delle pagine web salvate presso i server di un motore di ricerca. Queste vengono utilizzate per due motivi: eseguire ricerche locali all'interno delle pagine ed offrire la possibilità di vedere una copia, per quanto non aggiornata, di una pagina non disponibile, per problemi momentanei o perché è stata rimossa dal server originale.

Problemi legati all'utilizzo[modifica | modifica wikitesto]

L'avere una memoria cache può complicare notevolmente la progettazione di un dispositivo elettronico o del software di gestione, dato che bisogna mantenere la coerenza tra le memorie cache e la memoria principale. Ciò si vede specialmente nelle macchine multiprocessore dove lo sviluppo dei processori e delle schede madri deve tenere conto dei potenziali problemi di coerenza delle cache e deve provvedere adeguati meccanismi che evitino corruzioni dei dati per problemi di mancata sincronizzazione tra cache e memoria principale.

Il software di gestione di una memoria cache, inoltre, deve essere altamente sofisticato sia nella realizzazione sia nella strategia di recupero dei dati (algoritmo) in modo da evitare il cosiddetto overhead da recupero. In sostanza non deve mai capitare che la ricerca o la memorizzazione di un dato di cache memory impieghi risorse (in special modo il tempo) tali da appesantire troppo il recupero stesso che, paradossalmente, diventerebbe più conveniente da memoria RAM.

In generale gli algoritmi di gestione dei dati di cache sono legati a due concetti fondamentali:

  1. località del codice
  2. eliminazione dalla cache dei dati usati meno recentemente

Il primo aspetto è legato direttamente alla redazione di codice che interessi pagine di memoria ben definite in ogni fase di elaborazione: una volta terminata l'elaborazione di una certa parte di codice le pagine di memoria utilizzate non dovrebbero più essere referenziate in modo tale da cambiare la località del codice ma anche dei dati che si utilizzeranno da quel momento in poi.

Il secondo aspetto, quindi, prevede che un dato presente in cache e appartenente ad una pagina di memoria referenziata quando la località del codice era diversa può essere eliminato dalla cache per far posto ai dati relativi alla corrente località del codice.

Note[modifica | modifica wikitesto]

  1. ^ [1] o [2]
  2. ^ Pronunciation of 'cache' | languor.us
  3. ^ Yahoo! Italia

Voci correlate[modifica | modifica wikitesto]

informatica Portale Informatica: accedi alle voci di Wikipedia che trattano di informatica