Multi core

Da Wikipedia, l'enciclopedia libera.

In elettronica il termine Multi core viene utilizzato per indicare una CPU composta da 2 o più core, ovvero da più nuclei di processori "fisici" montati sullo stesso package.

Il termine Multi core è ovviamente generico e, sebbene adatto a descrivere CPU a 2 soli core o più core, può essere affiancato anche con altri temni specifici della soluzione adottata per la CPU, quali dual core, quad core, octa core o l'ultimo nato hexa core (1, 2, 4, 8 o 6 core). Questo tipo di architettura rispetto alla single core consente di aumentare la potenza di calcolo di una CPU senza aumentare la frequenza di clock di lavoro, a tutto vantaggio del calore dissipato (che diminuisce rispetto al caso di più processori separati) così come l'energia assorbita.

Dai processori Dual Core ai Multi Core[modifica | modifica wikitesto]

Nel corso del 2005 arrivarono i primi chip dual core per mercato desktop, sempre grazie a Intel che presentò i primi Pentium D Smithfield; in quel periodo si era giunti ad un livello tecnologico di sviluppo hardware che non consentiva più di aumentare la potenza di elaborazione incrementando semplicemente la frequenza di clock. Fino a quel momento il continuo aumento delle prestazioni era stato basato soprattutto sull'aumento della frequenza operativa grazie alle innovazioni offerte dai processi produttivi sempre più miniaturizzati. Si giunse però a un punto tale per cui aumentare ulteriormente le frequenze delle CPU single core, malgrado le dimensioni minime dei transistor, comportava ormai consumi troppo elevati in relazione al modesto aumento di prestazioni (a quei tempi un processore single core top di gamma superava abbondantemente i 100 W di consumo massimo) e questo ovviamente aveva serie ripercussioni anche sul gravoso problema del raffreddamento dei circuiti.

La soluzione che sembrò più ovvia ai progettisti di microprocessori fu quella di puntare tutto sul parallelismo in modo da poter aumentare il numero di operazioni eseguibili in un unico ciclo di clock [senza fonte]. Questo nuovo approccio comunque non era del tutto indolore e comportava anche alcuni svantaggi, in quanto i programmi dovevano essere ottimizzati per un utilizzo multi-thread [senza fonte] parallelizzati anch'essi (ciascun programma eseguito in più parti) per poter sfruttare appieno le caratteristiche di questi processori, in caso contrario essi avrebbero impegnato solo uno dei core, lasciando l'altro pressoché inutilizzato. Paradossalmente, era anche possibile che un programma applicativo non pensato per un'esecuzione di tipo parallelo, risultasse di più lenta esecuzione su un processore multi core rispetto a uno single core, e infatti al momento del lancio dei primi esemplari, erano veramente pochi i software già pronti per queste nuove architetture. Tale incapacità di raggiungere i livelli di prestazione teorici dei sistemi a parallelismo massiccio è nota come sindrome di von Neumann [senza fonte].

Il problema citato si presentò ovviamente già con i primi processori dual core, e a maggior ragione era evidente con i primi processori a 4 core che richiedevano ancora di più l'esistenza di applicazioni ottimizzate per poter esprimere il proprio potenziale, ma in ogni caso si trattò ovviamente di un problema transitorio. Diversi analisti software infatti, prevedevano già allora che se il software pensato per un utilizzo parallelo in ambito dual core fosse stato realizzato in maniera oculata, tenendo conto non del funzionamento su un sistema dual core, ma su un sistema a più core, esso non avrebbe richiesto poi grosse modifiche per essere utilizzato su un dual core o su un quad core. Secondo altri invece, gli sforzi necessari per realizzare software multi processore che avrebbe funzionato in maniera ottimale saturando tutti i core e non occupandoli in modo disomogeneo sarebbero stati esagerati in relazione con i reali vantaggi, soprattutto di impatto di costi. Su una materia tanto nuova in ambito desktop, ai tempi non si poteva fare altro che attendere maggiori dettagli, ma il tempo ha poi portato gli sviluppatori ad acquisire sempre maggiore esperienza e dimestichezza con la programmazione parallela e molti dei timori dei primi giorni risultano ormai superati.[senza fonte]

Primi processori Multi core[modifica | modifica wikitesto]

I primi esemplari di CPU multi core vennero presentati da IBM con il suo PowerPC nel 2003, ma solo nel 2005 si hanno prodotti per il mercato consumer, con Intel alla fine del 2005, mediante i processori Pentium D basati su core Smithfield, mentre la rivale AMD lanciò i nuovi Athlon 64 X2 nel 2005.

Intel ha avuto il merito di rendere i processori quad core (4 core) disponibili per il grande pubblico mediante i Core 2 Extreme e Core 2 Quad basati su core Kentsfield, ma i primi processori multi core con più di 2 core vennero presentati sul mercato verso la fine del 2005; si tratta del Cell, sviluppato congiuntamente da IBM, Sony e Toshiba per il mercato console/blade server e composto da 8 core eterogenei, e l'UltraSPARC T1, processore a 8 core omogenei sviluppato da Sun Microsystems per il mercato server (In particolare per Web server con numerosi accessi) capace di gestire 32 thread simultaneamente. Questo tipo di architettura, al pari dei sistemi dual core e più generalmente, di tutti i sistemi biprocessore e multiprocessore, consente di aumentare la potenza di calcolo senza aumentare la frequenza di lavoro, a tutto vantaggio del calore dissipato, oltre a garantire maggiori prestazioni in ambiti molto specifici dove più che un'alta potenza di calcolo è richiesto un grande parallelismo.

L'octa core è stato progettato per far lavorare quattro core per volta a seconda del carico di operazioni, mentre il processore hexa core (6 core) fa lavorare contemporaneamente tutti e 6 i core per prestazioni più performanti.

Considerazioni sui processori Dual/Multi core[modifica | modifica wikitesto]

Esistono differenti approcci attraverso i quali si possono realizzare chip multi core, ciascuna con precise peculiarità; per ulteriori informazioni si rimanda alle seguenti voci di approfondimento che, sebbene riferite a processori dual core, espongono comunque concetti di carattere generale che ben si dattano a considerazioni su CPU a più core in generale:

Sfruttamento da parte dei SO[modifica | modifica wikitesto]

Ogni sistema operativo gestisce in modo differente le potenzialità dei processori multicore, in alcuni casi queste gestioni variano anche a seconda della versione del sistema operativo (Windows XP, Windows XP SP2 professional, ecc), tuttavia pur implementando il supporto a varie tecnologie hardware e soluzioni software non è detto che si possa assistere a reali vantaggi, in quanto i programmi non sempre supportano queste architetture hardware in modo efficiente, limitando i vantaggi all'utilizzi di più programmi contemporaneamente, per questo bisognerebbe riscrivere il kernel per poter sfruttare le potenzialità multicore a pieno.[1][2]

Le prime implementazioni nei sistemi Microsoft si ha con la versione SP2 professional di Windows XP, con un supporto limitato all'architettura hardware SMP (Symmetric multiprocessing o Symmetric multiprocessor) dove i Core o processori accedono ad uno spazio di memoria condiviso, mentre dal punto di vista software viene usata la funzionalità processor affinity che identifica i Core come Core0 e Core1, consentendo all'utente di decidere su quale di essi avviare ed eseguire l'applicazione, successivamente l'approccio venne rivisto prima con Windows Vista poi con Windows 7, quest'ultimo supporta soluzioni hardware NUMA (Non-Uniform Memory Access)[3].

Nei sistemi Apple Mac OS X con la versione 10,6 c'è l'introduzione del Grand Central Dispatch per implementare il parallelismo a livello di thread, migliorando il supporto ai multicore.

Nei sistemi basati su kernel Linux, si ha il primo supporto all'hardware SMP con la versione 2 del kernel, che comprendeva un big kernel lock (BKL) per la gestione degli interrupt, successivamente con la versione 2.2 i gestori d'interrupt avevano spinlock differenziati, alcune distribuzioni e ottimizzazioni inclusero il codice di supporto per sistemi NUMA. Nella versione 2.4 sempre più sottosistemi vennero gestiti al di fuori del BKL, grazie all'introduzione di nuovi database lock, ma presenta ancora spinlocks che coprono interi sottosistemi, questo permise di milgiorare la scalabilità, che migliorò ulteriormente con la versione 2.5 del kernel, che ottimizzò la cache della pagina dei lock di conversione da un singolo blocco di codice a più blocchi di dati.
Con la versione 2.6 il BKL venne relegato ad una piccola parte del codice del kernel, in quanto la maggior parte del BKL venne convertito in database lock con elevata sintonizzazione e scalabilità per eliminare il ripetersi della linea di cache condivisa, mentre nei sottosistemi critici c'è un certo uso di approcci di lock meno avanzati, quali Read-Copy-Update (RCU), venne introdotto un nuovo programmatore multi CPU di coda, risolvendo le contese sulle code di esecuzione globali condivise da più CPU, riducendo il sovraccarico dei processi di pianificazione in parallelo. Questo scheduler venne introdotto anche su alcuni kernel 2.4 delle ultime distribuzioni.[4][5]

Note[modifica | modifica wikitesto]

  1. ^ Windows poco efficiente con le CPU multi-core
  2. ^ Sistemi multiprocessore e multicore
  3. ^ Windows e le CPU Multi-Core
  4. ^ Linux multi-core scalability
  5. ^ How well does Linux support multi-core CPUs?

Voci correlate[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]

informatica Portale Informatica: accedi alle voci di Wikipedia che trattano di informatica