Legge di Moore

Da Wikipedia, l'enciclopedia libera.

In elettronica e informatica è indicato come prima legge di Moore il seguente enunciato:

« Le prestazioni dei processori, e il numero di transistor ad esso relativo, raddoppiano ogni 18 mesi. »

La prima legge di Moore è tratta da un'osservazione empirica di Gordon Moore, cofondatore di Intel con Robert Noyce: nel 1965, Gordon Moore, che all'epoca era a capo del settore R&D della Fairchild Semiconductor e tre anni dopo fondò la Intel, scrisse infatti un articolo su una rivista specializzata nel quale illustrava come nel periodo 1959-1965 il numero di componenti elettronici (ad esempio i transistor) che formano un chip fosse raddoppiato ogni anno.

Moore, grazie alle sue supposizioni poi diventate leggi e conosciute come prima e seconda legge di Moore è stato dunque tra coloro che hanno dato il via alla corsa all'evoluzione dei processori.

Prima legge di Moore[modifica | modifica sorgente]

Crescita del numero di transistor per processori (puntini) e previsione di Moore (linea)

Nel 1965, Moore ipotizzò che le prestazioni dei microprocessori sarebbero raddoppiate ogni 12 mesi circa. Nel 1975 questa previsione si rivelò corretta e prima della fine del decennio i tempi si allungarono a 2 anni, periodo che rimarrà valido per tutti gli anni ottanta. La legge, che verrà estesa per tutti gli anni novanta e resterà valida fino ai nostri giorni, viene riformulata alla fine degli anni ottanta ed elaborata nella sua forma definitiva, ovvero che le prestazioni dei processori raddoppiano ogni 18 mesi.

Questa legge è diventata il metro e l'obiettivo di tutte le aziende che operano nel settore, non solo la Intel. Un esempio di come i microprocessori in commercio seguano la legge di Moore è il seguente: nel maggio del 1997 Intel lancia il processore Pentium II con le seguenti caratteristiche:

dopo tre anni e mezzo, ovvero nel novembre del 2000, mette in vendita il Pentium 4 con le seguenti caratteristiche:

  • Frequenza: 1,5 GHz
  • Numero di transistor: 42 milioni

Come si può vedere, in 42 mesi le prestazioni dei processori sono circa quintuplicate, proprio come prevedeva la legge. Infatti, a ben vedere, la frequenza del processore è passata da 300 MHz a 1,5 GHz, esattamente cinque volte quella del Pentium II. Ad ulteriore conferma c'è anche il numero di transistor utilizzati per costruire il processore, un processore Pentium II è formato da 7,5 milioni di transistor, se moltiplichiamo per cinque quel valore otteniamo che il processore dovrebbe essere formato da circa 37,5 milioni di transistor, il Pentium IV è formato da 42 milioni, il che vuol dire che non solo Intel ha rispettato la legge, ma addirittura è riuscita a fare meglio.

I limiti della prima legge di Moore starebbero solo nel raggiungimento dei limiti fisici imposti per la riduzione delle dimensioni dei transistor, e quindi della scala di integrazione, al di sotto dei quali si genererebbero effetti 'parassiti' indesiderati di natura quantistica nei circuiti elettronici. Tali limiti sarebbero peraltro già stati raggiunti con la generazione dei processori Pentium al di sopra del quale l'unico modo possibile e praticabile per aumentare le prestazioni di calcolo e processamento dati è rappresentato dalla tecnologia multicore ovvero dall'accoppiamento in parallelo di più processori come avviene peraltro nei supercalcolatori dei centri di calcolo.

Tali capacità di integrazione e quindi di processamento rendono possibile l'utilizzo di applicazioni informatiche sempre più complesse quali ad esempio quelle legate all'industria dell'entertainment quali i videogiochi oppure della computer grafica, mentre semplici applicazioni di calcolo matematico, se si esclude il calcolo scientifico ad alte prestazioni, sono soddisfacibili anche con meno risorse di processamento.

Seconda legge di Moore[modifica | modifica sorgente]

Gordon Moore affermava che:

« sarebbe molto più economico costruire sistemi su larga scala a partire da funzioni minori, interconnesse separatamente. La disponibilità di varie applicazioni, unita al design e alle modalità di realizzazione, consentirebbe alle società di gestire la produzione più rapidamente e a costi minori. »

Non si tratta certamente di considerare il logaritmo sulla memoria dei chip, già noto al fondatore di Intel, ma dell'implicita enunciazione di un'altra importante legge: quella che riguarda l'efficienza dei dispositivi elettronici ed il loro costo effettivo. Come nel caso della prima, si tratta di un accordo tra fattori diversi. Ma non fu Moore a trattare questi argomenti. Infatti Arthur Rock, uno dei primi investitori nella Intel osservò preoccupato che il costo dei macchinari per la fabbrica di cui era azionista raddoppiava ogni quattro anni circa. Da qui un primo principio su cui fondare una nuova legge:

« Il costo delle apparecchiature per fabbricare semiconduttori raddoppia ogni quattro anni »

In seguito, Moore integrò definitivamente la sua legge originaria (Leyden, 1997; Ross, 1995[non chiaro]) formulandone, implicitamente, una seconda:

« il costo di una fabbrica di chip raddoppia da una generazione all'altra »

Egli fece quest'affermazione in base all'osservazione della dinamica dei costi legati alla costruzione delle nuove fabbriche di chip; costi che erano passati - in media - da 14 milioni di dollari nel 1966 a un miliardo di dollari nel 1996. Questi costi erano quindi cresciuti a un ritmo superiore rispetto all'incremento di potenza dei chip previsto dalla prima legge. La proiezione di questi costi indicava che nel 2005 una fabbrica di chip sarebbe costata 10 miliardi di dollari. L'implicazione di questo primo andamento è che il costo per transistor, oltre a smettere di diminuire, sarebbe destinato ad aumentare. Dunque Moore aveva avvertito che la validità della sua prima legge stava per giungere a termine.

Da notare però che nello stesso periodo in cui Moore in qualche modo smentiva se stesso, gli sviluppi realizzati nella litografia (anche presso l'Università del Texas) hanno consentito dei risparmi di costo e dei miglioramenti di qualità dell'output che confermavano la validità della prima legge di Moore per almeno un altro decennio. Da considerare è anche un altro aspetto che emerge quando si cita la legge di Moore: l'accentuazione che generalmente viene data al vantaggio competitivo offerto dalla tecnologia dei processori e dalle implicazioni fornite anche dalle "code" di questa tecnologia.

Poiché i processori d'avanguardia aumentano di potenza a parità di prezzo, i processori della generazione precedente, la cui potenza rimane fissa, calano di prezzo. Come osserva Karlgaard (1998):

« il corollario è che nel 2008 i chip Pentium II e PowerPC costeranno circa 75 cent" »

Significa che sarà conveniente utilizzare questi chip negli elettrodomestici, negli autoveicoli e in tutte le applicazioni ad ampia diffusione, insieme a questo è giusto considerare l'uso non destinato al personal computing di processori a 32 bit e si nota come delle unità ad Architettura MIPS dei modem ADSL con molta elettronica periferica a bordo hanno un costo (in quantità) ben inferiore al mezzo dollaro. In aggiunta oggi una fabbrica costa sempre circa 2-3 miliardi di dollari (USD), mentre la sua produttività è cresciuta a dismisura in throughtput e in volumi specifici. Di conseguenza, occorre effettivamente analizzare anche il ciclo del valore e dei volumi del prodotto finale. Ad esempio, una nuova macchina da 10 milioni di Euro, che può produrre miliardi di transistor in più, permetterà di ottenere un vantaggio competitivo in maniera indipendente dal costo dell'impianto produttivo e del ciclo di rimpiazzo delle linee di produzione. Sempre se il prodotto viene venduto completamente.

Tutte le innovazioni tecnologiche e il miglioramento della qualità dei materiali che hanno reso possibile il processo di scala dei dispositivi hanno comportato, però, investimenti sempre crescenti in apparecchiature: da queste osservazioni si può comprendere il perché di un'ulteriore interpretazione della seconda legge di Moore:

« L'investimento per realizzare una nuova tecnologia di microprocessori cresce in maniera esponenziale con il tempo. »

Ovviamente, per incrementare le prestazioni, occorrono sempre maggiori studi, ricerche e test. Per aumentare il numero di transistor all'interno del processore, senza aumentare la dimensione del processore stesso, occorrono dei componenti sempre più piccoli, quindi nuovi materiali che permettano questo risultato. L'aumento delle prestazioni comporta dei test, sia per provare la resistenza dei materiali, sia per l'affidabilità stessa del processore. Tutto questo ovviamente comporta delle spese che la casa produttrice deve affrontare se vuol avere un prodotto funzionante e funzionale.

Al momento attuale, fermo restando il fatto che l'entità dell'investimento dipende in maniera significativa dal tipo di prodotto in sviluppo e dalle economie di scala che si intendono effettuare, una stima intorno ai 2-5 miliardi di dollari non sembra lontana dal vero. Ogni nuova linea pilota richiede, quindi, investimenti (e coinvolge ricercatori) paragonabili con quelli degli acceleratori di particelle o dell'esplorazione spaziale. Anche se l'industria microelettronica spende tradizionalmente circa il 20% del proprio fatturato in nuove fabbriche e il 12-15% in ricerca e sviluppo, la crescita degli investimenti richiesti per una nuova linea pilota tende a rappresentare una porzione, sempre più alta, del fatturato, con alcune implicazioni economiche rilevanti:

  • riduzione nel numero di società che si possono permettere linee pilota avanzate;
  • fenomeni di associazione di società diverse per condurre la ricerca in comune (SEMATECH, associazione di Motorola, Philips ed ST per la nuova linea da 300 mm ecc.);
  • crescita dei rischi connessi ad un investimento sbagliato, che colpisce, soprattutto, le società che sviluppano le attrezzature di produzione nel settore della microelettronica.

In generale, si sta quindi assistendo ad un fenomeno di netto consolidamento del settore, sintomo di una industria matura, con alte barriere di ingresso, tendenza sensibile all'oligopolio ed una forte riduzione della propensione al rischio. È comunque presente un problema, che invita a calmare gli entusiasmi, dato dalla necessità di garantire un ritorno economico adeguato per gli investimenti iniziali fatti: ogni nuova generazione tecnologica deve produrre utili sufficienti a ripagare le spese di sviluppo, e questo è possibile solo se si aprono nuovi mercati di massa. In quest'ottica potrebbe arrivare un momento in cui non esisteranno più applicazioni di massa tali da giustificare economicamente lo sviluppo di nuove tecnologie a prestazioni superiori. Esiste quindi una forte spinta a cercare vie alternative che garantiscano la continuazione della situazione attuale per il più lungo tempo possibile e salvaguardare così il mercato. A questo proposito bisogna tenere presente che il punto critico non è costituito tanto dalle dimensioni del transistor quanto piuttosto dalla possibilità di produrre circuiti integrati sempre più complessi e a costi sempre più bassi.

Voci correlate[modifica | modifica sorgente]

Altri progetti[modifica | modifica sorgente]

informatica Portale Informatica: accedi alle voci di Wikipedia che trattano di informatica