NVIDIA

Da Wikipedia, l'enciclopedia libera.
NVIDIA Corporation
Logo
StatoStati Uniti Stati Uniti
Borse valoriNASDAQ: NVDA
ISINUS67066G1040
Fondazione1993
Fondata da
Sede principaleSanta Clara
Persone chiaveColette Kress (EVP, CFO)
SettoreSemiconduttori
Prodotti
Fatturato6,910 miliardi $[1] (2016)
Utile netto1,666 miliardi $[1] (2016)
Dipendenti9.228[2] (2015)
Slogan«The way it's meant to be played»
Sito web

NVIDIA Corporation (titolo nasdaq NVDA) è una grande azienda produttrice di processori grafici, schede madri e componenti per prodotti multimediali per PC e console come la prima Xbox, Playstation 3 e Nintendo Switch. Il suo quartier generale è a Santa Clara in California.

Il nome aziendale è stato scelto in quanto ricorda le parole "video" e "invidia" (in particolare, si pronuncia come lo spagnolo "envidia").

Prodotti[modifica | modifica wikitesto]

NVIDIA è nota prevalentemente per la produzione di schede video, nelle linee GeForce (destinate al grande pubblico) e Quadro (per impieghi professionali); oltre che chipset per schede madri nella linea nForce e di SoC (System-on-a-chip) per dispositivi portatili (cellulari, GPS, UMPC) con la famiglia Tegra. Nel 2007 inoltre, è stata presentata anche la linea Tesla ottimizzata per elaborazioni di tipo GPGPU attraverso la piattaforma CUDA. Infine l'azienda opera anche nel campo delle comunicazioni wireless e software per riproduttori video digitali.

La compagnia ha una natura simile alla propria ex-rivale ATI (marchio non più utilizzato dall'azienda che l'ha acquisita, AMD) da molti punti di vista: come ATI, è nata rivolgendosi al mercato dei PC, per poi affacciarsi su altri settori dell'elettronica. NVIDIA non vende direttamente le proprie schede, ma si concentra sulla progettazione e sulla costruzione delle GPU, e affida l'assemblaggio delle schede ad una rosa di partner commerciali attraverso le specifiche da lei elaborate (chiamate "reference design").

Nel dicembre del 2004 fu annunciato l'accordo con Sony per la progettazione della componente grafica della futura Playstation 3, chiamata RSX, basata su processore G71. A marzo 2006 è stato dichiarato che NVIDIA avrebbe lasciato l'intera costruzione del chip a Sony, affiancandola nella messa in produzione dello stesso in una delle sue fabbriche e nei passaggi di processo di produzione (ad esempio nella transizione a 65 nm). Questo è in controtendenza con l'accordo che era stato firmato con Microsoft per la piena produzione (attraverso le fonderie associate con NVIDIA) del componente grafico dell'Xbox. Per la generazione dell'Xbox 360 Microsoft ha invece scelto ATI.

Storia[modifica | modifica wikitesto]

Jen-Hsun Huang, Chris Malachowsky e Curtis Priem fondarono la compagnia nel gennaio del 1993[3] e stabilirono la sede in California nell'aprile 1993; la sua attività iniziò a crescere tra gli anni 1997 e 98, quando fu lanciata la gamma di processori grafici per PC RIVA. Nel gennaio 1999 fu quotata in borsa al Nasdaq e nel maggio dello stesso anno vendette il decimilionesimo processore grafico. Alla fine dell'anno presentò la GeForce 256, il primo modello della gloriosa serie. Nel 2000 NVIDIA acquisì la rivale 3dfx, una delle più grandi compagnie negli anni novanta. Nonostante le difficoltà incontrate successivamente con la serie GeForce FX, la società sarebbe poi riuscita a rimontare lo svantaggio su ATI con le serie GeForce 6 e 7, e ponendosi come apripista nel territorio inesplorato delle DirectX 10 con la serie GeForce 8. Alla metà del 2006, NVIDIA ha un saldo terzo posto nel mercato video, e la leadership nel settore discreto (come confermano numerose ricerche di mercato). Nel febbraio 2008 ha acquisito Ageia Technologies, azienda specializzata nello sviluppo di middlewere e componenti hardware deputati all'accelerazione dei modelli fisici utilizzati dai videogiochi.[4]

Schede video[modifica | modifica wikitesto]

Modelli e caratteristiche[modifica | modifica wikitesto]

Modello Anno Codename Fascia Descrizione
Bassa Media Alta Enthusiast
NV1 - NV1 - - - - La prima scheda video prodotta da NVIDIA
NV2 (mai rilasciato) NV2 - - - - Il secondo processore grafico NVIDIA, mai ultimato
RIVA 128 e RIVA 128ZX 1997/1998 NV3 Riva 128

Riva 128ZX

Supporto per DirectX 5 e OpenGL 1.0; la prima scheda con supporto DirectX dell'azienda
RIVA TNT e RIVA TNT2 1999/2000 NV4

NV5

Riva TNT

Riva TNT2

Supporto DirectX 6 e OpenGL 1.2; la serie che ha regalato il successo alla NVIDIA
GeForce 256 1999 NV10 - GeForce 256 SDR GeForce 256 DDR - Supporto DirectX 7 e OpenGL 1.2, transform & lighting via hardware, introduce le DDR
GeForce 2 2000 NV11

NV15

NV16

GeForce MX Series GeForce GTS Series

GeForce Pro Series

GeForce Ti Series

GeForce Ultra Series

- DirectX 7 e OpenGL 1.2
GeForce 3 2001 NV20 - GeForce 3

Ti 200

GeForce 3

Ti 500

- DirectX 8.0 e OpenGL 1.3, possiede un'architettura che permette di risparmiare banda verso la memoria
GeForce 4 2002 NV17

NV18

NV19

NV25

NV28

- Ti 4200

Ti 4400

Ti 4800 SE

Ti 4600

Ti 4800

- DirectX 8.1 e OpenGL 1.3 (tranne le MX), la versione economica MX è basata sulla GeForce 2
GeForce FX (5) 2003 NV30

NV31

NV34

NV35

NV36

NV38

5200

5300

5500

5600 5700

5750

5800

5900

5950

5800 Ultra

5900 Ultra

5950 Ultra

DirectX 9 e OpenGL 1.5
GeForce 6 2004/2005 NV40

NV41

NV42

NV43

NV44

NV45

NV48

6100 (IGP)

6150 (IGP)

6200

6500

6600

6700

6800 6800 Ultra / Ultra Extreme DirectX 9.0c e OpenGL 2.1, offriva shader migliorati, elaborazione migliorata flussi video tramite la tecnologia PureVideo, consumi ridotti e supporto per la configurazione SLI
GeForce 7 2005/2006 G70 (NV47)

G71

G72

G73

7025 (IGP)

7050 (IGP)

7100

7150 (IGP)

7200

7300

7350

7500 (OEM)

7600

7650

7800

7900

7950

- DirectX 9.0c e OpenGL 2.1, supporto per WDDM (Windows Display Driver Model), anti-aliasing TSAA (Transparency Adaptive Supersampling) e TMAA (Transparency Adaptive Multisampling), tecnologia PureVideo migliorata (Spatial Temporal De-interlacing HD, decodifica H.264 ed Inverse Telecine 3:2/2:2 Pull-down e Bad Edit Correction), SLI
GeForce 8 2006 G80

G84

G86

G92

(G98, GT218)

8100 (IGP)

8200 (IGP)

8300

8400

8500

8600 8800 GS/GT/GTS 8800 GTX/Ultra DirectX 10 e OpenGL 3.3, la prima serie di schede NVIDIA ad utilizzare la tecnologia HD (Pure Video HD), architettura unificata per gli shader, CSAA (Coverage Sampling AntiAliasing), tecnologia Quantum Effects per la gestione della fisica, introduce il supporto a CUDA
GeForce 9 2008 G92a/b

G94a/b

G96a/b

G98

9100

9200

9300GS/GT

9300GE

9400GS/GT

9500GS/GT

9600 9800 GT 9800 GTX/GTX+/GX2 DirectX 10 e OpenGL 3.3, supporta la tecnologia HD (PureVideo HD), tecnologia Quad NVIDIA SLI. Utilizza HybridPower, che a parità di prestazioni offre un netto risparmio energetico
GeForce 100 2009 G92b

G94b

G96b

G98

G100

GT 120

GT 130

GT 140

GTS 150 - DirectX 10.0, Shader Model 4.0 e OpenGL 3.3,
GeForce 200 2008/2009 G92

GT200

205

210

GT 220

GT 230

GT 240

GTS 250

GTX 260

GTX 275

GTX 280

GTX 285

GTX 295

DirectX 10 e 10.1(su alcuni modelli) e OpenGL 3.3, supporta la tecnologia HD (PureVideo HD). Utilizza HybridPower, che a parità di prestazioni offre un netto risparmio energetico
GeForce 300 2009/2010 GT215

GT216

GT218

G92b

310

315

GT 320

GT 330

GT 340 - - DirectX 10.1 e OpenGL 3.3, supporta la tecnologia HD (PureVideo HD). Utilizza Optimus(GPU mobile), che offre un netto risparmio energetico senza sacrificare le prestazioni
GeForce 400 2010 GF100

GF104

GF106

GF108

GF114 (Fermi)

GT 430 GT 440

GTS 450

GTX 460

GTX 465

GTX 470

GTX 480 DirectX 11 e OpenGL 4.2 (tranne GeForce 405 che supporta DirectX 10.1 e OpenGL 3.3)
GeForce 500 2010 GF106

GF108

GF110

GF114

GF116

GF119

510

GT 520

GT 530

GT 545

GTX 550 Ti

GTX 560

GTX 560 Ti

GTX 570

GTX 580

GTX 590

- DirectX 11 e OpenGL 4.2
GeForce 600 2012 GK104

GK106

GK107

GT 605M

GT 610M

GT 620

GT 620M

GT 630M

GT 635M

GT 640

GT 645M

GTX 650

GTX 650M

GTX 650 Ti

GTX 650 Ti Boost

GTX 660

GTX 660 Ti

GTX 670

GTX 680

GTX 675MX

GTX 680M

GTX 680MX

GTX 690

DirectX 11 e 11.1 (in alcuni modelli il supporto DirectX 11.1 manca di alcune funzionalità non legate al gaming[5]), OpenGL 4.3 e Open CL 1.2.
GeForce 700 2013 GF117

GF119

GK104

GK106

GK107

GK110

GK208

GM107

GT 705

GT 710 GT 720

GT 730

GT 740

GTX 750

GTX 750 Ti

GTX 760 GTX 760 Ti

GTX 770

GTX 780

GTX 780 Ti

GTX Titan

GTX Titan Black

GTX Titan Z

Direct3D 11 e 12, OpenCL 1.2, OpenGL 4.5, CUDA 3.5
GeForce 800M 2014 Kepler (GK)

Maxwell (GM)

800M

820M

830M

840M

GTX 850M

GTX 860M

GTX 870M GTX 880M Direct3D 11 e 12, OpenCL 1.2, OpenGL 4.5, CUDA 3.5
GeForce 900 2014 GM200

(Maxwell)

920M

920MX

930M

930MX

940M

940MX

GTX 950M

GTX950

GTX 960M

GTX 965M

GTX 970M

GTX 970 GTX 980M

GTX 960

GTX 980

GTX 980 Ti

GTX Titan X

Direct3D 11.3 e 12 (livello di funzionalità 12_1), OpenCL 1.2, OpenGL 4.5, CUDA 5.2
GeForce 1000 2016 GP104

GP102 (Pascal)

1030 GTX 1050

GTX 1050 Ti

GTX 1060

GTX 1070

GTX 1070 Ti

GTX 1080

GTX 1080 Ti Titan X (Pascal)

Titan Xp

Direct3D 12, 12.1 e superiori. OpenGL 4.5, Vulkan 1.0, OpenCL 1.2

Modelli recenti[modifica | modifica wikitesto]

NVIDIA ha prodotto numerose schede video, dividendo le serie a seconda delle performance e delle caratteristiche, qui sotto sono elencate le serie più recenti in ordine di tempo.

  • La serie GeForce 5, meglio identificata come FX, ha dato alla luce le 5200, 5500, 5600, 5700, 5800, 5900 e 5950. Molti di questi modelli sono in realtà stati generati da piccole revisioni, dovute a delle scelte di progettazione oggi discutibili. Al suo debutto vennero utilizzate le nuove memorie DDR 2, più moderne ma costose, che si rivelarono presto una tecnologia ancora acerba e vennero quindi sostituite con delle più consuete DDR. Le top di gamma FX erano notorie per sviluppare un grande calore, al quale però non seguiva un proporzionato aumento nelle prestazioni. Riuscirono a reggere il confronto con le concorrenti Radeon sin quando non si iniziò a fare un uso massiccio degli shader, senza i quali venivano comunque avvicinate dalla serie precedente, ossia le GeForce 4.
  • La serie GeForce 6, lanciata verso l'inizio del 2005, include i modelli 6800[6], 6600[7] e 6200 TC[8] basati su GPU nv43 La fascia bassa (6200) comprende un paio di schede adatte per applicazioni Media Center grazie alla tecnologia TurboCache, che consente il rapido accesso alla memoria di sistema condivisa sfruttando la banda passante del nuovo BUS PCI-Express. Sebbene queste GPU fossero progettate per funzionare su questo tipo di bus (e per essere quindi configurate in SLI), buona parte di queste schede è stata prodotta in AGP sfruttando un apposito convertitore. La possibilità di configurare sistemi SLI e le prestazioni superiori fecero di queste schede le soluzioni più convenienti per un lungo arco di tempo.
  • La serie GeForce 7 include i modelli 7300 TC, 7600[9], 7800 e le sue più recenti revisioni 7900 e 7950. Questa gamma di processori grafici si distingue in particolar modo per i consumi relativamente ridotti rispetto alle prestazioni che sono in grado di offrire, grazie anche all'uso di un processo produttivo a 90 nanometri per i più recenti chip G71. Questo ha permesso anche la realizzazione di sistemi Quad-SLI, soluzione che offre prestazioni grafiche estreme, purché vi sia il supporto da parte dei driver.
  • La serie GeForce 8, prodotta con il chip G80 (ed i suoi derivati G83 e G86), in vendita da novembre 2006 con i modelli 8800 introduce il supporto alle librerie DirectX 10, e perfino in DX9 garantisce prestazioni doppie rispetto alle schede di fascia alta della precedente generazione. Ne sono derivate da questa serie le schede: 8400GS - 8600GS - 8800GT - 8800GTS - 8800GTX - 8800Ultra. Queste schede hanno rappresentato (fino all'uscita del chip GTX200) la fascia alta (8800GT e GTS) e massima (8800GTX - 8800Ultra). Queste ultime 2 supportano anche la tecnologia 3-way SLI, cioè l'installazione di 3 schede video collegate tra loro in un unico Computer, per garantire fino al 280% in più di prestazioni. Le schede 8800GTS sono state prodotte con 2 diverse quantità di memoria, 320 e 640MB.
  • La serie GeForce 9, prodotta con il chip G92 (e il derivato G94) a 65 nm, a partire dal 2007 garantisce prestazioni superiori alla serie 8 con le schede 9800GTX (più debole di 8800 ULTRA ma più forte di 8800GTS) e 9800GX2. Altre schede di questa serie sono le 9600GT e le 9500GT uscite recentemente. Anche la scheda 8800GT ha risentito di una revisione, ed è ora in vendita come 9800GT (G94). In ultimo la 8800GTS che monta ora un processore G92 a 65 nm e ha 512 MB di memoria GDDR3. Con l'introduzione della 9800GX2, NVIDIA ha rispolverato la tecnologia Quad-SLI, tecnologia che permette di avere 4GPU per la massima prestazione grafica.
  • La serie GeForce 200, a partire dal 2008, introdusse la nuova micro-architettura "Tesla" prodotta a 65nm da TSMC e propose inizialmente le seguenti schede: (GT200-A2) GeForce GTX280 e GeForce GTX260, entrambe con il supporto allo SLI (Scan Line Interface, ovvero un calcolo parallelo su schede in multislot). Nell'anno successivo (2009) grazie al passaggio ad un più evoluto processo produttivo (55nm) furono introdotti ulteriori chip: (GT200-B3) GeForce GTX295 (DualGPU), GeForce GTX285, GeForce GTX275. La GTX295 è una scheda a 2 GPU con tecnologia a sandwich simile alla GeForce 9800GX2. Sempre nel 2009, ma con il precedente processo produttivo a 40nm, sono state immesse sul mercato ulteriori soluzioni di fascia bassa: (GT215) GeForce GT240, (GT216) GeForce GT220, (GT218) GeForce 210, GeForce 205. Alla serie 200 appartengono anche GPU rimarchiate delle serie 9 per realizzare: (G92) GeForce GTS250, GeForce GTS240; (G92 o G94) GeForce GT230. All'interno di queste GPU non è presente alcun modulo in grado di accellerare l'encoding dei formati compressi in hardware, i quali possono però avvantaggiarsi, attraverso la tecnologia PureVideo HD di seconda generazione, del motore VP2 (introdotto nella serie 9 nei chip G98) in grado di garantire un'accelerazione parziale nella fase di decoding ai seguenti formati video: MPEG-2, VC-1/WMV9 e H.264 (quest'ultimo formato non poteva però essere decodificato alle seguenti larghezze di pixels: 769-784, 849-864, 929-944, 1009-1024, 1793-1808, 1873-1888, 1953-1968, 2033-2048). Il supporto DirectX era totalmente compatibile con la versione 10 (10.1 in GT215, GT216 e GT218), mentre le API OpenGL con la versione 2.1 (3.1 in GT215, GT216 e GT218). In "Tesla" il supporto al GP-GPU attraverso la tecnologia CUDA che permette la programmazione diretta della GPU attraverso linguaggi C, C+ e Fortran, arriva alla versione 1.3. Le caratteristiche prestazionali della GPU Tesla più spinta (GT200-B3) sono da attribuirsi al modello GTX285 con 1,1923 TFLOPS in singola precisione (FP32) e 99,36 GFLOPS in doppia precisione (FP64 in GT200 ottenuti come: FP32/12); 20,736 GPixel/s di Pixel Rate e 51,84 GTexel/s di Texel Rate. Questo chip era caratterizzato da: 1,40 milioni di transitor, 240 Shading Units, 80 Texture Mapping Units, 32 Render Output Processors, 240 CUDA Cores (Single Precision), 20 CUDA Cores (Double Precision), un TDP di 204 Watt, un die di 470mmq, il supporto al PCI-E 2.0 x16, 1.024 MB GDDR3 con un bus di 512bit per un memory bandwidth di 159,0 GB/s. Le uscite video supportate dalla GTX285 includevano le DVI Dual-Link con supporto HDCP.
  • La serie GeForce 400, introduce i chip con una nuova micro-architettura "Fermi" prodotta a 40nm e comprende le seguenti schede: (GF100) GeForce GTX480 - GeForce GTX470 - GeForce GTX465; (GF114) GeForce GTX460/rev.1, GeForce GTX460 SE; (GF106) GeForce GTS450, GeForce GT440/rev.1; (GF108) GeForce GT430, GeForce GT420; infine una GPU rimarchiata delle serie 200 per realizzare: (GT216 e GT218) GeForce GT405. All'inizio sono state presentate due schede video: GTX480 e GTX470 ossia le prime schede video desktop ad adottare il chip con architettura "Fermi". Successivamente è stata presentata la scheda video GTX460 che utilizza la prima evoluzione del chip GF100 ossia il GF104, questa scheda video è stata presentata in tre versioni differenti: due versioni con 1GB di memoria video (si differenziano per il numero di Stream Processor attivi) e una versione con 768 MB di memoria. All'interno di queste GPU non è presente alcun modulo in grado di accellerare l'encoding dei formati compressi in hardware, i quali possono però avvantaggiarsi, attraverso la tecnologia PureVideo HD di quarta generazione, del motore VP4 (introdotto nella serie 200 nelle schede GT220 e GT240) in grado di garantire un'accellerazione nella fase di decoding ai seguenti formati video: MPEG-4 ASP (Advanced Simple Profile), MPEG-1, MPEG-2 (ad esclusione del Global Motion Compensation e del Data Partitioning), VC-1/WMV9 e H.264. Il supporto DirectX era totalmente compatibile con la versione 11.1, mentre l'OpenCL con la versione 1.1 (successivamente 1.2), le API OpenGL con la versione 4.5 (successivamente 4.6). In "Fermi" il supporto al GP-GPU attraverso la tecnologia CUDA che permette la programmazione diretta della GPU attraverso linguaggi C, C+ e Fortran, arriva alla versione 2.0, e passa alla versione 2.1 nei chip: GF104, GF106, GF108. Le caratteristiche prestazionali della GPU Fermi di prima generazione più spinta (GF100) sono da attribuirsi al modello GTX480 con 1,34496 TFLOPS in singola precisione (FP32) e 168,12 GFLOPS in doppia precisione (FP64 in GF100 ottenuti come: FP32/8; mentre in GF114 ottenuti come FP32/12); 33,6 GPixel/s di Pixel Rate e 42 GTexel/s di Texel Rate. Questo chip era caratterizzato da: 3,10 milioni di transitor, 480 Shading Units, 60 Texture Mapping Units, 48 Render Output Processors, 480 CUDA Cores (Single Precision) dei totali 512 CUDA cores del chip GF100 per via della disabilitazione di un solo Stream Processor (15 anziché 16), 60 CUDA Cores (Double Precision), un TDP di 250 Watt, un die di 529mmq, il supporto al PCI-E 2.0 x16, 1.536 MB GDDR5 con un bus di 384bit per un memory bandwidth di 177,4 GB/s. Le uscite video supportate dalla GTX480 prevedevano, oltre la DVI Dual-Link, la mini-HDMI 1.4a introducendo il supporto audio LPCM multi-canale via PCI-E, ma solo per le tracce "lossless", tenendo esclusi però i bit-streaming TrueHD e DTS-HD Master Audio.
  • La serie GeForce 500 segna, con i suoi chip, l'evoluzione della micro-architettura "Fermi", introdotta nella serie 400, confermando il processo produttivo a 40nm e comprende le seguenti schede: (GF110) GeForce GTX590 (DualGPU), GeForce GTX580, GeForce GTX570, GeForce GTX560Ti/rev.2; (GF114) GeForce GTX560, GeForce GT560SE, GeForce GTX555; (GF116) GeForce GT550Ti, GeForce GT545; (GF119) GeForce GT510; infine una GPU rimarchiata delle serie 400 per realizzare: (GF108) GeForce GT520. Analogamente alla serie 400 all'interno di queste GPU non è presente alcun modulo in grado di accellerare l'encoding dei formati compressi in hardware, i quali possono però avvantaggiarsi in fase di decoding del motore VP4 (di quarta generazione) in grado di accellerare i seguenti formati video: MPEG-4 ASP (Advanced Simple Profile), MPEG-1, MPEG-2 (ad esclusione del Global Motion Compensation e del Data Partitioning), VC-1/WMV9 e H.264. Il supporto DirectX era totalmente compatibile con la versione 11.1, mentre l'OpenCL con la versione 1.1 (successivamente 1.2), le API OpenGL con la versione 4.5 (successivamente 4.6). In GF110, totalmente riprogettato rispetto a GF100, il supporto al GP-GPU attraverso la tecnologia CUDA che permette la programmazione diretta della GPU attraverso linguaggi C, C+ e Fortran, rimane alla versione 2.0, e passa alla versione 2.1 nei chip: GF114, GF116, GF119. Le caratteristiche prestazionali della GPU Fermi di seconda generazione più spinta (GF110) sono da attribuirsi al modello GTX580 con 1,5811 TFLOPS in singola precisione (FP32) e 197,63 GFLOPS in doppia precisione (FP64 in GF100 ottenuti come: FP32/8); 37,05 GPixel/s di Pixel Rate e 49,41 GTexel/s di Texel Rate. Questo chip era caratterizzato da: 3,00 milioni di transitor, 512 Shading Units, 64 Texture Mapping Units, 48 Render Output Processors, 512 CUDA Cores (Single Precision), 64 CUDA Cores (Double Precision), un TDP di 244 Watt, un die di 520mmq, il supporto al PCI-E 2.0 x16, 3.072 MB GDDR5 con un bus di 384bit per un memory bandwidth di 192,384 GB/s. Le uscite video supportate dalla GTX580 prevedevano, oltre la DVI Dual-Link, la mini-HDMI 1.4a introducendo il supporto audio LPCM multi-canale via PCI-E, ma solo per le tracce "lossless", tenendo esclusi però i bit-streaming TrueHD e DTS-HD Master Audio.
  • La serie GeForce 600 comprende schede con i processori con micro-architettura "Kepler" realizzata con processo produttivo a 28nm e comprende le seguenti schede: (GK104) GeForce GTX690 (DualGPU), GeForce GTX680 e GeForce GTX670, GeForce GTX660Ti; (GK106) GeForce GTX660, GeForce GTX650Ti, GeForce GTX645; (GK107) GeForce GTX650, GeForce GT640/rev.2, GeForce GT630/rev.2; (GK208) GT640/rev.3, GeForce GT630/rev.3, GeForce GT635; infine GPU rimarchiate delle serie 500 e 400 per realizzare: (GF114) GeForce GT645; (GF108) GeForce GT630rev.1; GeForce GT625, (GF119) GeForce GT620/rev.2, GeForce GT610, GeForce GT605. Attraverso il modulo hardware integrato NVENC SIP è stato garantito al software PureVideo HD di quinta generazione (VP5) il supporto alla decodifica, oltre ad MPEG-1/MPEG-2 (raggiungendo la risoluzione di 4032x4048 pixels), h.264 (raggiungendo la risoluzione di 4032x4080 pixels), WMV9/VC-1, anche all'encoding del formato video compresso AVCHD (h.264) alla profondità di colore Main8 (8 bit) nel solo profilo YUV4:2:0 fino alla risoluzione di 1080p ad una velocità 8 volte più rapida (240fps) rispetto a quella di decoding (30fps). Il supporto DirectX era totalmente compatibile con la versione 11.1, mentre l'OpenCL con la versione 1.1 (successivamente 1.2), le API OpenGL con la versione 4.5 (successivamente 4.6) e introducendo per la prima volta il supporto alle Vulkan con la versione 1.0. La tecnologia di gestione della fisica CUDA arriva alla versione 3.0. Le caratteristiche prestazionali della GPU Kepler di prima generazione più spinta (GK104) sono da attribuirsi al modello GTX680 con 3,0904 TFLOPS in singola precisione (FP32) e 1.287,6 GFLOPS in doppia precisione (FP64 in GK110 ottenuti come: FP32/24); 32,2 GPixel/s di Pixel Rate e 128,8 GTexel/s di Texel Rate. Questo chip era caratterizzato da: 3,54 milioni di transitor, 1536 Shading Units, 128 Texture Mapping Units, 32 Render Output Processors, 1.536 CUDA Cores (Single Precision), 64 CUDA Cores (Double Precision), un TDP di 195 Watt, un die di 294mmq, il supporto al PCI-E 3.0 x16, 4.096 MB GDDR5 con un bus di 256bit per un memory bandwidth di 192,3 GB/s. Le uscite video supportate dalla GTX680 prevedevano, oltre la DVI Dual-Link, la HDMI 1.4b e la DisplayPort 1.2 tutte con supporto HDCP 2.0.
  • La serie GeForce 700, rinnovamento della precedente micro-architettura "Kepler" realizzata con processo produttivo a 28nm e comprende schede con i processori "Kepler II": (GK110-B1) GeForce GTX Titan Black; (GK110-A1) GeForce GTX Titan Z (dual-gpu), GeForce GTX780, GeForce GTX780Ti; (GK104-A2) GeForce GTX770, GeForce GTX760 e GeForce GTX760Ti; (GK208) GeForce GT730, GeForce GT720, GeForce GT710; infine GPU rimarchiate delle serie 600 e 500 per realizzare: (GK104) GeForce GTX770, GeForce GTX760Ti; GeForce GTX760;(GK107) GeForce GT740; (GF119) GeForce GT705. Il modulo hardware NVENC SIP non è stato modificato rispetto a quello introdotto nella prima generazione Kepler garantendo al software PureVideo il supporto, oltre ad MPEG-2 e VC-1, all'encoding del formato video compresso AVCHD (h.264) alla profondità di colore Main8 (8 bit) nel solo profilo YUV4:2:0 fino alla risoluzione di 1080p ad una velocità 8 volte più rapida (240fps) rispetto a quella di decoding (30fps). Il supporto DirectX era totalmente compatibile con la versione 11.1, mentre l'OpenCL con la versione 1.1 (successivamente 1.2), le API OpenGL con la versione 4.5 (successivamente 4.6) e le Vulkan con la versione 1.0. La tecnologia di gestione della fisica CUDA arriva alla versione 3.0 (3.5 in GK110 e GK208). Le caratteristiche prestazionali della GPU Kepler di seconda generazione più spinta (GK110-B1) sono da attribuirsi al modello GTX Titan Black con 5,1206 TFLOPS in singola precisione (FP32) e 1.706,9 GFLOPS in doppia precisione (FP64 in GK110 ottenuti come: FP32/3); 58,8 GPixel/s di Pixel Rate e 235,2 GTexel/s di Texel Rate. Questo chip era caratterizzato da: 7,08 milioni di transitor, 2880 Shading Units, 240 Texture Mapping Units, 48 Render Output Processors, 2.880 CUDA Cores (Single Precision), 960 CUDA Cores (Double Precision), un TDP di 250 Watt, un die di 561mmq, il supporto al PCI-E 3.0 x16, 6.144 MB GDDR5 con un bus di 384bit per un memory bandwidth di 336,0 GB/s. Le uscite video supportate dalla GTX Titan Black prevedevano, oltre la DVI Dual-Link, la HDMI 1.4b e la DisplayPort 1.2 tutte con supporto HDCP 2.0.
  • La serie GeForce 800, è stata una nomenclatura non utilizzata da nVidia in ambito PC desktop, ma è stata relegata solo alle schede grafiche integrate del settore mobile introducendo l'architettura Maxwell di prima generazione prodotta a 28nm. Le GPU della serie 800 adottate nei notebook fecero uso sia della vecchia architettura Kepler che della nuova Maxwell ed in particolare: (Kepler) GeForce GTX880m e GeForce GTX870m; (Kepler oppure Maxwell GM107) GeForce GTX860m; (Maxwell GM107) GeForce GTX850m; (Maxwell GM108) GeForce GT840m e GeForce GT830m; (Fermi) GeForce GT820m. In ambito desktop la micro-architettura Maxwell è stata proposta in ambito desktop solo successivamente, ma su alcuni nuovi modelli di fascia bassa della serie precedente (GeForce 700): (GM108) GeForce GTX750/GTX745; (GM107) GeForce GTX750Ti. Attraverso il modulo hardware integrato NVENC SIP di seconda generazione è stato garantito al software PureVideo il supporto all'encoding del formato video compresso AVCHD (h.264) alla profondità di colore Main8 (8 bit) in tre profili (YUV4:2:0, YUV4:4:4, LOSS-LESS) fino alla risoluzione di 1080p ad una velocità 16 volte più rapida (480fps) rispetto a quella di decoding (30fps). Il supporto DirectX (nonostante fosse compatibile sin dall'inizio con la versione 12) si fermò inizialmente, via driver, alla versione 11.2, così come l'OpenCL in versione 1.1 (anziché 1.2), mentre le API OpenGL, supportate fin da subito, furono le 4.5. Rispetto alla serie mobile precedente la più consistente novità fu rappresentata dall'introduzione del "Battery Boost" con la quale nVIDIA ha incrementato l'autonomia di funzionamento dei notebook (fino a raddoppiarla) nel momento in cui questi, scollegati dalla presa di alimentazione, erano utilizzati per giocare impostando; ciò si otteneva introducendo nel driver la funzionalità che impostava in automatico un limite massimo nei frame rate di 30fps, evitando di processare quelli eccedenti. Le caratteristiche prestazionali della GPU Maxwell di prima generazione più spinta (GM107) possono riferirsi al modello GTX750Ti con: 1,472 TFLOPS in singola precisione (FP32); 46 GFLOPS in doppia precisione (FP64 in Maxwell ottenuti come: FP32/32); 16,32 GPixel/s di Pixel Rate e 40,8 GTexel/s di Texel Rate. Questo chip era caratterizzato da: 1,87 milioni di transitor, 640 Shading Units, 40 Texture Mapping Units, 16 Render Output Processors, 640 CUDA Cores, un TDP di 60 Watt, un die di 148mmq, il supporto al PCI-E 3.0 x16, 2.048 MB GDDR5 con bus di 128bit per un memory bandwidth di 86,4 GB/s. La seconda uscita video supportata dalla GeForce GTX750Ti, oltre quella DVI, prevedeva la HDMI 1.4b anch'essa con supporto HDCP 2.0.
  • La serie GeForce 900, segna l'ingresso della seconda generazione della micro-architettura Maxwell in ambito desktop confermando lo stesso processo produttivo già adottato nella prima generazione (28nm). Le schede con i processori grafici "Maxwell II" sono state: (GM200) GeForce GTX Titan X, GeForce GTX980Ti; (GM204) GeForce GTX980, GeForce GTX980m, GeForce GTX970, GeForce GTX970m e GeForce GTX965m; (GM206) GeForce GTX960. Nel settore mobile furono proposte sul mercato anche schede "rebrand" basate sulle precedenti GPU "Kepler": (GM107 o GM108) GeForce GT940m; (GM108) GeForce GT930m; (GK107) GeForce GT950m e GeForce GT960m; (GK208) GeForce GT920m. Con la microarchitettura Maxwell viene introdotto il supporto alle seguenti API: DirectX 12, OpenGL 4.5 (poi 4.6) ed OpenCL 1.2. La tecnologia di gestione della fisica CUDA arriva alla versione 5.0 (5.2 in GM200, GM204 e GM206) così come lo Shader Model anch'esso giunto alla versione 5.0. Nel modulo NVENC SIP di terza generazione, pur non rilevandosi incrementi prestazionali, è stato esteso il supporto all'encoding del formato video compresso AVCHD (h.264) alla profondità di colore di 8bit in tre profili (YUV4:2:0, YUV4:4:4, LOSS-LESS) fino alla risoluzione di 2160p (4k) ad una velocità 2 volte più rapida (60fps) rispetto a quella di decoding (30fps). Grazie alla nuova unità NVENC nel software PureVideo viene introdotto il parziale supporto (I-frames e P-frames) all'encoding del nuovo formato video compresso HEVC (h.265) lasciando però una parte della codifica alla CPU (B-frames). In Maxwell si segnala il supporto in hardware da parte dell'NVENC lato encoding al formato HEVC alla profondità di colore Main8 (8 bit) solo per il profilo YUV4:2:0. Solo in GM206 è stato incluso il supporto ai restanti due profili (YUV4:4:4, LOSS-LESS) rendendo la qualità dell'encoding più accettabile. L'encoder NVENC h.265 di Maxwell supporta un CTU (Coding Tree Unit) con una dimensione massima di 32 e minima di 8 (contro i 64 max ed i 4 min previsti rispettivamente dallo standard HEVC). Una CTU con size di 32 anziché di 64 determina, a parità di qualità, un incremento del bit-rate del 3,7% in più rispetto ad una più lenta codifica software producendo, nel video compresso, una velocizzazione (+18%) nella fase di encoding, ma al contempo un maggiore carico (+11%) della CPU/GPU nella fase di decoding. L'unità NVENC preposta all'encoding non è stata implementata all'interno delle soluzioni di fascia bassa GM108 (GT940m e GT930m). Le caratteristiche prestazionali della GPU Maxwell di seconda generazione più spinta (GM200) possono attribuirsi al modello GTX Titan X con 6,144 TFLOPS in singola precisione (FP32) e 192 GFLOPS in doppia precisione (FP64 in Maxwell ottenuti come: FP32/32); 96 GPixel/s di Pixel Rate e 192 GTexel/s di Texel Rate. Questo chip era caratterizzato da: 8 milioni di transitor, 3072 Shading Units, 192 Texture Mapping Units, 96 Render Output Processors, 3.584 CUDA Cores, un TDP di 250 Watt, un die di 601mmq, il supporto al PCI-E 3.0 x16, 12.288 MB GDDR5 con un bus di 384bit per un memory bandwidth di 336,5 GB/s. Le uscite video supportate dalla GTX Titan X prevedevano, oltre la DVI, la HDMI 2.0a e la DisplayPort 1.2 tutte con supporto HDCP 2.2.
  • La serie GeForce 1000, introduce la nuova generazione di micro-architettura Pascal in ambito desktop affinando il processo produttivo FinFET Plus di TSMC a 16nm (GP102, GP104 e GP106) e successivamente a 14nm FinFET di un'altra fonderia (GP107 e GP108). Tra le schede con i processori grafici "Pascal" si enumera: (GP102) GeForce GTX Titan XP, GeForce GTX1080Ti, GeForce Titan X Pascal; (GP104) GeForce GTX1080, GeForce GTX1070; (GP106) GeForce GTX1060; (GP107) GeForce GTX1050 e GeForce 1050Ti; (GP108) GeForce GTX1030 e GeForce MX150. Con la microarchitettura Pascal viene introdotto il supporto alle seguenti API: DirectX 12.1, OpenGL 4.6, OpenCL 1.2 e Vulkan 1.0. La tecnologia di gestione della fisica CUDA arriva alla versione 6.1, mentre lo Shader Model rimane alla versione 5.0. Attraverso il modulo hardware integrato NVENC SIP di quarta generazione "Pascal" è stato esteso il supporto all'encoding del formato video compresso AVCHD (h.264), sempre alla profondità di colore Main8 (8 bit) nei tre profili (YUV4:2:0, YUV4:4:4, LOSS-LESS), fino alla risoluzione di 2160p (4k) ad una velocità 4 volte più rapida (120fps) rispetto a quella di decoding (30fps). Nell'encoding HEVC "Pascal" ha fatto segnare miglioramenti qualitativi (profili YUV4:2:0, YUV4:4:4, LOSS-LESS, fino alla risoluzione 8k con profondità di colore incrementata a Main10) e di performance rispetto a Maxwell con prestazioni del 35% in AVCHD e del 100% in HEVC. Nel caso della GPU della GTX1080 che dispone di 2 unità NVENC le prestazioni, sempre rispetto a Maxwell, sfiorano addirittura il 290% sia in AVCHD che in HEVC. Una GTX1080, grazie alla doppia unità NVENC, rispetto ad una GTX1060/GTX1070 presenta in media prestazioni maggiori del 100% in AVCHD e del 145% in HEVC. Anche in Pascal l'encoder NVENC h.265 supporta un CTU (Coding Tree Unit) con una dimensione massima di 32 e minima di 8 (contro i 64 max ed i 4 min previsti rispettivamente dallo standard HEVC). L'unità NVENC preposta all'encoding non è stata implementata all'interno delle soluzioni di fascia bassa GP108 (GTX1030 e MX150). Nel software PureVideo viene introdotto il totale supporto al decoding del nuovo formato video compresso HEVC (h.265) Main10 e Main12 (rispettivamente a 10 e 12 bit) ed al VP9. Le caratteristiche prestazionali della GPU Pascal più spinta (GP102) fanno riferimento al modello GTX Titan XP con 12,160 TFLOPS in singola precisione (FP32) e 380 GFLOPS in doppia precisione (FP64 in Pascal ottenuti come: FP32/32); 151,9 GPixel/s di Pixel Rate e 397,7 GTexel/s di Texel Rate. Questo chip era caratterizzato da: 12 miliardi di transitor, 3840 Shading Units, 240 Texture Mapping Units, 96 Render Output Processors, 3.584 CUDA Cores, un TDP di 250 Watt, un die di 471mmq, il supporto al PCI-E 3.0 x16, 12.288 MB GDDR5X con 384bit per un memory bandwidth di 547,5 GB/s. Le uscite video supportate dalla GTX Titan XP comprendono la HDMI 2.0b e la DisplayPort 1.4 tutte con supporto HDCP 2.2.

Su tutte le schede a partire dalla versione GeForce 6, sono implementate le funzioni PureVideo, ossia supporto avanzato per TV e video in alta definizione, dei quali si occupano anche di decodificare in hardware i flussi compressi.

Oltre che per videogiocatori, NVIDIA offre soluzioni rivolte al settore professionale, come la serie Quadro[10] (scheda video per i professionisti CAD e modellazione 3D) e Tesla (scheda per l'accelerazione dei calcoli tecnici e scientifici).

Documentazione e driver per GNU/Linux[modifica | modifica wikitesto]

NVIDIA non fornisce la documentazione relativa all'hardware prodotto, necessaria per la scrittura di relativi driver open source, ma preferisce produrre dei driver in formato binario per X.Org ed una libreria open source che si interfaccia con i kernel Linux, FreeBSD o OpenSolaris. Questo supporto, nonostante i propri limiti, ha permesso una diffusione delle soluzioni dell'azienda nell'ambito professionale, ai danni dei prodotti più costosi di aziende come SGI.

I limiti sopra citati sono quelli al centro della controversia con la comunità del software libero. Molti utenti e sviluppatori, sostenitori convinti di questa filosofia, sottolineano la necessità di driver completamente liberi, e l'inadeguatezza di un driver binario fornito "a scatola chiusa".

La X.Org Foundation e Freedesktop.org hanno dato inizio al progetto Nouveau per creare un driver open source attraverso un'operazione di reverse engineering dei binari di NVIDIA.

Optimus[modifica | modifica wikitesto]

Una funzionalità importante, supportata dai driver forniti da NVIDIA solo su Windows 7 e Linux, è Optimus, un meccanismo sviluppato per far coesistere una scheda video NVIDIA con una di marca diversa (tipicamente Intel), finalizzato al risparmio energetico e installato su una vasta gamma di computer portatili. Il progetto Bumblebee cerca di portare il supporto come open-source a questa tecnologia su sistemi Linux, il quale è stato l'unico metodo per ottenere il funzionamento di Optimus su tale sistema fino alla distribuzione dei driver 319.12 Beta[11].

Piattaforme per PC[modifica | modifica wikitesto]

nForce[modifica | modifica wikitesto]

ION[modifica | modifica wikitesto]

nVidia ION è una piattaforma hardware per il processore Intel Atom.

Partner OEM[modifica | modifica wikitesto]

Magnifying glass icon mgx2.svgLo stesso argomento in dettaglio: Original Equipment Manufacturer.

Note[modifica | modifica wikitesto]

  1. ^ a b (EN) Profilo finanziario NVIDIA su Google Finance
  2. ^ (EN) Workforce and Diversity Performance, su nvidia.com. URL consultato il 30 agosto 2017.
  3. ^ "NVIDIA: Quando il coraggio porta al successo", Storia completa by InsideHardware.it Archiviato il 29 ottobre 2013 in Internet Archive.
  4. ^ NVIDIA acquisisce Ageia, Hardware Upgrade, 5 febbraio 2008. URL consultato il 5 febbraio 2008.
  5. ^ NVIDIA Kepler not fully compliant with DirectX 11.1
  6. ^ Due schede video della serie 6800 (JPG), su img.hexus.net.
  7. ^ Una scheda video della serie 6600
  8. ^ Una scheda video della serie 6200
  9. ^ Una scheda video della serie 7600 (JPG), su overclockers.ru.
  10. ^ una scheda video della serie Quadro (JPG), su thg.ru.
  11. ^ NVIDIA Driver Linux 313.12 Beta con supporto Optimus, NVIDIA, 10 marzo 2013. URL consultato il 10 marzo 2013.

Voci correlate[modifica | modifica wikitesto]

Altri progetti[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]

Controllo di autoritàVIAF (EN135222459 · ISNI (EN0000 0004 0458 4453 · LCCN (ENno2004070743 · GND (DE6067931-1
Aziende Portale Aziende: accedi alle voci di Wikipedia che trattano di aziende