Mainframe

Da Wikipedia, l'enciclopedia libera.
Mainframe IBM 704
La console di comando dell'Olivetti Elea 9003, Il primo computer mainframe al mondo interamente progettato a transistor

Il mainframe computer[1] (ellissi utilizzata comunemente: "mainframe") o sistema centrale è una tipologia di computer caratterizzata da prestazioni di elaborazione di alto livello di tipo centralizzato.

Utilizzo[modifica | modifica wikitesto]

Attualmente il termine mainframe è associato ad architetture formate da server di tipo blade uniti a sistemi di storage attraverso delle SAN. Queste architetture, quando di tipo elementare (pochi nodi e host), sono utilizzate dalle aziende di medio-alta dimensione per le applicazioni gestionali che richiedono masse enormi di dati, affidabilità, grande capacità elaborativa e molta memoria. Solitamente sono impieghi associati ai sistemi Erp specie quando distribuiti su più sedi o società (nel caso dei gruppi), insieme alle altre classiche applicazioni gestionali. Infatti, attraverso la virtualizzazione il mainframe può svolgere, contemporaneamente, diversi servizi indipendenti, supportare molte istanze applicative, presidiare i sistemi ausiliari (controllo accessi, telefonia fissa e mobile, circuito video e tanti altri).

Un altro contesto applicativo è quello delle organizzazioni governative e degli enti della PA i cui sistemi devono svolgere transazioni "a missione critica" su enormi database.

Ma il significato reale, attualmente, di mainframe lo si può apprezzare soprattutto nelle architetture formate da aggregazioni di server blade (il cosiddetto consolidamento o clusterizzazione). Questi sistemi, formati da numerosi cluster ciascuno composto da diversi nodi, sono impiegati presso i data center dei provider, i fornitori di hosting e di housing, i grandi motori di ricerca internazionali, i grossi centri di ricerca, le multinazionali. Sostanzialmente, oggi giorno, i sistemi mainframe sono specificatamente rivolti ai servizi di tipo cloud erogati a soggetti che nel tempo tendono a dismettere i loro vecchi mainframe e a utilizzare tecnologie molto più moderne e continuamente aggiornate, messe a disposizione da aziende specializzate (nel privato i gruppi bancari e assicurativi sono stati tra i primi a esternalizzare).

La caratteristica peculiare di un sistema mainframe è la scalabilità (orizzontale e verticale): è concepito perché sia possibile, in ogni momento e senza alcun sforzo, aumentare memoria, potenza di calcolo, immagazzinamento dati, ecc. Inoltre, la enorme ascesa dei servizi e applicazioni web o telematici hanno fatto evolvere radicalmente anche i software di controllo (a partire dai sistemi operativi) associati ai mainframe. Un mainframe è sempre, per definizione, inserito in un contesto di rete di medio-alta complessità per numero di nodi, host supportati, client e utenti serviti e, quindi, volume di traffico servito.

Nel tempo, oltre a IBM, il primo fabbricante nella storia di mainframe, sul mercato si sono imposti anche HP e Dell. Da notare che questi due player, nel loro materiale informativo, non utilizzano più il termine mainframe, riservandolo unicamente ai sistemi IBM o Unisys. In sostanza, oggi si tende a usare la parola mainframe per intendere una specifica tecnologia del passato, ampiamente superata dai sistemi contemporanei. Pertanto, quando attualmente[2] si parla di mainframe s'intende:

  • punto di vista dell'utilizzatore => sistemi complessi formati da diversi server fisici consolidati tra di loro per svolgere una missione critica oppure supportare centinaia e migliaia di istanze (server virtuali);
  • punto di vista del fabbricante => modello top di gamma (per prestazioni) delle macchine server realizzate.

Si può dire che l'architettura a cluster/nodi su sistemi Microsoft o Linux è la visione moderna del vecchio mainframe. Il sottosistema storage distribuito è sempre un complemento necessario di un mainframe.

Storia[modifica | modifica wikitesto]

Molti produttori fabbricarono i computer mainframe a partire dalla fine degli anni cinquanta fino agli anni settanta. A quell'epoca erano conosciuti come "IBM e i sette nani", dove quest'ultimi si riferivano a Burroughs, Control Data, General Electric, Honeywell, NCR, RCA, e UNIVAC. Il dominio di IBM crebbe dalla serie 700/7000 e successivamente lo sviluppo della serie in architettura S/360. Quest'ultima architettura ha continuato ad evolversi negli attuali mainframe zSeries/z9 che, assieme con gli allora mainframe Burroughs e ora i mainframe Unisys basati su MCP, sono tra le poche architetture mainframe che ancora esistono. Detto ciò, sebbene essi possano ancora fare girare il codice System/360 a 24 bit, i server CMOS a 64-bit zSeries e System z9 hanno quasi niente fisicamente in comune con i vecchi sistemi. Il gruppo dei più grandi degli ultimi concorrenti dell'IBM era anche spesso soprannominato Il BUNCH dalle loro iniziali (Burroughs, UNIVAC, NCR, CDC, Honeywell). Produttori di rilievo al di fuori degli Stati Uniti furono Siemens e Telefunken in Germania, International Computers Limited (ICL) nel Regno Unito, e Fujitsu, Hitachi, e NEC in Giappone. L'Unione Sovietica e i paesi del Patto di Varsavia fabbricarono copie simili ai mainframe IBM durante la Guerra Fredda.

La domanda in contrazione e la dura competizione causò una scossa nel mercato nei primi anni ottanta: RCA vendette a UNIVAC; anche GE uscì; Honeywell fu comprata da Bull; UNIVAC divenne una divisione di Sperry Corporation che successivamente si fuse con Burroughs per formare la Unisys Corporation nel 1986. Nel 1991, AT&T per un breve periodo possedette NCR. Durante lo stesso periodo, le aziende trovarono che i server basati su progettazione microcomputerizzata potevano essere impiegati a una frazione del prezzo di acquisizione dei mainframe e offrire agli utenti locali un maggior controllo sui loro sistemi date le politiche e le pratiche IT a quel tempo. I terminali usati per interagire con i sistemi mainframe furono gradualmente rimpiazzati dai personal computer. Conseguentemente, la domanda crollò e le nuove installazione di mainframe furono limitate soprattutto alle macchine per servizi finanziari e governativi. Nei primi anni 1990, c'era un consenso tra gli analisti di industria che quello del mainframe era un mercato morente in quanto le piattaforme mainframe furono incrementalmente rimpiazzate da reti di personal computer.

Quella tendenza iniziò ad invertirsi alla fine degli anni novanta poiché le aziende trovarono nuovi usi per i loro mainframe esistenti. Anche la crescita dell'e-business aumentò fortemente il numero di transazione di back-end processate dal software mainframe e il throughput dei database. Un altro fattore del crescente uso del mainframe è lo sviluppo del sistema operativo Linux, che può essere eseguito su molti sistemi mainframe, tipicamente in macchine virtuali. Linux consente agli utenti di avvantaggiarsi del software open source combinato con la RAS dell'hardware mainframe. La rapida espansione e lo sviluppo dei mercati emergenti, in particolare la Cina, sta spingendo maggiori investimenti sui mainframe per risolvere problemi computazionali estremamente difficili, per esempio fornire database unificati e in grado di processare un alto volume di transazioni per un miliardo di consumatori in vari settori d'industria (bancario, assicurativo, governativo ecc.).

Descrizione[modifica | modifica wikitesto]

Il termine risale ai primi anni dell'informatica; esso si riferiva, infatti, al grande assemblato che conteneva il processore centrale e il complesso dei dispositivi di ingresso/uscita. Nel seguito il termine fu usato per distinguere gli elaboratori di alta fascia da quelli meno potenti che erano spesso contenuti in involucri più piccoli. Oggigiorno il termine mainframe si riferisce principalmente ai sistemi IBM System z9, i discendenti in linea diretta del System/360, sebbene sia adoperato anche per i discendenti in linea diretta dei mainframe Burroughs Large Systems e della serie UNIVAC 1100/2200.

I moderni mainframe si distinguono dagli altri computer non tanto per la velocità di esecuzione di un singolo task (dipendente principalmente dalla frequenza del clock interno del processore), ma piuttosto per le loro caratteristiche di disegno interno, che punta sull'alta affidabilità, sicurezza, il bilanciamento delle prestazioni e per la compatibilità binaria dei programmi applicativi scritti anche tanti anni fa garantita con le nuove macchine, caratteristica che garantisce nel tempo la protezione degli investimenti applicativi dei clienti. Questi elaboratori sono in grado di funzionare per anni senza interruzione e sono progettati in modo da consentire molte attività di riparazione e manutenzione senza richiedere il fermo della produzione. I mainframe sono apprezzati anche per l'alta disponibilità che offrono, una delle ragioni principali della loro longevità e dell'utilizzo per applicazioni dove un'interruzione del servizio sarebbe molto costosa o catastrofica. L'acronimo RAS, Reliability, Availability and Serviceability (Affidabilità, disponibilità e facilità di manutenzione) definisce le caratteristiche peculiari di disponibilità dei mainframe.

Storicamente i mainframe erano famosi per via della loro dimensione e per i requisiti ambientali (condizionamento e alimentazione elettrica). Quei requisiti non furono più necessari a partire da metà degli anni 1990, con la progettazione dei mainframe basata su tecnologia CMOS che rimpiazzava la vecchia tecnologia bipolare. I più grandi mainframe moderni hanno dimensioni relativamente contenute e sono caratterizzati da consumi energetici ridotti se confrontati con rack di server di altre tecnologie che occupano la stessa superficie.

Caratteristiche[modifica | modifica wikitesto]

I mainframe hanno, tipicamente, la capacità di eseguire od "ospitare" sistemi operativi diversi, utilizzando la tecnica della virtualizzazione. Un singolo mainframe può rimpiazzare dozzine o centinaia di server fisici più piccoli, riducendo così i costi di gestione e amministrazione e fornendo nel contempo al sistema livelli maggiori di scalabilità e affidabilità, difficilmente ottenibili con server distribuiti. I mainframe moderni, ed in particolare i server IBM zSeries e System z9, offrono più livelli di virtualizzazione: virtualizzazione a livello hardware (partizionamento logico con LPAR, mediante il componente PR/SM), virtualizzazione a livello software (mediante il sistema operativo z/VM). Sebbene non ai livelli di efficienza offerti nel mainframe, il partizionamento logico si può trovare ora anche in molti server UNIX di fascia alta; molti produttori promuovono le tecnologie di virtualizzazione, in qualche maniera cercando di fare propri i capisaldi di progettazione del mainframe.

Anche i sistemi operativi utilizzati nei mainframe tendono a essere ad alta affidabilità e gestione efficiente del carico di lavoro. Utilizzando il sistema operativo z/OS, ad esempio, è possibile gestire in maniera efficiente e con garanzie di protezione e isolamento carichi di lavoro diversi utilizzando sofisticate tecnologie di Workload Management. Inoltre, i mainframe possono incrementare la propria capacità elaborativa in maniera dinamica e granulare.

I mainframe hanno anche caratteristiche uniche di esecuzione priva di errori. I server System z9 eseguono ogni istruzione due volte, comparano i risultati, e, in caso di discordanza determinano la presenza di una malfunzione ed attivano in modo automatico unità elaborative di riserva. Questa caratteristica, che si trova anche nei sistemi HP NonStop, è nota come lock-stepping, poiché entrambi i processori fanno i loro passi (ovvero le istruzioni) insieme.

Mainframe e supercomputer[modifica | modifica wikitesto]

La distinzione tra supercomputer e mainframe non è semplicissima, tuttavia i supercomputer generalmente si focalizzano su problemi che sono limitati dalla velocità di calcolo, mentre i mainframe si focalizzano su problemi che sono limitati dall'input/output e l'affidabilità.

Differenze e somiglianze includono:

  • Entrambi i tipi di sistemi offrono la possibilità di calcolo parallelo. I supercomputer tipicamente la espongono al programmatore in maniera complessa, mentre i mainframe tipicamente la usano per eseguire molteplici task (multitasking). Un risultato di questa differenza è che aggiungendo processori al mainframe spesso accelera l'intero carico di lavoro in modo trasparente.
  • I supercomputer sono molti ottimizzati per elaborazioni complesse che richiedono soprattutto grandi quantità di memoria, mentre i mainframe sono ottimizzati per elaborazioni relativamente più semplici che implicano però l'accesso rapido a grosse quantità di dati
  • I supercomputer sono spesso costruiti ad hoc per elaborazioni particolari. I mainframe invece vengono utilizzati per un'ampia gamma di elaborazioni ovvero sono molto più general purpose. Di conseguenza, la maggior parte dei supercomputer viene assemblata per esigenze specifiche e usi particolari, mentre i mainframe tipicamente formano una parte della linea di modelli di un produttore.
  • I mainframe tendono ad avere un numero di processori di servizio che assistono i processori principali (per il supporto crittografico, la gestione dell'I/O, il monitoraggio, la gestione della memoria, ecc.) cosicché il numero effettivo dei processori presenti è molto maggiore di quanto uno possa immaginare. Il design dei supercomputer tende a non includere così tanti processori di servizio poiché essi non aggiungono in modo apprezzabile potenza di calcolo grezza.

Prestazioni[modifica | modifica wikitesto]

La potenza elaborativa dei mainframe è storicamente misurata in MIPS (milioni di istruzioni per secondo). Oggigiorno l'unità, nonostante le origini del nome, non è più legata strettamente al numero di istruzioni eseguite dalla CPU, ma è un'unità di misura relativa della potenza elaborativa delle macchine, ottenuta a seguito di benchmark con carichi di lavoro predeterminati in un ambiente non limitato da vincoli infrastrutturali. Il più piccolo mainframe System z9 IBM oggi ha la potenza di 26 MIPS e il più grande 17.801 MIPS. La tecnologia IBM del Parallel Sysplex può aggregare in cluster fino a 32 di questi sistemi, facendoli apparire come una singola piattaforma elaborativa di circa 221.248 MIPS.

Tra gli addetti del settore, si sa da tanto tempo che la misura dei MIPS, intesa semplicemente come il numero di istruzioni al secondo in milioni, è misura fuorviante nel dimensionamento delle macchine e spesso scherzosamente definita come Meaningless Indicator of Processor Speed o Meaningless Information on Performance for Salespeople. Le complesse architetture CPU dei moderni mainframe hanno ridotto la rilevanza dei valori in MIPS come numero effettivo di istruzioni eseguite al secondo. Allo stesso modo, i moderni design di sistema con prestazioni bilanciate si focalizzano sia sulla potenza della CPU sia sulla capacità di I/O, e le capacità di virtualizzazione rendono le misure comparative anche più difficili. L'IBM pubblica da molti anni un insieme di rapporti di prestazioni chiamato LSPR (Large System Performance Reference) che tengono in conto diversi tipi di carichi di lavoro e costituiscono una misura più rappresentativa delle prestazioni di un sistema. Questi dati non sono disponibili per sistemi di altra architettura.

Un termine di paragone attuale per la misurazione delle prestazioni di supercomputer ma anche mainframe sono i FLOPS (floating point operation per second), un indicatore del numero di operazioni in virgola mobile che una CPU riesce a calcolare in un secondo.

La potenza di un mainframe dovrebbe essere misurata, al fine di garantire rappresentatività e affidabilità della misura stessa, ricorrendo non a benchmark fatti in casa, ma a benchmark condivisi, prodotti da organismi indipendenti di livello internazionale, come ad esempio il TPC (Transaction Performance Council) e la SPEC (Standard Performance Evaluation Corporation).

Il TPC pubblica ad esempio i risultati del benchmark TPC-C, finalizzato alla misura delle capacità di un sistema elaborativo di eseguire un elevato numero di transazioni nell'unità di tempo, benchmark che consente di apprezzare significative caratteristiche tecniche ed economiche di un sistema elaborativo (ad es. i rapporti Watts/KtpmC e Price/tpmC).

Tuttavia non risultano pubblicati i risultati sui mainframe di benchmark prodotti da organismi indipendenti.

La gestione di complessi carichi di lavoro nel System z[modifica | modifica wikitesto]

Mainframe IBM z10 installato presso il CED di una grande banca italiana nel nord Italia

Come tutte le tecnologie si sono evolute nell'ottica di poter ospitare carichi di lavoro specifici, una serie di tecnologie sono state integrate all'interno dei System z per poter ospitare carichi di lavoro eterogenei tra loro all'interno della stessa elaborazione. Non è affatto inusuale constatare che un solo System z9 riesca a gestire applicazioni prettamente transazionali insieme ad applicazioni di Business Intelligence. Questo è dovuto ad un costante ammodernamento della piattaforma che ha cercato di mantenere come caratteristica fondamentale l'effettivo supporto a tutto ciò che la tecnologia aveva già prodotto. In poche parole, se negli anni ottanta le applicazioni transazionali IMS erano perlopiù utilizzate in un mondo Mainframe, oggi, le applicazioni Java possono essere integrate all'interno di un'infrastruttura z capace di mantenere le caratteristiche prestazionali della piattaforma transazionale tradizionale CICS ed IMS insieme a quelle generate dal nuovo carico di lavoro Java. Non solo. La quantità di dati prodotti nel tempo sono oggetto di analisi attraverso applicazioni che riescono a sfruttare le caratteristiche di "DataBase Machine" e di "I/O Rate" tipiche del System z in generale. Non c'è, inoltre, da meravigliarsi se allo stesso tempo alcuni server Linux virtualizzati all'interno di uno z/VM espletano funzioni di servizi di rete infrastrutturali all'azienda (firewall, DHCP, dns).

Una caratteristica della tecnologia del System z è l'abilità di supportare applicazioni di diversa natura attraverso tecniche intelligenti ed avanzate di gestione del workload disegnate per riallocare le risorse del sistema in maniera automatica e dinamica in accordo con le priorità definite. È interessante inoltre comprendere come la definizione delle priorità non è un qualcosa di definito dal punto di vista meramente tecnologico bensì da uno studio "economico" del processo di business associato.

La funzione che permette tutto questo è il Workload Manager (WLM). L'idea del Workload Manager è quella di tradurre gli obiettivi di business associati ad un dato workload all'interno di costrutti tecnici (regole e priorità) forzate dal Sistema Operativo. Le definizioni delle regole con la quale i processi sono gestiti sono all'interno di quelle che vengono chiamate Policy. Ogni diversa tipologia di Workload è definita nel sistema e ad ogni elemento viene assegnato un obiettivo (goal) ed un'importanza. Questi goal, definiscono le aspettative o i livelli di servizio (SLA) di come il lavoro deve essere effettuato. L'evoluzione di questo strumento ha reso possibile anche tale gestione all'interno di un Sysplex.

Il WLM gestisce l'uso delle risorse di sistema (processore, memoria e I/O) in modo da onorare questi obiettivi. L'identificazione e la classificazione delle richieste di lavoro sono supportati dai software middleware e dal sistema operativo: sono loro, infatti, che informano il WLM quando una nuova unità di lavoro entra ed esce dal sistema. Quando le unità di lavoro entrano nel sistema, vengono classificate ed assegnate ad una classe di servizio (Service Class) che descrive gli obiettivi in termini di performance che deve traguardare. Il WLM gestirà le risorse di sistema per assicurare che le politiche vengano rispettate.

Un ulteriore estensione di tale tecnologia e più in generale della capacità di elaborare grossi e complessi carichi di lavoro da parte del System z, è fornita dalla tecnologia hardware stessa. Ad esempio, l'Intelligence Resource Director (IRD) è una tecnologia che estende il concetto del WLM ai Virtual Server che risiedono all'interno dell'elaboratore. Il System z infatti ha sviluppato da decenni il concetto di virtualizzazione estendendo così le sue capacità. Il System z è infatti un elaboratore in grado di partizionare e condividere le sue risorse dal punto di vista Hardware attraverso la tecnologia del Logical partitioning (LPAR) ed anche dal punto di vista Software attraverso il Sistema Operativo z/VM. Tali livelli di virtualizzazione implementati esprimono il concetto che la virtualizzazione nel mondo System z non è un "Add-On" bensì un "Built-In".

Poiché tale partizioni logiche devono essere gestite con gli stessi livelli di un singolo sistema, l'Intelligence Resource Director, sposta le risorse dinamicamente da un sistema all'altro in base alla priorità della unita di lavoro che richiede il servizio.

Le ultime migliorie sulla piattaforma del System z estendono ulteriormente le capacità hardware elaborative di carichi di lavoro misti. È infatti possibile utilizzare processori specializzati ad eseguire diverse tipologie di lavoro:

  • Central processor (CP): È il processore base, disponibile per tutti i sistemi operative ed in grado di eseguire qualsiasi tipologia di lavoro
  • Integrated Facility for Linux (IFL): È un processore che può eseguire solo il sistema operativo Linux o il sistema di z/VM per l'utilizzo della virtualizzazione di immagini Linux
  • System z Application Assist Processor (zAAP): Tale processore è utilizzato dall'IBM Java Virtual Machine (JVM) per eseguire il codice Java
  • System z9 Integrated Information Processor (zIIP): Il System z9 Integrated Information Processor (zIIP) è invece il processore in grado di eseguire determinate tipologie di carico tipiche di un database. Tecnologicamente è infatti in grado di gestire tipologie di carico per componenti di elaborazione legate alla Business Intelligence (BI), all'enterprise resource planning (ERP), ed al customer relationship management (CRM). Attualmente solo il DB2 V8 per z/OS è in grado di sfruttare tale tecnologia.
  • Integrated Coupling Facility (ICF): Questo processore gestisce, invece, il carico del Coupling Facility Control Code (CFCC). È infatti utilizzato per creare un sistema di Coupling Facility per essere utilizzato dal System z Parallel Sysplex solution (la tecnologia in grado di gestire un Cluster evoluto di System z).

Linux per System z e UNIX[modifica | modifica wikitesto]

I nuovi, più piccoli ed economici Sistemi z insieme a Linux, si impongono come un'interessante alternativa ai server di tecnologia RISC o SPARC con Unix. Linux su macchine con tecnologia Mainframe (MF) sembra essere una soluzione tecnicamente adottabile sotto molti punti di vista:

  • affidabilità e gestibilità derivanti da 40 anni di esistenza della piattaforma;
  • la grande flessibilità e granularità degli ultimi modelli;
  • un sistema operativo open source disponibile sul System z.

È quindi oggi possibile proporre un paragone tra Linux su System z ed una macchina Unix. Il System z fornisce, infatti, valore in molteplici aree:

  • Economici: i prezzi sono rimasti invariati a fronte di un aumento delle capacità di calcolo;
  • Utilizzo: i System z tipicamente girano ad un 80%-100% di utilization rate, mentre i server distribuiti performano intorno al 20%;
  • Efficienza: sia da un punto di vista di spazio fisico che di consumi elettrici, l'utilizzo della piattaforma System z porta notevoli risparmi in confronto a molteplici server distribuiti;
  • Sicurezza: il System z offre soluzioni di sicurezza integrate per l'identity management, l'encryption facilities e la gestione semplificata delle chiavi di sicurezza.

Questi sono alcuni benefici unanimemente riconosciuti della piattaforma System z. Ci sono anche molti motivi per adottare Linux su System z:

  • Standardizzazione: molte aziende già utilizzano Linux su piattaforme distribuite. Per coloro che utilizzano anche un System z per le applicazioni principali, zLinux sarà una naturale evoluzione grazie ai risparmi economici che può portare. Infatti, non sono molte né complicate le attività sistemistiche necessarie a portare un'applicazione che gira su Linux su server distribuiti a zLinux;
  • Consolidamento: molti server distribuiti Unix o Linux possono essere consolidati su un unico System z, assicurando così notevoli vantaggi economici ed una piattaforma altamente affidabile, sicura e scalabile;
  • Facilità: installare Linux su System z è relativamente semplice; sono disponibili molteplici versione di Linux funzionanti su tali mainframe (SUSE, Red Hat, CentOS).

Statistiche[modifica | modifica wikitesto]

  • Storicamente l'85% di tutti i programmi mainframe sono scritti nel linguaggio di programmazione COBOL. Il rimanente include un mix di PL/I (circa il 5%), Assembly (circa 7%), e vari altri linguaggi. eWeek stima che milioni di nuove linee di codice COBOL vengono ancora aggiunte ogni anno, e che ci sono al mondo 1 milione di sviluppatori COBOL, con numeri crescenti nei mercati emergenti. Va comunque detto che la percentuale delle linee di codice COBOL per mainframe in produzione sta diminuendo mentre quella relativa al codice scritto in linguaggi come il C, il C++, e in particolar modo Java, sta crescendo rapidamente.
  • Il COBOL per mainframe ha acquisito recentemente nuove funzioni orientate al Web, per esempio il parsing XML, con il PL/I che segue a ruota nell'adozione delle caratteristiche dei linguaggi moderni.
  • Il 90% dei mainframe IBM hanno installato il software di elaborazione delle transazioni CICS. Altri software comunemente utilizzati sono i database IMS e DB2 e i middleware WebSphere MQ e WebSphere Application Server.
  • Nel 2004 IBM dichiarò l'acquisizione di più di 200 nuovi clienti mainframe (nel XXI secolo). Molti utilizzano GNU/Linux, alcuni in maniera esclusiva. Ci sono anche nuovi clienti z/OS, spesso in mercati emergenti e tra le aziende che cercano di migliorare la qualità di servizio e l'affidabilità
  • In maggio 2006, IBM dichiarò che 1,700 clienti mainframe usano Linux. La giapponese Nomura Securities parlò al LinuxWorld nel 2006 ed è una delle più grandi installazioni nota pubblicamente, con più di 200 IFL (processori specializzati per Linux) attivi che sostituirono stanze piene di server di altra architettura
  • La maggior parte dei mainframe sono usati in maniera continua al 70% della potenza delle CPU. Un livello del 90% è tipico e i mainframe moderni tollerano periodi lunghi di utilizzo della CPU al 100% senza perdere la stabilità, accodando il lavoro secondo le priorità di business senza causare problemi alle elaborazioni in corso.

Valore economico[modifica | modifica wikitesto]

Il ritorno degli investimenti (ROI) del mainframe, come qualsiasi altra piattaforma di calcolo, è dipendente dalla propria abilità di scalare, supportare carichi misti, ridurre i costo costi del personale, fornire un servizio senza interruzioni per |applicazioni critiche per il business, e altri fattori di costo legati ai rischi. Alcuni sostengono che i moderni mainframe non hanno un buon rapporto qualità prezzo. Sun Microsystems, Hewlett-Packard, e Dell non a caso sposano questo punto di vista, insieme ad alcuni analisti. Tuttavia, il consenso generale (sostenuto da Gartner e da altri analisti indipendenti) è che il moderno mainframe ha spesso elementi di valore unico e un rapporto qualità prezzo superiore, specialmente per le grandi imprese. Anche Hewlett-Packard continua a produrre il suo Mainframe, il sistema NonStop, originariamente creato da Tandem.

È importante notare che per confrontare correttamente dal punto di vista economico due piattaforme informatiche (hardware, sistema operativo e middleware) è più opportuno utilizzare come indicatore il TCO (Total Cost of Ownership), il quale considera, oltre al TCA (Total Cost of Acquisition) dell'hardware e del software, ad esempio i costi legati alla gestione dell'infrastruttura, altamente influenzati dai costi per il personale, e i costi per ottenere i livelli di qualità di servizio necessari per il buon andamento di un'azienda (sicurezza, disponibilità, affidabilità). Molti analisti concordano che la piattaforma mainframe permette di ottenere buone economie di scala nel campo della gestione e operatività e offrono garanzie d'alta qualità di servizio.

Mercato[modifica | modifica wikitesto]

All'inizio del 2006, i mainframe IBM hanno una quota di mercato di circa il 90%, Tuttavia IBM non è l'unico produttore. Unisys produce i mainframe ClearPath, basati sulle precedenti linee di prodotto Sperry e Burroughs, e un'indagine recente suggerisce che i suoi clienti sono fedeli. I sistemi Nova della Fujitsu sono rimarchiati Unisys ES7000. Hitachi sviluppò assieme ad IBM la serie z800 per dividere le spese. Hewlett-Packard vende i suoi unici sistemi NonStop, che acquisì con i computer Tandem, e i mainframe DPS di Groupe Bull sono disponibili in Europa. Unisys ed HP si affidano sempre più su CPU Intel di mercato piuttosto che processori ad hoc per ridurre le spese di sviluppo, mentre IBM ha la sua grande organizzazione di ricerca e sviluppo per introdurre tecnologie mainframe nuove e sviluppate in casa.

Note[modifica | modifica wikitesto]

  1. ^ "Mainframe computer" è un prestito dell'inglese.
  2. ^ A parte quando ci si riferisce esplicitamente alla vecchia tecnologia IBM

Bibliografia[modifica | modifica wikitesto]

Voci correlate[modifica | modifica wikitesto]

Altri progetti[modifica | modifica wikitesto]

Informatica Portale Informatica: accedi alle voci di Wikipedia che trattano di Informatica