Seymour Cray e il Supercomputer

click fraud protection

Molti di noi hanno familiarità computer. Probabilmente ne stai usando uno ora per leggere questo post sul blog in quanto dispositivi come laptop, smartphone e tablet sono essenzialmente la stessa tecnologia informatica sottostante. I supercomputer, invece, sono in qualche modo esoterici in quanto sono spesso considerati voluminosi, costosi, macchine per aspirare energia sviluppate, nel complesso, per istituzioni governative, centri di ricerca e grandi imprese.

Prendiamo ad esempio la Sunway TaihuLight cinese, attualmente il supercomputer più veloce del mondo, secondo le classifiche dei supercomputer di Top500. Comprende 41.000 chip (i soli processori pesano oltre 150 tonnellate), costano circa $ 270 milioni e hanno una potenza nominale di 15.371 kW. Tra i lati positivi, tuttavia, è in grado di eseguire quadrilioni di calcoli al secondo e può contenere fino a 100 milioni di libri. E come altri supercomputer, verrà utilizzato per affrontare alcuni dei compiti più complessi nei campi della scienza come le previsioni meteorologiche e la ricerca sulle droghe.

instagram viewer

Quando sono stati inventati i supercomputer

L'idea di un supercomputer nacque per la prima volta negli anni '60 quando un ingegnere elettrico di nome Seymour Cray, iniziò a creare il computer più veloce del mondo. Cray, considerato il "padre del supercalcolo", aveva lasciato il suo incarico presso il colosso dell'informatica aziendale Sperry-Rand si unirà alla nuova Control Data Corporation in modo che possa concentrarsi sullo sviluppo computer scientifici. Il titolo del computer più veloce del mondo era in quel momento detenuto dall'IBM 7030 "Stretch", uno dei primi a utilizzare i transistor anziché i tubi a vuoto.

Nel 1964, Cray introdusse il CDC 6600, che presentava innovazioni come la commutazione dei transistor al germanio a favore del silicio e un sistema di raffreddamento basato su Freon. Ancora più importante, ha funzionato a una velocità di 40 MHz, eseguendo circa tre milioni di operazioni in virgola mobile al secondo, che lo hanno reso il computer più veloce del mondo. Spesso considerato il primo supercomputer al mondo, il CDC 6600 era 10 volte più veloce della maggior parte dei computer e tre volte più veloce del IBM 7030 tratto. Il titolo fu infine ceduto nel 1969 al suo successore il CDC 7600.

Seymour Cray va da solo

Nel 1972, Cray lasciò Control Data Corporation per formare la sua società, Cray Research. Dopo un po 'di tempo raccogliendo capitali di seed e finanziamenti dagli investitori, Cray ha debuttato con Cray 1, che ha nuovamente sollevato l'asticella delle prestazioni del computer con un ampio margine. Il nuovo sistema funzionava a una velocità di clock di 80 MHz ed eseguiva 136 milioni di operazioni in virgola mobile al secondo (136 megaflop). Altre caratteristiche uniche includono un nuovo tipo di processore (elaborazione vettoriale) e un design a forma di ferro di cavallo ottimizzato per la velocità che ha ridotto al minimo la lunghezza dei circuiti. Il Cray 1 è stato installato presso il Los Alamos National Laboratory nel 1976.

Negli anni '80 Cray si era affermato come il nome di spicco nel supercalcolo e si prevedeva che ogni nuova versione avrebbe rovesciato i suoi precedenti sforzi. Quindi, mentre Cray era impegnato a lavorare su un successore di Cray 1, un team separato dell'azienda pubblicò il Cray X-MP, un modello che fu fatturato come una versione più "pulita" del Cray 1. Condivide lo stesso design a ferro di cavallo, ma vantava più processori, memoria condivisa ed è talvolta descritto come due Cray 1 collegati insieme come uno. Il Cray X-MP (800 megaflop) è stato uno dei primi progetti "multiprocessore" e ha contribuito ad aprire le porte a elaborazione parallela, in cui le attività di elaborazione sono suddivise in parti ed eseguite simultaneamente da diverso processori.

Il Cray X-MP, che è stato continuamente aggiornato, è stato il portabandiera fino al lancio tanto atteso del Cray 2 nel 1985. Come i suoi predecessori, l'ultimo e il più grande di Cray ha assunto lo stesso design a ferro di cavallo e lo stesso layout di base con circuiti integrati accatastati insieme su schede logiche. Questa volta, tuttavia, i componenti sono stati stipati così strettamente che il computer ha dovuto essere immerso in un sistema di raffreddamento a liquido per dissipare il calore. Il Cray 2 è stato dotato di otto processori, con un "processore in primo piano" incaricato di gestire lo storage, memoria e dando istruzioni ai "processori in background", a cui era stato assegnato il compito di calcolare. Complessivamente, ha raggiunto una velocità di elaborazione di 1,9 miliardi operazioni in virgola mobile al secondo (1,9 Gigaflops), due volte più veloce del Cray X-MP.

Più designer di computer emergono

Inutile dire che Cray e i suoi progetti governarono la prima era del supercomputer. Ma non era l'unico ad avanzare sul campo. I primi anni '80 videro anche l'emergere di computer estremamente paralleli, alimentati da migliaia di processori che lavoravano tutti in tandem per abbattere le barriere delle prestazioni. Alcuni dei primi sistemi multiprocessore sono stati creati da W. Daniel Hillis, che ha avuto l'idea come studente universitario presso il Massachusetts Institute of Technology. L'obiettivo a quel tempo era quello di superare i limiti di velocità di avere un calcolo diretto della CPU tra l'altro processori sviluppando una rete decentralizzata di processori che ha funzionato in modo simile al neuronale del cervello Rete. La sua soluzione implementata, introdotta nel 1985 come Connection Machine o CM-1, presentava 65.536 processori a bit singolo interconnessi.

I primi anni '90 segnarono l'inizio della fine per l'affermazione di Cray sul supercalcolo. A quel punto, il pioniere del supercalcolo si era separato dalla Cray Research per formare la Cray Computer Corporation. Le cose iniziarono ad andare a sud per l'azienda quando il progetto Cray 3, il previsto successore di Cray 2, incontrò tutta una serie di problemi. Uno dei principali errori di Cray è stato optare per i semiconduttori di arsenuro di gallio, una tecnologia più recente, come un modo per raggiungere il suo obiettivo dichiarato di un miglioramento di dodici volte nella velocità di elaborazione. Alla fine, la difficoltà nel produrli, insieme ad altre complicazioni tecniche, ha finito per ritardare il progetto per anni e alla fine molti dei potenziali clienti dell'azienda alla fine hanno perso interesse. In poco tempo, la compagnia rimase senza soldi e chiese fallimento nel 1995.

Le lotte di Cray avrebbero lasciato il posto a una sorta di cambiamento di guardia poiché i sistemi informatici giapponesi concorrenti sarebbero arrivati ​​a dominare il campo per gran parte del decennio. NEC Corporation, con sede a Tokyo, è apparsa per la prima volta nel 1989 con l'SX-3 e un anno dopo svelò una versione a quattro processori che divenne il computer più veloce del mondo, solo per essere eclissato nel 1993. Quell'anno, la Galleria del vento numerica di Fujitsu, con la forza bruta di 166 processori vettoriali, è diventata il primo supercomputer a superare 100 gigaflop (Nota a margine: darti un idea di quanto rapidamente la tecnologia avanza, i processori consumer più veloci nel 2016 possono facilmente fare più di 100 gigaflop, ma al momento era particolarmente impressionante). Nel 1996, Hitachi SR2201 ha alzato l'ante con 2048 processori per raggiungere un picco di prestazioni di 600 gigaflop.

Intel si unisce alla gara

Ora, dov'era Intel? La società che si era affermata come il principale produttore di chip del mercato consumer non ha fatto un salto nel regno del supercalcolo fino alla fine del secolo. Questo perché le tecnologie erano animali completamente diversi. I supercomputer, ad esempio, sono stati progettati per assorbire quanta più potenza di elaborazione possibile mentre sono personali i computer miravano a spremere l'efficienza da capacità di raffreddamento minime e fornitura di energia limitata. Quindi, nel 1993, gli ingegneri Intel hanno finalmente fatto il grande passo adottando il coraggioso approccio di andare massicciamente parallelamente al 3.680 processori Intel XP / S 140 Paragon, che nel giugno del 1994 erano saliti in vetta al supercomputer classifiche. È stato il primo supercomputer con processore parallelamente massiccio ad essere indiscutibilmente il sistema più veloce al mondo.

Fino a questo punto, il supercalcolo è stato principalmente il dominio di quelli con il tipo di tasche profonde per finanziare progetti così ambiziosi. Tutto è cambiato nel 1994 quando gli appaltatori del Goddard Space Flight Center della NASA, che non avevano quel tipo di lusso, hanno inventato un modo intelligente per sfruttare la potenza dell'elaborazione parallela collegando e configurando una serie di personal computer utilizzando una Ethernet Rete. Il sistema "Beowulf cluster" che svilupparono era composto da 16 processori 486DX, in grado di operare nella gamma dei gigaflop e costare meno di $ 50.000 da costruire. Aveva anche la particolarità di eseguire Linux piuttosto che Unix prima che Linux diventasse il sistema operativo preferito dai supercomputer. Ben presto, i fai-da-te di tutto il mondo sono stati seguiti progetti simili per creare i propri cluster di Beowulf.

Dopo aver ceduto il titolo nel 1996 a Hitachi SR2201, Intel tornò in quell'anno con un design basato sul Paragon chiamato ASCI Red, che comprendeva oltre 6.000 200 MHz Processori Pentium Pro. Nonostante si stia allontanando dai processori vettoriali a favore di componenti standardizzati, l'ASCI Red si è distinto per essere stato il primo computer a infrangere la barriera di un trilione di flop (1 teraflop). Nel 1999, gli aggiornamenti gli hanno permesso di superare tre trilioni di flop (3 teraflop). Il rosso ASCI è stato installato presso i laboratori nazionali di Sandia ed è stato utilizzato principalmente per simulare esplosioni nucleari e aiutare a mantenere il paese arsenale nucleare.

Dopo che il Giappone ha ripreso il comando del supercalcolo per un periodo con il 35,9 teraflop NEC Earth Simulator, IBM ha portato il supercalcolo ad altezze senza precedenti a partire dal 2004 con il Blue Gene / L. Quell'anno, IBM ha debuttato con un prototipo che ha appena mosso il Earth Simulator (36 teraflop). E entro il 2007, gli ingegneri avrebbero aumentato l'hardware per spingere la sua capacità di elaborazione a un picco di quasi 600 teraflop. È interessante notare che il team è stato in grado di raggiungere tali velocità adottando l'approccio dell'utilizzo di più chip con potenza relativamente bassa, ma più efficiente dal punto di vista energetico. Nel 2008, IBM si è di nuovo messa in moto quando ha acceso Roadrunner, il primo supercomputer a superare un quadrilione di operazioni in virgola mobile al secondo (1 petaflop).

instagram story viewer