supercalcolatore Termine entrato in uso verso la fine degli anni 1960 per designare i più potenti elaboratori elettronici, capaci di risolvere i complessi problemi che si presentavano alle comunità scientifiche e tecniche. L’architettura dei s. non si discosta da quella dei computer ordinari e comprende quindi una o più unità centrali di elaborazione (CPU) che eseguono i calcoli, una memoria centrale di lavoro, che contiene i programmi e i dati, e alcune unità di ingresso/uscita (I/O). La caratteristica specifica dei s. è l’altissima velocità di elaborazione, ottenuta mediante più CPU che, opportunamente controllate, operano in parallelo tra loro, o comunque in collaborazione, e in un tempo di ciclo molto ridotto. La tendenza è verso un parallelismo massiccio, con cluster di elaboratori che possono raggiungere diverse decine di migliaia di unità. Un limite allo sviluppo del calcolo parallelo è dovuto all’inadeguatezza delle tecniche di programmazione parallela e dei linguaggi relativi, che non consentono di sfruttare a fondo le potenzialità delle migliaia di unità di calcolo disponibili. D’altra parte, anche la capacità di esprimere i problemi in forma parallela, superando il classico schema indotto dalla programmazione sequenziale, è molto limitata e non si è ancora sviluppata in misura pari alle esigenze applicative. La necessità di ottenere risposte in tempi estremamente rapidi è fondamentale in molti sistemi operanti in tempo reale (e, a maggior ragione, in quelli operanti in tempo accelerato, per migliorare le capacità di previsione).
Due settori che sono stati all’origine dello sviluppo dei s. con rilevanti investimenti sono quello militare e quello astronautico e aerospaziale. Il calcolo delle traiettorie e il controllo delle astronavi in tempo reale richiedono infatti enormi potenze di elaborazione. Di particolare importanza applicativa è anche il campo delle previsioni meteorologiche, la qualità delle quali dipende in gran parte dalla possibilità di disporre tempestivamente dei risultati di complesse elaborazioni. In questo senso i s. permettono di rappresentare in anticipo, quindi in tempo accelerato, l’evoluzione dell’atmosfera e di prevedere i fenomeni meteorici con capacità di gran lunga superiori a quelle umane. Analogamente a quanto avviene in meteorologia, poi, anche nella cosiddetta modellazione della realtà i s. consentono di simulare eventi del genere più vario, purché si sappia esprimere la loro evoluzione in forma numerica, cioè si conoscano le equazioni di questa evoluzione. In tal modo i s. divengono laboratori di sperimentazione, seppur teorica, permettendo di simulare situazioni sperimentalmente irraggiungibili, come per es., negli studi geofisici, il centro della Terra. La simulazione è oggi l’applicazione più diffusa dei s., generalmente utilizzata per ricostruire e studiare l’evoluzione di fenomeni molto complessi, per i quali non si disponga di una modellazione semplificata ovvero non sia di utilità l’utilizzo della stessa perché troppo riduttiva.
Il s. più potente del pianeta è una evoluzione del prototipo IBM Blue Gene/L, presentato nel marzo 2005, che consta di 131.072 processori e nel 2007 è stato capace di raggiungere i 280 TFLOPS (teraFLOPS) in una applicazione reale.