Post in evidenza

Con l’AI generativa cambiano infrastruttura cloud, on-premise ed edge

Hyperscaler e imprese sono sotto pressione per aggiornare i propri sistemi e adeguarli per gestire i workload di AI generativa Leggi l'a...

Breaking News

Exascale computing, la scommessa per dominare i big data

In questo decennio, il prossimo balzo tecnologico del calcolo ad alte prestazioni assicura che porterà grandi innovazioni nella ricerca scientifica e nelle applicazioni di business: ma ci vorrà un notevole ripensamento delle architetture di computing, facendo i conti con consumi di energia, problemi di memoria, e adottando nuovi paradigmi di elaborazione


Leggi l'articolo completo su ZeroUno
Dai primi, tradizionali supercomputer alle moderne tecnologie di ‘high performance computing’ (HPC), l’elaborazione dati ad alte prestazioni si porta alle spalle una storia lunga decenni. Oggi, tuttavia, la tecnologia HPC torna più che mai d’attualità, e sale alla ribalta, cavalcando la nuova onda d’innovazione di questi anni, che la proietta direttamente verso l’era ‘exascale’, capitalizzando sulle più recenti architetture e tecnologie sviluppate in campo elettronico e informatico. Una stagione, quella exascale, che promette di far diventare i sistemi HPC, da un lato, un pilastro ancor più essenziale in campo scientifico per la ricerca d’avanguardia, e, dall’altro, un fattore chiave in grado, negli anni a venire, di alimentare i prossimi passi della rivoluzione digitale, liberando il potenziale degli algoritmi intelligenti (AI, machine learning, deep learning) in molti settori industriali e imprenditoriali. 

HPC verso gli exaflop
Per HPC si intende l’adozione di ‘supercomputer’, e di evolute tecniche di elaborazione dati parallela, per risolvere problemi di calcolo complessi, in maniera rapida, affidabile, ed efficiente, sfruttando la potenza di analisi, simulazione e modellazione dei dati fornita dai sistemi elettronici. Problemi computazionali che, a causa delle enormi moli di dati in gioco, non sono di norma affrontabili utilizzando i normali computer standard, dotati di una sola CPU, che non non riuscirebbero a gestire tali livelli di elaborazione, o comunque richiederebbero troppo tempo. In effetti, un sistema HPC si può descrivere come un ‘cluster’ di computer, quindi un gruppo di server e altre risorse, strettamente connessi e in grado di funzionare come un singolo sistema, eseguendo elaborazioni in parallelo. Nell’architettura cluster, ciascuna macchina che costituisce la rete di server è un nodo: in ogni nodo (server) le moderne CPU multi-core integrano più unità di elaborazione, i core appunto, capaci di eseguire istruzioni operando in parallelo.
In genere, la potenza di elaborazione di un sistema HPC viene misurata in FLOPS (floating-point operations per second), cioè in operazioni in virgola mobile per secondo. Attualmente, i sistemi HPC più veloci al mondo riescono a operare a velocità che si collocano nell’ordine di grandezza dei petaflops (1015 flops), ossia milioni di miliardi di operazioni al secondo.

Tuttavia, il prossimo traguardo, a cui si arriverà presumibilmente verso il 2020, prevede la realizzazione di macchine ‘exascale’, in grado di raggiungere l’ordine di grandezza degli exaflops ( 1018 flops), cioè miliardi di miliardi di operazioni al secondo. 

Nessun commento

Commenta questo post