mercoledì 7 giugno 2017

HPE con The Machine va alla sfida dei Big Data

La macchina, presentata recentemente dalla casa di Palo alto, promette di rivoluzionare anni d’innovazione nelle architetture server, con una capacità di elaborazione senza precedenti. Kirk Bresniker, Chief Architect Hewlett Packard Labs Systems Research, illustra le prospettive del progetto


Leggi l'articolo completo su Digital4Trade





Il prototipo con 160 TB di memoria


A oltre sei mesi dalla dimostrazione di quella che ha definito la prima architettura di computing ‘memory-driven’ del mondo – eseguita attraverso un prototipo mostrato come ‘proof-of-concept’ della capacità dei componenti fondamentali del nuovo computer di funzionare insieme – a metà maggio Hewlett Packard Enterprise (HPE) ha annunciato un nuovo prototipo, come ulteriore tassello nel percorso di evoluzione dell’iniziativa The Machine, avviata nel 2014. Quest’ultima è un progetto di ricerca e sviluppo che punta a rivoluzionare, attraverso il paradigma del ‘memory-driven computing’ (MDC), sessant’anni di innovazioni in campo informatico, ponendo al centro dell’architettura server non più il processore ma, appunto, la memoria.

Con questa architettura, HPE promette di superare i limiti di velocità degli attuali server, eliminando le inefficienze causate dal modo in cui memoria, storage e processori interagiscono oggi nei sistemi tradizionali. Obiettivo analizzare i dati con maggior rapidità ed efficacia, in un’era in cui innovazioni tecnologiche come la Internet of Things (IoT) stanno portando a un enorme incremento delle moli di informazioni da elaborare, e di conseguenza all’esigenza di macchine con prestazioni sempre maggiori. Qui il memory-driven-computing permetterebbe di elaborare i volumi di dati necessari per risolvere problemi complessi, stravolgendo le attuali tempistiche: ore invece di giorni, minuti invece di ore, secondi invece di minuti, in quest’ultimo caso fornendo capacità di intelligence in tempo reale.
Il nuovo prototipo di The Machine è dotato di 160 terabyte (TB) di memoria: una capacità sufficiente, spiega HPE, a lavorare in maniera simultanea con cinque volte i dati contenuti in ogni libro della Biblioteca del Congresso statunitense, che conta circa 160 milioni di volumi. Finora, ha precisato la casa di Palo Alto, non era mai stato possibile memorizzare e manipolare data set di queste dimensioni in un sistema ‘single-memory’. Oltre ai 160 TB di memoria condivisa, distribuita su 40 nodi fisici interconnessi mediante protocollo in fibra ad alte prestazioni, questo prototipo adotta un sistema operativo ottimizzato basato su Linux, che gira su processore ThunderX2 di Cavium, un SoC (System-on-Chip) basato su architettura ARMv8-A e progettato per la gestione di workload nel cloud. Le connessioni ottiche, incluso il modulo fotonico X1, risultano funzionanti e operative, e a tutto ciò si aggiungono gli strumenti di programmazione software, progettati per sfruttare la grande quantità di memoria persistente a disposizione.

Continua a leggere ...






SHARE THIS

Author:

Independent writing and editing professional

0 Commenti:

Commenta questo post