Con l’AI generativa cambiano infrastruttura cloud, on-premise ed edge
Hyperscaler e imprese sono sotto pressione per aggiornare i propri sistemi e adeguarli per gestire i workload di AI generativa
Leggi l'articolo completo su ZeroUno
Il rapido trend di espansione della AI generativa (GenAI) aumenta la pressione a livello infrastrutturale per gli hyperscaler, e porta anche le varie organizzazioni a riconsiderare, in funzione dei diversi casi d’uso aziendali, la convenienza del modello cloud rispetto al paradigma on-premise.
La GenAI, stando alle stime di Bloomberg Intelligence, svilupperà un mercato da 1.300 miliardi di dollari entro il 2032. L’esplosione della GenAI accelererà di conseguenza la domanda di server con maggior potenza di elaborazione: in particolare, a livello di semiconduttori, aumenterà la richiesta di chip specializzati per l’esecuzione dei workload di intelligenza artificiale, come le GPU (graphics processing unit), componenti fondamentali del calcolo parallelo.
Gli imponenti requisiti di elaborazione parallela richiesti per il training dei modelli linguistici di grandi dimensioni (LLM – Large Language Models) utilizzati dalla GenAI starebbero in effetti inducendo gli ambienti data center ad accentuare la transizione, dalle classiche CPU (Central Processing Unit) general-purpose, verso le GPU. Lo sottolinea un articolo pubblicato dal gestore azionario ClearBridge Investments, citando alcuni dati J.P. Morgan, secondo cui, il segmento dei server ‘general-purpose’ risulterebbe oggi basato per il 60% su CPU, mentre quello dei server AI utilizzerebbe ormai per il 75% GPU.
Continua a leggere su ZeroUno ...
Nessun commento
Commenta questo post