Nella corsa globale per il dominio dell’intelligenza artificiale, il ruolo dell’hardware è sempre più strategico: dalle GPU evolute ai chip neuromorfici, così si costruisce il futuro della reasoning AI
Leggi l'articolo completo su Elettronicanews
L’intelligenza artificiale (AI) apprende dai dati e fornisce risposte che costituiscono un supporto sempre più cruciale nei processi decisionali e nella trasformazione del modello di business delle varie organizzazioni. Le capacità della AI continuano a evolversi, ma richiedono crescente potenza di calcolo. Naturalmente, la capacità evolutiva della componente software, quindi dei modelli AI, rimane essenziale: ma ora il ruolo centrale dell’hardware sta sempre più emergendo in primo piano, e spostando la pressione sui team di ricerca e sviluppo che hanno il compito di esplorare nuove architetture e innovare i chip, i semiconduttori, e la componente infrastrutturale che consente ai modelli AI di funzionare. Ora è la capacità d’innovazione dell’hardware che limita i progressi negli algoritmi di AI generativa (GenAI), e la loro transizione verso forme ancora più evolute di intelligenza artificiale. Molto dipenderà da quali avanzamenti saranno raggiunti nello sviluppo di acceleratori AI e dispositivi basilari per il supporto dei modelli, che oggi includono soprattutto GPU (graphics processing unit) e TPU (tensor processing unit), ma anche NPU (neural processing unit), ASIC (applicationspecific integrated circuit), FPGA (field programmable gate array), e altri dispositivi di nuova concezione, come i chip neuromorfici, ancora sostanzialmente in fase di ricerca e sviluppo avanzato.
Nella gara mondiale per il dominio dei semiconduttori e dei chip AI concorrono da tempo attori come Nvidia, AMD, Intel, Google, AWS, Huawei, ma lo scenario sta cambiando, per effetto delle mosse strategiche di alcune società, che vanno anche nella direzione di ridurre la dipendenza dagli acceleratori AI di fornitori esterni: ad esempio, negli ultimi due anni Microsoft ha cominciato a muoversi direttamente nell’hardware, annunciando nel 2023 i suoi primi chip AI proprietari sviluppati interamente, Maia e Cobalt. Ed ora anche OpenAI, secondo quanto riportato dal Financial Times i primi di settembre, si prepara a produrre il suo primo chip AI nel 2026, in collaborazione con il gigante statunitense dei semiconduttori Broadcom, per il quale l’accordo di partnership vale 10 miliardi di dollari. Insomma, la posta in gioco è molto alta perché, nella competizione sulla AI, la qualità e la potenza dei chip avrà un peso determinante nel supporto dei modelli di nuova generazione. Questi ultimi potranno superare i modelli attuali se sapranno fare la differenza, e dimostrarsi sempre più affidabili anche nell’elaborazione di ragionamenti complessi.
