Post in evidenza

Con l’AI generativa cambiano infrastruttura cloud, on-premise ed edge

Hyperscaler e imprese sono sotto pressione per aggiornare i propri sistemi e adeguarli per gestire i workload di AI generativa Leggi l'a...

AI e ML: la data science si fa con infrastrutture e governance

Intelligenza artificiale e machine learning spingono al limite le capacità dell’IT, sia in termini di potenza di calcolo, storage e risorse hardware, sia di abilità di gestione e controllo dell’estrema eterogeneità dei dati: un ambito in cui, osserva la società di ricerche Gartner, all’esigenza degli utenti, di costruire, implementare e gestire nel tempo i modelli analitici, corrisponde un’offerta tecnologica in rapida evoluzione, indirizzata verso la fornitura di piattaforme di data science integrate e complete





Leggi l'articolo completo su ZeroUno


Ormai è certo che la data science guiderà sempre più le strategie di business, ma i dati indicano anche che c’è ancora molto lavoro da fare negli ambienti IT. Le sfide di trasformazione sono organizzative e tecnologiche: queste ultime si giocano sia a livello di infrastrutture hardware dei data center, sia sul piano della governance dei dati a livello software. Saperle vincere potrà permettere di realizzare progetti migliori, più capaci di sfruttare appieno la potenza di intelligenza artificiale (AI) e machine learning (ML).

Due componenti che un numero crescente di iniziative imprenditoriali cerca di padroneggiare, con l’obiettivo di migrare verso il paradigma ‘data-driven’, e generare ‘insights’ utili a potenziare la competitività dell’organizzazione. 

Insufficienza infrastrutturale

Da punto di vista delle infrastrutture IT, gli emergenti strumenti di data science, AI e ML appunto, stanno spingendo al massimo le capacità dell’hardware, e progressivamente esplicitando, nei data center, l’inadeguatezza delle attuali infrastrutture server, messe sempre più in crisi dall’esigenza, di responsabili dei sistemi informativi, manager delle LOB (line of business), data scientist, di gestire in azienda applicazioni di analisi dei dati che richiedono crescenti prestazioni computazionali.

Le applicazioni AI, spiega la società di ricerche di mercato IDC in un white paper, e in particolare i sistemi di deep learning (DL), che analizzano quantità di dati molto grandi, necessitano di un’elevata capacità di calcolo, e di potenti funzionalità di elaborazione parallela. In sostanza, i limiti delle CPU standard nell’eseguire con sufficienti prestazioni e scalabilità le applicazioni di data science che integrano AI e ML stanno diventando sempre più evidenti. In base ai sondaggi di IDC, tra coloro che hanno attivato applicazioni AI sulla propria infrastruttura on-premise già esistente, il 77,1% riporta di aver incontrato uno o più problemi: difficoltà di gestione, scalabilità, limiti di prestazioni, impossibilità di rispettare gli SLA (service level agreement), storage insufficiente, difficoltà di diagnosticare i problemi, difficoltà di virtualizzazione dei server, lacune di interoperabilità nel data center, elevato utilizzo di energia, limitazioni di memoria. 

Nessun commento

Commenta questo post