martedì 21 novembre 2017

Maxim: un ‘DNA’ rende inattaccabili i dispositivi IoT

Maxim: un ‘DNA’ rende inattaccabili i dispositivi IoT

Presentato a Monaco di Baviera l’autenticatore sicuro DS28E38 DeepCover con tecnologia ChipDNA, proposto sul mercato come soluzione pratica per proteggere dispositivi e progetti da minacce informatiche e tentativi di clonazione

Leggi l'articolo completo su Elettronica Plus

Don Loomis, Vice President Micros, Security and Software Business Unit di Maxim Integrated Products

NeI mondo i cyberattacchi figurano sempre più tra le notizie di cronaca sui vari media e, anche in termini economici, il dilagare delle minacce informatiche sta causando danni sempre maggiori: la società di ricerche Cybersecurity Ventures stima che il cybercrime costerà al mondo seimila miliardi di dollari l’anno per il 2021.

In questo scenario, con l’obiettivo di fornire una soluzione ai problemi più recenti di protezione dei dispositivi, Maxim Integrated Products ha presentato sul mercato un prodotto che punta a difendere in maniera semplice, rapida ed economica i vari device dagli attacchi fisici invasivi: si tratta dell’autenticatore sicuro DS28E38 DeepCover con tecnologia ChipDNA.

Un ambito particolamente critico della cybersecurity sono i dispositivi IoT (Internet of Things) disseminati nel mondo, il cui numero è in continua espansione: tutti questi innumerevoli nuovi endopoint connessi in rete sono esposti agli attacchi, e rappresentano delicati punti di vulnerabilità per guadagnare l’accesso all’intera rete.

Continua a leggere l'articolo su Elettronica Plus

giovedì 16 novembre 2017

Nutanix: dopo l’infrastruttura IT, ora tocca agli ambienti multi-cloud diventare ‘invisibili’

Nutanix: dopo l’infrastruttura IT, ora tocca agli ambienti multi-cloud diventare ‘invisibili’

Alla conferenza .NEXT Europe di Nizza, la casa di San José ha presentato alcuni nuovi servizi che faranno evolvere la piattaforma Enterprise Cloud, per abilitarla ad amministrare con semplicità infrastruttura e applicazioni di business nell’era IT delle molteplici nuvole



Leggi l'articolo completo su ZeroUno


NIZZA – In una fase evolutiva dell’IT in cui il processo di digitalizzazione sta raggiungendo in maniera pervasiva tutta l’infrastruttura del data center – dai server, allo storage, alla rete, alla sicurezza – la maggioranza delle imprese è ormai convinta che la digital trasformation sia un’opportunità competitiva da cogliere, come testimonia anche il crescente numero di Ceo che, ormai da quanto rilevato da numerosi studi, ha deciso di porla al centro della propria strategia corporate entro la fine di quest’anno. Ma nel richiamare questi trend dell’IT, Dheeraj Pandey, Founder, Ceo e Chairman di Nutanix, parlando al keynote di apertura della conferenza .NEXT Europe a Nizza, sottolinea un problema ancora spesso irrisolto: per riuscire a realizzare la trasformazione digitale, il più grande ostacolo rimane, nella maggioranza dei casi, l’inadeguatezza, la complessità e la rigidità di gestione dei sistemi IT legacy esistenti, dei ‘silos’ informativi stratificati nel tempo. Ed oggi a questa priorità se ne affianca un’altra ugualmente importante, perché a dover diventare sempre più agili e ‘invisibili’, sotto il profilo della semplicità d’uso, non sono più soltanto le infrastrutture IT aziendali: traguardando il 2025, l’obiettivo di Nutanix, dopo l’infrastruttura IT legacy, è rendere ‘invisibili’ anche le molteplici nuvole a cui le aziende stanno facendo crescente ricorso per abilitare ed erogare le proprie applicazioni di business. Quindi se, da un lato, la strategia è facilitare sempre più l’adozione e la gestione delle infrastrutture iperconvergenti, all’interno del data center, dall’altro, l’impegno di Nutanix è semplificare l’implementazione e l’amministrazione degli ambienti multi-cloud, in cui nuvole private, pubbliche, ibride coesistono, s’interconnettono, interoperano. 


Enterprise Cloud, nuovi servizi per lo sviluppo applicativo

ll fulcro attorno a cui ruota l’offerta tecnologica di Nutanix è la piattaforma Enterprise Cloud, che punta a portare nel data center aziendale, e quindi nel cloud privato, la medesima agilità, semplicità e convenienza di gestione dell’IT sperimentabile con l’uso del cloud pubblico, ma senza sacrificare la sicurezza, la capacità di controllo e le prestazioni, tipiche di un’infrastruttura privata. Oggi però, il passo successivo è estendere le funzionalità della piattaforma nell’universo degli ambienti IT multi-cloud, fornendo non solo gestione dell’infrastruttura, ma anche delle applicazioni, e usando diverse nuvole, chiarisce più volte Greg Smith, VP Product Marketing di Nutanix. 

Continua a leggere l'articolo su ZeroUno
NetApp Insight 2017. Estrarre valore dai dati, l’oro nero delle aziende

NetApp Insight 2017. Estrarre valore dai dati, l’oro nero delle aziende

All’evento NetApp Insight 2017 di Berlino, il tema sotto i riflettori è stato ‘change the world with data’. Un’occasione in cui la società ha illustrato a 360 gradi la propria visione tecnologica nello storage, che spazia dai sistemi on-premise, alle soluzioni di infrastruttura iperconvergente, alla gestione dei dati in ambienti IT multicloud



Leggi l'articolo completo su ZeroUno

BERLINO – Le informazioni sono il nuovo petrolio. Al di là dell’architettura di storage, oggi il tema davvero caldo, al centro delle preoccupazioni dei CIO che nel mondo governano le infrastrutture IT aziendali, sono i dati. I dati e il modo in cui un’organizzazione li sa gestire: questo, sottolinea Alexander Wallner, Senior Vice President e General Manager Emea di NetApp, durante un press briefing a margine dell’evento NetApp Insight 2017, svoltosi in settimana al CityCube di Berlino, è il riscontro che egli recepisce nella maggior parte dei casi parlando con i chief information officer. “E questo – aggiunge – sarà probabilmente il fattore più critico da controllare per i clienti della società nei prossimi anni. Anche perché, a differenza del passato, oggi i dati possono essere costituiti da tutto, comprendendo molte tipologie d’informazioni, e trovarsi dappertutto, in seguito alla diversificazione delle fonti e degli endpoint di raccolta, che continua attraverso la diffusione del cloud e delle applicazioni IoT”. 
“In tale contesto, agli utenti che chiedono risposte su strategie di riduzione dei costi e modernizzazione dell’IT, NetApp – spiega Wallner – intende proporsi come una ‘data authority’ per il cloud ibrido, in grado di supportare le imprese in maniera completa nelle iniziative di data management, attraverso tecnologie, tool e servizi che consentono di coprire l’intero ciclo di vita nella gestione delle informazioni: dalla raccolta dei dati, al loro trasporto, alla memorizzazione, all’analisi, fino all’archiviazione. Anzi – precisa Wallner – più che di cloud ibrido, termine che può dare l’impressione alle imprese di doversi legare a un solo provider, oggi si parla soprattutto di ambienti e strategie multi-cloud, che permettono di evitare situazioni di ‘vendor lock-in’ e di sfruttare i benefici delle differenti nuvole”.

Continua a leggere l'articolo su ZeroUno
Blockchain: perché va resa più sicura e quali vantaggi può portare alle imprese

Blockchain: perché va resa più sicura e quali vantaggi può portare alle imprese

La tecnologia blockchain costituirà la fondazione per transazioni verificabili, spaziando dai pagamenti, ai trasferimenti finanziari, al tracciamento delle consegne, fino alla verifica e autenticazione dell’identità. Tuttavia, per giocare questo ruolo chiave, spiega in un rapporto la società di ricerche Forrester, blockchain dovrà prima essere resa davvero sicura



Leggi l'articolo completo su ZeroUno

La promessa della tecnologia blockchain è garantire a imprese e organizzazioni d’ogni genere l’esecuzione di transazioni affidabili, verificate e validate, capaci di minimizzare i rischi di compromissione dei dati. Di queste capacità l’economia digitale avverte l’esigenza, chiarisce in uno studio la società di analisi di mercato Forrester, e per diverse ragioni. Da un lato, le imprese devono poter ottenere una visibilità comune e affidabile sulle transazioni digitali in atto nel loro ecosistema, comprovando pagamenti di prodotti o servizi, e ottenendo garanzie di pagamento dai partner. Dall’altro, banche e istituzioni finanziarie devono ridurre lo sviluppo di attività fraudolente nei pagamenti P2P (peer-to-peer), nell’uso di criptovalute come Bitcoin e nei pagamenti con dispositivi mobili. Tra i molti punti da potenziare, vanno anche migliorate le soluzioni antiriciclaggio, o AML (Anti-Money Laundering), che spesso, aggiunge Forrester, non possono ricostruire un corretto contesto delle identità che hanno preso parte alla transazione, a causa della mancanza o frammentarietà delle informazioni.


Ecco i punti di attenzione nella scelta della blockchain

Nel mercato esiste un fraintendimento secondo cui la blockchain è sicura per definizione, ma così non è. Da un certo punto di vista, è vero, la sua natura decentralizzata, con un database distribuito che funziona come un registro indelebile, le permette di fornire garanzie aggiuntive sull’integrità dei dati, rispetto ai tradizionali software transazionali. Ciononostante, Forrester raccomanda ai professionisti della sicurezza e gestione del rischio di verificare con i fornitori di tecnologia blockchain alcuni aspetti chiave:

Come vengono gestite le chiavi PKI della blockchain? L’accesso alla gestione delle chiavi degli algoritmi di cifratura di blockchain dovrebbe restare limitato alle sole parti autorizzate.

Quanto la progettazione della blockchain salvaguardia l’immutabilità delle transazioni? L’utilizzo di algoritmi di consenso, e di meccanismi di storage ridondante e decentralizzato dei blocchi, aiuta a garantire l’integrità dei dati.

Quali tipi di algoritmi di consenso supporta blockchain? Forrester prevede che le implementazioni blockchain supporteranno e dispiegheranno una varietà di meccanismi di consenso, in funzione dei requisiti che i singoli casi d’uso richiedono in termini di scalabilità, confidenzialità, grado di fiducia e quant’altro.

Quant’è robusta l’autenticazione nella blockchain? Forrester prevede che l’autenticazione basata su password e credenziali PKI fornirà la fondazione del processo. La registrazione dei fornitori di blockchain e delle identità aiuterà a mantenere un registro dei provider pubblici, in modo da stabilire quali blockchain sono sicure e quali no.

Come la blockchain implementa l’autorizzazione? La blockchain dovrebbe supportare la modalità operativa di gestione delle transazioni sia con permesso (permissioned), sia senza permesso (permissionless). Forrester prevede che i fornitori di blockchain supporteranno entrambi questi modelli operativi.

Quanto sono solide le misure di tutela della privacy sulla blockchain? L’elevata trasparenza intrinseca in un’architettura blockchain predefinita rende arduo preservare la privacy personale e la confidenzialità dei rapporti commerciali, portando all’esigenza di tutelare la privatezza di taluni elementi di dati. Le blockchain di solito ottengono questo requisito tramite il partizionamento dei dati consentendo alle informazioni di andare alle sole parti che necessitano di riceverle.

Come la blockchain protegge se stessa dagli attacchi DDoS? Le minacce DDoS possono avere effetti disastrosi sull’operatività della blockchain, quindi gli sviluppatori della stessa devono anche assicurare che i linguaggi di programmazione usati per implementare l’autenticazione o altri meccanismi siano sicuri e non suscettibili, ad esempio, a fenomeni di ‘buffer overruns’ o ‘stack overflows’. 

Continua a leggere l'articolo su ZeroUno
Check Point: “La security dev’essere agile e automatica quanto il cloud”

Check Point: “La security dev’essere agile e automatica quanto il cloud”

Itai Greenberg, a capo della business unit della società israeliana dedicata alla sicurezza del data center e del cloud, spiega quali sono, al momento, le criticità prioritarie delle imprese: l’ultima sfida delle strategie e tecnologie di sicurezza IT è proteggere dati e applicazioni negli ambienti multi-cloud





Leggi l'articolo completo su ZeroUno

Le imprese fanno migrare l’IT nel cloud perché il loro obiettivo primario è essere più agili nel provisioning delle applicazioni e sul mercato. Che questa priorità sia ineludibile lo dimostra il fatto che sempre più aziende stanno adottando una molteplicità di cloud per acquisire un’agilità ancora maggiore in rapporto al business. In questo aspetto, con implicazioni chiave sulla sicurezza IT, Itai Greenberg, Head of Datacenter Security Business Unit di Check Point Software Technologies, individua la sfida principale per le organizzazioni che quotidianamente lottano con la tecnologia per attuare la trasformazione digitale. Oltre ad essere a capo dell’area di business che affronta il problema sicurezza nel data center e nel cloud, Greenberg è responsabile per le aree vendite, marketing, e dell’offerta di soluzioni per i cloud privati, i servizi cloud pubblici IaaS (infrastructure as a service) e la tecnologia SDN (software defined networking).


Recuperare governance sulla sicurezza

Per supportare le strategie multi-cloud delle aziende nell’ambito della IT security, chiarisce Greenberg, l’obiettivo numero uno è riprendere il controllo dei sistemi di difesa in ambienti cloud sempre più liquidi, dove fenomeni come la ‘shadow IT’ fanno perdere agli amministratori dell’infrastruttura la governance sulle applicazioni; dove la cancellazione della classica linea di demarcazione tra rete locale e mondo esterno rende insufficienti i tradizionali firewall e sistemi di difesa perimetrale. 


Continua a leggere su ZeroUno
Sicurezza nell’Internet of Things: le tecnologie chiave di protezione

Sicurezza nell’Internet of Things: le tecnologie chiave di protezione

Riuscire a difendere con successo i dispositivi e le infrastrutture IoT dipende dalla capacità di adottare un insieme di tecnologie, in parte consolidate e in parte emergenti. La società di analisi di mercato Forrester indica quali sono quelle più importanti




Leggi l'articolo completo su ZeroUno

Non esiste certo una formula univoca per risolvere con facilità tutte le falle e i problemi di sicurezza potenzialmente presenti nei dispositivi e nelle applicazioni Internet of Things (IoT). E ciò oggi, sottolinea in uno studio la società di ricerche Forrester, impone ai professionisti della sicurezza di adottare un’ampia gamma di tecnologie di protezione e difesa, per riuscire a mettere al riparo le implementazioni IoT dalle innumerevoli e sempre crescenti cyber-minacce.
Tra l’altro, gli attacchi si stanno facendo non solo più ingannevoli, variegati, sofisticati, difficili da identificare, ma si caratterizzano anche per una pericolosità crescente: con l’avvento della IoT, l’orizzonte delle minacce si amplifica, dalla sicurezza logica delle informazioni, ai problemi di safety. In altre parole, i rischi di compromissione e i danni non si limitano più al solo patrimonio informativo aziendale, fatto di dati e applicazioni, ma possono estendersi anche alle infrastrutture fisiche. Nei casi peggiori, le vulnerabilità di questi sistemi possono mettere a rischio l’incolumità delle persone.


Tante potenziali vulnerabilità

Per ricordare quanto i dispositivi IoT possano rivelarsi fragili, Forrester ricorda l’attacco DDoS (distributed denial of service) subìto nell’ottobre 2016 da Dyn, fornitore di servizi DNS (domain name server). Il danno si è tradotto nell’impossibilità per molti utenti nel mondo di accedere a siti web popolari, come Twitter, Spotify, Reddit. La tecnica di attacco ha sfruttato le vulnerabilità di molti dispositivi connessi a Internet, nella maggioranza telecamere, sistemi DVR e router, molti dei quali dotati di scarsi meccanismi di sicurezza, o addirittura totalmente privi.

Continua a leggere su ZeroUno
Metodologia DevOps: quali sono i tool e come sceglierli

Metodologia DevOps: quali sono i tool e come sceglierli

La grande ricchezza di strumenti disponibili sul mercato, sia di tipo open source sia commerciali, in concomitanza con abitudini di lavoro difficili da scardinare, rende complesso migrare verso il modello DevOps in maniera semplice. Per orientarsi nella selezione è utile una classificazione dei principali tool e anche qualche indicazione sui criteri base di implementazione





Il paradigma DevOps è una dimensione della trasformazione digitale che si fonda sulla stretta, costante e complessa collaborazione bidirezionale, all’interno di un’impresa, tra i team di sviluppo e test applicativo e le IT operation. Un numero crescente di organizzazioni punta verso la metodologia Agile/DevOps per razionalizzare la fluidità di movimento del codice tra i team dei reparti sviluppo e le operation, e per liberarsi dai rigidi e gerarchici schemi di creazione del software come quelli ‘a cascata’ (waterfall), che rallentano la velocità di rilascio di nuove versioni delle applicazioni, nuove funzionalità.
Al contempo, però, per assicurare che DevOps operi nel modo giusto e dia i suoi frutti, occorre anche instaurarlo integrando nel processo i corretti cicli di feedback tra i vari team di lavoro, quindi introducendo i tool adatti ed elevati livelli di controllo. Un compito difficile, perché il trend DevOps sta crescendo con tale rapidità che la sua adozione viene guidata dal basso, seguendo un approccio, cosiddetto, ‘bottom up’: con così tanti strumenti disponibili sul mercato, molto spesso in forma open source, non è un problema per lo sviluppatore di un team scaricarsi il tool che trova utile per sé e cominciare a usarlo. In questo caotico scenario di ‘shadow IT’, dove gli amministratori di sistema tendono a perdere il controllo degli strumenti usati dagli sviluppatori, e dove dominano insiemi diversi di tool DevOps, risulta arduo per un’impresa riuscire a introdurre una catena omogenea di strumenti. La ricetta magica per scegliere i tool di sviluppo più adatti a soddisfare alcune particolari esigenze aziendali non esiste, tanto più che tali strumenti, sia di tipo open source, sia proprietario e commerciale (closed source), proliferano nel settore.

giovedì 26 ottobre 2017

Enel: “Ecco perché siamo migrati sul cloud”

Enel: “Ecco perché siamo migrati sul cloud”

Fabio Veronese, Head of Infrastructure and Technological Services di Enel, spiega perché, e come, la società ha deciso di portare le proprie IT operation sulla nuvola pubblica di Amazon Web Services, per arrivare, entro il 2018, a un modello operativo ‘full-cloud’


Leggi l'intervista completa su ZeroUno





In un mondo dell’energia, anch’esso in piena trasformazione digitale, Enel oggi occupa una posizione di primo piano tra le utility europee, con più di 61 milioni di clienti, una capacità installata di 89 gigawatt, di cui 37 provenienti da fonti rinnovabili, e una rete di distribuzione di 1,9 milioni di chilometri. L’azienda ha guardato alla digitalizzazione come a una necessità, per rafforzare l’innovazione e accelerare il cambiamento, ed è passata da un modello che vedeva le IT operation gestite in totale outsourcing per Spagna e Sud America e attraverso i propri data center on-premise per Italia ed Europa dell’Est a un paradigma che, in prospettiva, sarà basato interamente sul cloud di Amazon Web Services. In questa intervista, Fabio Veronese, Head of Infrastructure and Technological Services della società, chiarisce le ragioni che hanno portato a questa scelta strategica.



ZeroUno: Quando è stato concepito, e quando è partito esattamente, il progetto di migrazione sul cloud delle IT operation di Enel? 
Fabio Veronese: Nel 2014 con l’avvento del nuovo management, e il conseguente cambio di strategia del Gruppo Enel, è stato possibile considerare concretamente anche in ambito IT una serie di opportunità che il mercato offriva, superando modelli più consolidati quali l’outsourcing. Il concept vero e proprio è stato elaborato negli ultimi mesi del 2014; il business case e piano attuativo è stato realizzato nella prima parte del 2015; successivamente, sempre nel 2015, sono stati finalizzati gli accordi con i provider e, verso la fine dello stesso anno, è partito il piano massivo ‘lift & shift’ di migrazione delle istanze.  

ZeroUno: Perché il cloud? Quali erano le criticità, i problemi chiave da affrontare nel modello di gestione pre–esistente e, prima, com’erano strutturati i servizi IT? 
Veronese: La configurazione dei servizi IT era conseguenza dell’acquisizione di Endesa [società spagnola di energia elettrica ndr]. Enel ha storicamente un modello di gestione interna dei sistemi, con il supporto di fornitori per le attività più operative, mentre Endesa aveva una storia ventennale di outsourcing con un player di primaria importanza. Due modelli antitetici e difficili da coniugare, ciascuno con i propri pro e contro. L’obiettivo non era dimostrare che un modello fosse migliore dell’altro, ma, in base alle opportunità di mercato, definire quello più adeguato a Enel, che consentisse di garantire flessibilità, robustezza, velocità ed economicità.  

ZeroUno: Può spiegare, più in dettaglio, quali applicazioni e servizi del sistema di gestione dell’energia di Enel devono essere gestiti da server e IT operation, lato infrastruttura e utenti interni, e lato clienti finali? 
Veronese: Le IT operation gestiscono l’intero parco delle applicazioni, gestionali e tecniche, del sistema informativo Enel, sia per i processi core, sia non-core: dalla misura, al billing, fino al customer engagement; dalla gestione degli stabilimenti di produzione termici, ai parchi eolici e solari; dalle applicazioni di contabilità a quelle di risorse umane, per finire con quelle di gestione del patrimonio immobiliare. Insomma, siamo presenti a 360 gradi su tutto il perimetro. 

Continua a leggere su ZeroUno
Machine learning in aiuto alla sicurezza delle app

Machine learning in aiuto alla sicurezza delle app

Le tecniche di apprendimento automatico delle macchine sono utilizzate da Google per migliorare la cybersecurity, suddividendo le app in categorie, poi utili come elementi di paragone per individuare le app malevole. Queste ultime spesso richiedono permessi inusuali, comportandosi in modo sospetto rispetto alla norma


Leggi l'articolo completo su ZeroUno




Chiunque oggi possieda uno smartphone è abituato, con cadenza quasi giornaliera, ad aggiornare le proprie app. Di tanto in tanto scarichiamo e installiamo con molta facilità anche nuove app, per provarle e beneficiare di ulteriori funzionalità e servizi sul nostro dispositivo mobile. Probabilmente pochi però prestano particolare attenzione nella fase di installazione, preoccupandosi di verificare il tipo di autorizzazioni, e permessi di accesso alle risorse del device, che queste app richiedono per poter funzionare.
Quando su dispositivi Android si usa lo store Google Play, per ciascuna app, a seconda delle necessità, prima dell’installazione è possibile leggere i dettagli sulle autorizzazioni richieste: ad esempio, i permessi per accedere alle risorse di archiviazione, al calendario, ai contatti, alla fotocamera, al microfono, alla posizione, agli sms, al telefono. Come detto, in parte è normale per le app richiedere tali permessi, ma vi sono casi in cui alcune di esse, a scopi commerciali, pubblicitari o, ancor peggio, con intenti fraudolenti, possono richiedere autorizzazioni non realmente necessarie per il funzionamento.
Identificare le app sospette con la ‘peer group analysis’


Identificare le app sospette con la ‘peer group analysis’

Già in passato Google aveva avuto problemi con app malevole individuate all’interno di Google Play. Oggi, sulla base degli insegnamenti tratti da quelle esperienze, la casa di Mountain View usa l’apprendimento automatico delle macchine (machine learning), la tecnica ‘peer group analysis’, e Google Play Protect per migliorare la sicurezza e la privacy delle app. In particolare Google Play Protect è un sistema di protezione delle app che, pur lasciando all’utente il controllo di quel che vuole installare, lo affianca in maniera costante, eseguendo in automatico un continuo monitoraggio del dispositivo, ed effettuando giornalmente la scansione di miliardi di app.
Grazie all’adozione di queste tecniche, attualmente Google applica un approccio proattivo al problema della protezione, indirizzato a limitare la capacità degli hacker di pubblicare app che, una volta installate sul dispositivo dell’utente, possano raccogliere più informazioni di quelle lecite.

Continua a leggere su ZeroUno


lunedì 9 ottobre 2017

Come fare spazio alle applicazioni AI nel data center

Come fare spazio alle applicazioni AI nel data center

Intelligenza artificiale e, soprattutto, ‘deep learning’ sono ancora agli inizi di un’ampia diffusione, ma il supporto di questi moderni algoritmi richiede un urgente potenziamento dell’architettura di data center, a livello di risorse di storage, networking e capacità computazionale


Leggi l'articolo completo su ZeroUno



Se n’è discusso e fantasticato per lungo tempo, in dibattiti scientifici, film di fantascienza, nell’immaginario collettivo: ma ancora, per il momento, nell’attesa di vedere come in questo secolo l’intelligenza artificiale (AI) cambierà il mondo, non si può ignorare che la sua applicazione nell’IT è soltanto agli albori. Oggi, in effetti, nel settore restano sul tappeto diverse sfide e problemi tecnici da affrontare e risolvere, per implementarla a un certo livello. In particolare, ingegneri e responsabili IT nei prossimi anni dovranno progettare architetture di data center in grado di superare le attuali limitazioni delle infrastrutture informatiche, soprattutto in termini di risorse di storage, networking, capacità elaborativa.


‘Smart machines’, ampia adozione già nel 2021

La velocità di evoluzione della tecnologia non lascia comunque molto tempo per lavorare a nuove soluzioni. Le macchine intelligenti entreranno infatti nella fase ‘mainstream’, quindi di larga diffusione, già nel 2021, con un tasso di adozione del 30% da parte delle grandi imprese, prevede Gartner. Sotto il termine ‘smart machines’ la società di ricerche annovera, oltre all’intelligenza artificiale, una ricca rosa di tecnologie: cognitive computing, intelligent automation, apprendimento automatico (machine learning), ‘deep learning’.
Quest’ultimo, assieme all’intelligenza artificiale, aggiunge Gartner, sarà un importante fattore da considerare nella progettazione delle architetture di data center.
Le applicazioni AI influenzeranno ogni singolo settore industriale, e sarà decisivo riuscire a intervenire in maniera proattiva, pianificando e architettando soluzioni in grado di supportare sistemi di AI e applicazioni di deep learning all’interno del data center. In realtà, la maggioranza delle organizzazioni non sta ancora realizzando tecnologia AI: mentre gran parte di esse sta faticando a partire, a fare da apripista nel settore, tra gli ‘early adopters’, vi sono soprattutto cloud provider come Google e Amazon Web Services. 

Leggi l'articolo completo su ZeroUno