Data Science: per AI e ML servono integrazione e interoperabilità

A livello enterprise, valorizzare realmente i modelli d’intelligenza artificiale e machine learning significa implementare piattaforme di data science unificanti: soluzioni in grado, quindi, di supportare non solo la grande varietà di tool utilizzati dagli specialisti, ma anche di accelerare la transizione degli algoritmi dalla fase di sviluppo all’ambiente di produzione, e consentire con flessibilità il loro deployment in ambienti multi cloud e ibridi in rapporto alle esigenze



Leggi l'articolo completo su ZeroUno

L'abilità di acquisire i dati, comprenderli, elaborarli ed estrarre valore da essi, visualizzarli e comunicarli, diventerà una capacità estremamente importante nei prossimi decenni: lo affermava, già nel 2008, in un articolo pubblicato dalla società internazionale di consulenza manageriale McKinsey & Company, Hal Ronald Varian, economista e professore emerito nella School of Information all’Università della California, Berkeley, riferendosi al fatto che i dati, oggi, sono reperibili in grande quantità attraverso varie fonti, ma è spesso difficile analizzarli con efficacia per ricavarne un reale beneficio. Tema centrale è quello dell’integrazione e dell’interoperabilità. 

Data science, più abbordabile per le aziende
La data science è la disciplina che studia le fonti informative, ed è lo strumento che aiuta a trasformare i dati in risorse per la creazione di business. Alle sue origini era relegata in laboratori e dipendeva dai supercomputer: oggi, con l’incremento di potenza dei computer e la diffusione del cloud, può uscire da quei laboratori ed entrare nelle imprese, per elaborare e analizzare enormi moli di dati strutturati e non strutturati in crescita esponenziale (big data), avvalendosi delle tecnologie e metodologie di intelligenza artificiale (AI) e machine learning (ML).

Anche i data scientist, i professionisti del settore, stanno evolvendosi, e integrando le tradizionali competenze di analisi delle grandi moli di dati, che tipicamente includono conoscenze di matematica, statistica, data warehousing, data mining, data modeling, programmazione, con la capacità di sfruttare AI e ML come moderni paradigmi di automazione delle attività di elaborazione e analisi: paradigmi fortemente orientati al rapido ottenimento di insight utili a identificare rischi e opportunità di business, e a migliorare i processi decisionali. 

Molteplici sfide per i data scientist
Storicamente, l’uso della data science a livello enterprise ha sempre creato non poche difficoltà, e costretto i team di data scientist a lottare con la complessità tecnica e organizzativa dell’infrastruttura IT necessaria per riuscire a fornire, nel rispetto delle tempistiche, informazioni di valore ai manager dell’organizzazione. La capacità di tali team di produrre, con la propria attività di intelligence, un impatto positivo sul business può talvolta essere limitata dalla scarsità di competenze di data science, o ostacolata dall’impossibilità di scalare in maniera semplice e rapida il modello di machine learning, costruito nella fase di sviluppo e test, all’interno dell’ambiente di produzione.

I data scientist hanno il gravoso compito di presidiare e controllare l’intero ciclo di vita dei dati (acquisizione, manutenzione, elaborazione, analisi, comunicazione), e d’integrare e consolidare, all’insegna della interoperabilità, in un’unica pipeline svariate fonti informative, che tendono a trovarsi isolate nei silos IT dei singoli dipartimenti e business unit aziendali, oppure provengono da streaming di dati generati in tempo reale da sensori, dispositivi IoT, forum online, social media, o da altri svariati touch point e canali d’interazione.

Continua a leggere l'articolo su ZeroUno

Nuova Vecchia
Privacy Policy Cookie Policy