Fast Data, la nuova frontiera si chiama ‘insights-driven’ company
Nell’oceano di dati che invade le organizzazioni, i fast data emergono prepotentemente come le tipologie di dati su cui concentrare sforzi di analisi che rendono ‘obsoleto’ il ‘tradizionale’ approccio ‘data-driven’: il paradigma da adottare ora, indica la società di ricerche Forrester, è quello ‘insights-driven’, che capitalizza sulla velocità di analisi e sull’estrazione d’informazioni subito utili per differenziare prodotti e servizi e portare la ‘customer experience’ a un nuovo livello
La trasformazione digitale sta sempre più rivelandosi una transizione non facile da metabolizzare e implementare nelle diverse organizzazioni, perché costellata di continue sfide: ancora alle prese con problemi di formazione culturale sul trattamento e il valore del dato, e con strategie di miglioramento della ‘data literacy’, le aziende che hanno finalmente acquisito familiarità con metodologie e strumenti di analisi di big data, ora, devono perentoriamente concentrarsi su un altro target: i fast data.
Dai big data ai fast data, un passo delicato
Considerando come sta evolvendosi il trend di generazione dei grandi volumi di dati, oggi, per restare competitive sul mercato, le organizzazioni non possono più unicamente far affidamento su tecnologie, strumenti e modelli ‘classici’ di analisi dei big data: se fino a ieri i processi di elaborazione “batch” erano prevalenti nelle organizzazioni, e framework per l’elaborazione distribuita di grandi data set, come Apache Hadoop, potevano dimostrarsi sufficienti a soddisfare le esigenze aziendali, attualmente, l’esplodere dei fast data, e la marcata accelerazione della loro importanza per il business, stanno di nuovo complicando lo scenario tecnologico e strategico: negli attuali contesti imprenditoriali, la velocità con cui avvengono variazioni nei dati impone di far evolvere anche il modo in cui i dati stessi vengono elaborati e rivisti.
In questi casi, le convenzionali tecniche di programmazione degli aggiornamenti a ritmo quotidiano, o la memorizzazione delle informazioni in data lake per un’analisi differita, diventano pratiche obsolete. Crescono, invece, casi d’uso e applicazioni in cui la massima freschezza del dato, il suo aggiornamento immediato, o in un tempo molto breve, risultano essenziali. La velocità di analisi del dato diventa quindi un requisito prioritario, rispetto al volume, per attivare azioni di business davvero efficaci, o per fornire a utenti finali e clienti esperienze d’uso più complete e soddisfacenti per app e servizi, come quelle che fanno leva sull’omnicanalità.
Senza l’abilità di analizzare e integrare in tempo reale i dati raccolti dai diversi touchpoint, online e offline, con cui il consumatore interagisce, risulta difficile fornire servizi omnicanale. Ad esempio, nelle applicazioni che amministrano account relativi al proprio operatore telefonico, a social network o a servizi di home banking, senza l’elaborazione e lo sfruttamento dei fast data, difficilmente sarebbe possibile fornire all’utente app con cui è possibile eseguire transazioni, operazioni, e poi visualizzare subito, anche utilizzando dispositivi differenti, dati e informazioni sempre coerenti, integrati e aggiornati in tempo reale, 24 ore su 24.
Sviluppare la capacità di analisi degli stream di fast data diventa quindi un’opportunità per differenziarsi dalla concorrenza, anche se ciò richiede l’implementazione di architetture e strumenti IT appositamente sviluppati per amministrare con efficacia ed efficienza tali tipologie di dati.
Post Comment
Nessun commento
Commenta questo post