Emc e i big data, la ricetta migliore per gestire l’incertezza

Big DataData storageEnterpriseFisco e Finanza
Emc Big data

I big data rappresentano l’arma in più nei prossimi anni per riuscire a governare l’incertezza. Ma sono fondamentali l’intelligence e l’architettura per interrogarli e gestirli. Servono figure professionali nuove e partner tecnologici in grado di accompagnare il cambiamento. La proposta Emc

Quanti sono i volti dei big data? E quali? E’ a questi interrogativi che Emc ha voluto rispondere oggi a Milano con l’evento/tavola rotonda “Leading Ideas”, pensato come appuntamento necessario per prepararsi alle sfide inevitabili dei prossimi anni. Perché il mercato dei big data è in crescita esponenziale (sette volte più veloce dell’IT secondo Idc) per un valore pari a quasi 17 miliardi di dollari entro il 2015, mentre erano appena 3,3 miliardi nel 2010. Un piatto potenzialmente ricchissimo, che va però cucinato con la giusta ricetta, i giusti ingredienti, e ponendosi le giuste domande.

Introduce il tema Marco Fanizzi, amministratore delegato Emc Italia: “Ognuno di noi con le quotidiane azioni alimenta il serbatoio di dati che è facile raccogliere come tali (in tanti casi sono già disponibili in azienda) ma che è più difficile far diventare informazione, rendere cioè funzionali al raggiungimento di uno scopo di business. Raccogliere, leggere, interpretare, interrogare correttamente e correlare i dati sono quindi le sfide già sostenibili dal punto di vista tecnologico, considerati gli strumenti messi a disposizione dalle soluzioni di virtualizzazione e di cloud computing, ma serve la preparazione di specifiche figure professionali per formulare le giuste domande”. Si parla quindi di data scientists, profili con specifiche competenze tecniche (ma anche cognitive e linguistiche) in grado di portare idee innovative per fare business a partire dai dati, dopo averli saputi leggere; i data scientists sono capaci di individuare l’anomalia saliente e “illuminare” il panorama che si vuole indagare, proponendo un nuovo scenario di possibilità già racchiuse in una dashboard tecnologica ma allo stesso tempo ancora nascoste.

Marco Fanizzi Emc Big data
Marco Fanizzi, Amministratore Delegato di Emc Italia

E’ il pensiero di fondo che si snoda come filo conduttore dei diversi interventi a partire da quello di Elisabetta Fersini e Enza Messina (Università degli Studi Milano Bicocca & Co-Founder Sharper Analytics): “Serve aggregare e interpretare l’eterogeneità del dato (per forma e provenienza), saper costruire modelli interpretativi attraverso data web text mining, modelli computazionali e modelli probabilistici per trattare adeguatamente l’incertezza. Bisogna riuscire a individuare una configurazione di ‘rete’ e leggerne l’originalità”.

“L’approccio scientifico di analisi del dato può essere declinato a vantaggio delle diverse verticalità aziendali”  è invece la sottolineatura di Marco Massarotto, Founder & President  di Hagakure, i cui inverventi, incrociati con quelli di Luigi Curini e Stefano Iacus (Università degli studi di Milano e co-founder Voices From the Blogs) focalizzano meglio l’approccio all’analisi dei big data in funzione delle analisi comunicative, soprattutto nei flussi generati da social e mobile per arrivare ad analisi predittive di comportamento e “sentiment”. Un ambito decisamente complesso, dove è richiesto agli scienziati del dato non solo di affidarsi a modelli matematici, ma di entrare nel dato stesso.

Emc Big data
Emc Leading Ideas, alcuni dei protagonisti del convegno di Emc sui Big Data

Siamo oltre la comune percezione del valore della BI, per cui oltre alla valorizzazione del ‘dato già in pancia’ alle aziende serve mettere a frutto l’analisi semantica, cercare chiavi interpretive sui valori degli scambi comunicativi oltre quelle che sono le potenzialità dei fondamenti da dizionario ontologico, e serve quindi procedere secondo un modello di analisi che ricerchi le distribuzioni aggregate al di là delle singole formule testuali.

Un’espressione di Valeria Sandei, Ceo di Almawave del gruppo Almaviva è particolarmente illuminante: “Per capire e interpretare la realtà ci troviamo a navigare non solo tra i dati , ma tra i concetti: si naviga la conoscenza”. Due i pilastri fondativi: “La necessità di individuare un hub per catturare le informazioni e la necessità di avviarci verso l’adozione di applicazioni native per i big data, strutturate cioè già per obiettivi di analisi diversi per  poi impattare correttamente l’interazione tra azienda e clienti”. 

Big Data, dalla teoria alla pratica

Dalla teoria alla pratica il salto è molto breve e il convegno si alimenta degli esempi in ogni ambito: dalla possibilità di analizzare i flussi di movimento delle persone sul territorio, anche per produrre offerte commerciali ad hoc (Massarotto), all’analisi dei processi comunicativi in ambito giudiziario (Fersini) o per le previsioni sugli esiti delle consultazioni politiche; dalle considerazioni analitiche possibili in ambito financial per il controllo di ogni processo finanziario e delle transazioni (Messina, Head of Service Line ICT infrastructure and Applications Unicredit BIS), alle proposte originali di acquisto e di analisi degli acquisti sulla base di semplici affissioni cartacee (con consegna della spesa reale a domicilio) o partendo da una degustazione occasionale, fino ad arrivare  alle  più sofisticate analisi anche su dati in parte già strutturati come quelli dei documenti della Biblioteca Apostolica Vaticana. Ne parla Luciano Ammenti, Resp. Coord. Servizi Informatici e Ced Director).

Bastano poche suggestioni in proposito. Per esempio, per la Biblioteca Apostolica Vaticana sfruttare i Big Data ha significato approcciare le problematiche paleografiche in modo innovativo portando l’informazione agli studiosi senza necessità di analizzare direttamente il documento. Il confronto documentale anche attraverso l’analisi calligrafica, sulla base dell’ampia capacità informativa di formati di file longevi (ma poco conosciuti) in grado di supportare le architetture a 64 bit (per esempio il formato FITS, utilizzato anche dalla Nasa) è stato uno dei passaggi obbligati virtuosi affrontati per arricchire il patrimonio di dati disponibili e indagare le necessarie correlazioni e analogie per delineare le appartenenze documentali. Nel panorama dei Big Data quella della Biblioteca Apostolica Vaticana è una history ancora più originale, considerata la necessità di conservazione dei dati per centinaia di anni.

[nggallery template=nme images=40 id=103]

La proposta EMC per i Big Data

E si arriva così alla proposta Emc facilmente modellizzabile seguendo le parole di Dario Regazzoni, Strategy & Technology Director: “Emc pone al centro il concetto di Software Defined Data Center, il data center smaterializzato”. Il cloud, non più neonato ma in fase di crescita contribuisce all’esplosione dei dati. I dati pervengono nei data center in modo veloce, devono essere analizzati e rientrare in circolo come informazioni di valore in tempo reale, serve smaterializzare e rendere agile anche il data center.

Dario Regazzoni, Strategy & Technology Director Emc
Dario Regazzoni, Strategy & Technology Director Emc

Emc abilita il processo sulla base di una proposta tecnologica articolata su tre livelli:

1. Una base costituita anche da ‘ferro’ e hardware: computing networking e storage. A questo livello sono protagonisti Vblock (l’abilitatore di macchine virtuali e delle applicazioni collegate); Atmos– il contenitore di oggetti- non necessariamente file – e Isilon in grado di dialogare con Hadoop per fare query istantanee di dati. Isilon parla con Hadoop nativamente.
2. Lo strato superiore ospita la cosiddetta “Pivotal Platform”, lo strumento per la gestione dei big data, composta sia di hardware sia di software – il parallelo in funzionalità di quanto Vblock fa a livello di data center: affiancata da Hadoop e Hawq, l’interfaccia per dialogare anche con le applicazioni che ho già e da Syncplicity, una sorta di Drop Box aziendale on premise.
3. Il terzo e ultimo livello: quello rappresentato proprio dalle piattaforme applicative protagoniste dalle storie raccontate. Con gli strumenti quindi di analytics e i tools. Per esempio viene citato Greenplum Chorus, una piattaforma di collaboration per i data scientist,per sviluppare applicazioni e idee, ma anche il complemento per piattaforme come quella di Sas, oppure strumento di delocalizzazione dei contenuti.

Read also :
Clicca per leggere la biografia dell'autore  Clicca per nascondere la biografia dell'autore