La trasformazione tecnologica in azienda tra Cloud, Edge e Fog Computing

Big DataDatacenter

La possibilità di avere capacità computazionale non solo in cloud, non solo all’edge ma anche nel Fog abiliterà nuovi scenari di trasformazione e valorizzazione dei dati. Cos’è il Fog Computing?

Come evolve l’infrastruttura tecnologica all’interno delle aziende? Quanto è abilitatrice effettiva dell’innovazione? E’ vero che le tecnologie spesso sono oramai commodities non in grado di fare la differenza?
A questa e altre domande si è cercato di rispondere in occasione di Technology Infrastructure Summit 2018.
Il momento attuale senza dubbio è un momento di effettiva rottura con il passato e vede l’agire di un effetto combinatorio di una serie di accelerazioni: Internet, il Mobile, Web 2.0, il Cloud, Big Data e AI. Tecnologie tutte che hanno richiesto tempi di adozione rapidissimi, almeno rispetto alle trasformazioni precedenti.

Ezio Viola, AD TIG

Oggi però godere di benefici immediati in ambiti in cui prima si riteneva difficile incidere è relativamente più facile, grazie alla capacità computazionale disponibile anche elevatissima (magari anche solo a richiesta).

Le potenzialità tecnologiche possono quindi esse stesse essere di impulso. Cloud ed edge computing (per la valorizzazione del dato) non sono gli unici punti di arrivo: infatti oggi si parla anche di Fog Computing, tra il perimetro del cloud e il calcolo all’origine di IoT, a bordo di oggetti e sensori.

In questo contesto bisogna individuare i domini di creazione del valore, secondo tre direttrici fondamentali: la sfera cliente/consumatore, la revisione dei processi aziendali e la parte più innovativa che fa riferimento alla capacità delle aziende di creare valore aggiunto sfruttando i dati. Quest’ultimo il tema a noi più caro in questo contributo.

La fotografia attuale ci dice però anche il punto di partenza: il cloud è penetrato per circa il 25 percento rispetto all’on premise in azienda, e ora si guarda con attenzione a scenari multicloud. Lo fa una buona percentuale, ma non stupefacente. Le aziende sono concentrate sul pilastro abilitante di una customer experience all’altezza e si registra allo stesso tempo la richiesta di competenze. Servono esperti di cybersecurity, data scientist ed in seconda battuta sviluppatori ed esperti IoT.

Il punto centrale resta proprio cercare di capire come accompagnare la trasformazione digitale del business con una coerente trasformazione digitale dell’IT e di processo, a partire dallo scenario attuale e dalla valorizzazione del dato.

Qui si innesta il contributo di Pierluigi Plebani, Assistant Professor del Politecnico di Milano, relativo al Fog Computing come possibile ulteriore driver di cambiamento.

Tra Edge e Cloud, il Fog Computing

Già il nome Fog Computing suggerirebbe qualcosa di poco chiaro, e in un certo senso è proprio così. Di definizioni non ne mancano.

Per esempio Wikipedia lo definisce sostanzialmente come un’architettura orizzontale, a livello di sistema, utile a distribuire senza soluzione di continuità risorse e servizi di calcolo, immagazzinamento di dati, controllo e funzionalità di rete sull’infrastruttura che connette il Cloud all’Internet delle Cose (IoT).

In questo senso il Fog rappresenta quindi al tempo stesso un’estensione e un miglioramento del paradigma Cloud in supporto ad applicazioni IoT che debbano rispettare precisi parametri di Qualità di Servizio (QoS) per essere processati, quali latenza e banda disponibili per una certa connessione.

Plebani sostanzialmente si allinea a questa definizione, ma sottolinea un aspetto importante: “Cerchiamo i vantaggi del Fog Computing soprattutto in relazione con i due mondi (Big Data e AI, nella loro più ampia estensione)”.

Pierluigi Plebani - Assistant Professor del Politecnico di Milano ed esperto di Fog Computing
Pierluigi Plebani – Assistant Professor del Politecnico di Milano ed esperto di Fog Computing

Nella trasformazione aziendale il Fog Computing potrebbe rivelarsi un insieme di soluzioni tecnologiche rilevanti perché in uno scenario di altissima produzione dei dati, la stessa infrastruttura della rete classica (con i dati al centro e il paradigma client server) entra in crisi.

I dati oggi si qualificano sulla scorta di cinque parametri: Volume, Velocity, Variety, Veracity e il Valore.

Sono prodotti da un numero sempre maggiore di sensori ma allo stesso tempo restano non valorizzati, oppure diventa molto costoso anche solo tenerli fermi, senza sfruttarli. Il problema originario di data deluge va affrontato. E’ facile comprenderlo con un semplice esempio: un’auto a guida autonoma produrrà 4 TB di dati al giorno, quale modello di rete potrà mai utilizzarli? Pensiamo possano rimanere a bordo dell’auto, dove vanno elaborati? Domande importanti ma rispetto al passato è vero che tutti i dati che raccogliamo ora possono potenzialmente offrire valore.

Oggi già riusciamo a far eseguire piccoli algoritmi già onsite sui dispositivi, sui sensori (edge computing), al tempo stesso anche dal punto di vista del software, sempre più pervasivo, si riesce già a inserire sempre più software all’interno di piccoli oggetti che fanno sempre più cose. Tuttavia restano apertealcune sfide importanti: per esempio in ambito data transfer.

Non si riesce a compiere tutta la computazione desiderata onsite (edge), anche perché onsite non si dispone di scalabilità. Per questo si “spediscono” i dati in cloud, dove non manca la capacità computazionale, si analizzano e si restituiscono all’interno del dispositivo magari per offrire una risposta all’utente finale. Questo però incide sui tempi di latenza, in modo sensibile. Qui intervengono le tecnologie di Fog Computing.

Ovvero la computazione nel ‘mezzo’ tra Cloud ed Edge, quindi su router, gateway, microDC tra l’oggetto e il fornitore di servizi cloud, quindi a capo degli operatori di telecomunicazione, con cui si deve poter interagire in modo trasparente. L’obiettivo è riuscire a capire quali dati sono effettivamente da spostare e soprattutto dove è utile che siano computati, non necessariamente sul Cloud o sull’Edge, ma in qualunque punto del Fog, con tutte le relative problematiche di privacy.

Torniamo per un attimo alle definizioni, Cisco ha definito il Fog Computing già nel 2012, OpenFog ha proposto la sua visione nel 2016, il Nist nel 2018, e in alcune di queste definizioni è possibile intravvedere diverse sfaccettature. Cisco per esempio ha l’accento sull’idea di sistema virtualizzato, in cui sono presenti elementi di storage e networking tra il DC e dove i dati sono creati. OpenFog invece propone l’idea di un’architettura gerarchica a livelli per cui si distribuisce la computazione, storage e networking per costruire un continuuum tra cloud e cose. Il Nist, secondo Plebani, sostanzialmente non aggiunge nulla.

I vantaggi del Fog Computing, in estrema sincerità, non sono ancora chiari al momento. Il tentativo di ottimizzare la computazione distribuendola lungo tutta la filiera dall’edge al cloud minimizzando l’impatto del trasferimento dei dati non è per nulla facile, ma certo pone di fronte a scenari suggestivi.

Infatti nell’ambito delle applicazioni di AI e Machine Learning a livello teorico i vantaggi sono invece ben comprensibili. Si dovrà capire con precisione quali dati conviene spostare e come, per questo oggi iniziamo a parliamo di information logistic.In ambito Big Data poi, una lavorazione di aggregazione o rappresentazione sintetica potrebbe rappresentare un passaggio interessante.

In atto, al riguardo, il Politecnico ha in corso il progetto DITAS. Riguarda lo sviluppo di applicazioni data intensive all’interno di un ambiente di tipo Fog, per fornire una soluzione che permetta a chi possiede dei dati (stream, relazionali e non relazionali) di fornirli in maniera efficiente ai propri utenti.

Obiettivo è creare un mix tra tre domini: Fog Computing, l’approccio paradigmatico portato da una Service Oriented Architecture, e infine il Content Delivery Network, ovvero l’ottimizzazione della distribuzione dei dati secondo una visione concentrica. In un’architettura Fog le sfide principali sono quelle di riuscire a creare un ambiente a supporto sia del programmatore, sia l’esecuzione dinamica di fornitura dei dati.

Clicca per leggere la biografia dell'autore  Clicca per nascondere la biografia dell'autore