Big DataBusiness intelligenceCloudData storageDatacenter

IBM, l’evoluzione della strategia server e storage nell’era del Cognitive Business

Nel 1998 inizia la sua esperienza nel mondo IT in Mondadori e partecipa alla nascita di Web Marketing Tools di cui coordina la redazione. Redattore esperto di software per PC Magazine, e caporedattore di ComputerIdea, segue da circa 20 anni l'evoluzione del mondo hardware, software e dei servizi IT in un confronto continuo con le aziende leader del settore

Per IBM, Machine learning e Deep Learning devono essere al servizio di tutto il tessuto produttivo, non solo delle grandi aziende. In questa direzione si evolve l’offerta server e storage

La tecnologia disponibile oggi offre facilmente la sensazione di vivere un momento critico, di passaggio, ma anche una fase positiva ed entusiasmante non solo per il mondo IT ma per tutte le industries e le realtà, anche del nostro Paese. Si tratta di un momento di scommesse e trasformazioni, ma anche di apertura verso nuovi scenari e possibilità impensabili fino a ieri, possibilità che spesso possiamo ricondurre agli sviluppi nell’ambito dell’Intelligenza Artificiale. Un tema che indaghiamo a casa di IBM calandolo nelle realtà concrete delle infrastrutture server e storage proposte da Big Blue per comprendere quali saranno le strategie che guideranno gli annunci dell’anno appena iniziato.

Marco Utili
Marco Utili, Director of Systems Hardware sales per IBM Italy

Marco Utili, Director of Systems Hardware sales per IBM Italy, ci guida inizilamente nel viaggio e, contrariamente a quanto si è soliti sentire quando questi sono i temi, torna ai concetti fondamentali: “Assistiamo a un’importante rifocalizzazione sull’infrastruttura, ed è un mito da sfatare che essa rappresenti solo una commodity e per fortuna non sono pochi i clienti che la pensano così”.

Ci sarebbero, secondo IBM, aree sensibili anche del nostro tessuto industriale, per cui si  farà sempre più attenzione agli investimenti nell’ambito infrastrutturale evoluto. Questo perché si è spostato in avanti l’orizzonte comune,  che è ancora di frontiera, secondo cui è possibile già oggi fare business grazie all’Intelligenza Artificiale, in uno scenario in cui Big Data e Advanced Analytics rappresentano i passi di avvicinamento verso l’obiettivo finale del Cognitive Business.

Per IBM allora l’infrastruttura sarebbe proprio l’abilitatore della trasformazione da un business  che sfrutta semplicemente il dato transazionale verso i sistemi di Cognitive Insights. Utili: “Parliamo di infrastruttura in un ambiente di cloud ibrido, che combina risorse on premise, disponibilità applicative in cloud pubblico, per un sistema di Insights virtuosi e subito disponibili per il cliente”. 

Ecco allora il driver evolutivo sia dal punto di vista server, sia storage, dove Machine Learning e Deep Learning non riguardano più solamente tutta la famiglia Watson nel cloud, ma entrano come proposizioni concrete nei data center aziendali sia in ambito Mainframe, sia attraverso Power AI e, nello storage, come elementi abilitanti la gestione, il salvataggio e la disponibilità del dato sfruttando l’infrastruttura dove è più conveniente farlo per l’uso stesso del dato e la sua rilevanza.

Nel mondo server è di pochi giorni fa l’annuncio della creazione di una divisione nuova che si chiama Cognitive Systems. Ha l’obiettivo di portare i temi Deep, Machine Learning e Intelligenza Artificiale a disposizione di qualsiasi azienda pronta a intraprendere questo percorso. Sistemi di supercalcolo e deep computing per pochi grandi attori si aprono al mercato di aziende di qualsiasi dimensioni. E’ prevista la possibilità di sfruttare i processori Power con una serie di funzionalità software e hardware ‘open’.

IBM - Machine Learning e Deep Learning
IBM – Machine Learning e Deep Learning

La stessa tecnologia Power, nel consorzio Open Power Foundation, infatti, è oggi aperta con l’obiettivo di arrivare alla creazione di server aperti (come avviene a livello software), uno dei risultati è proprio Power AI che combina il design dei processori Power con Gpu del mondo Nvidia, attraverso i link tra Gpu e Cpu (Nv-Link). In ambito Mainframe la novità più importante è ancora più recente, di metà febbraio, con l’annuncio – appunto – di Machine Learning per la serie Z. Si tratta proprio di portare il machine learning di Watson in cloud pubblico dentro il data center dei clienti, all’interno del loro cloud privato.

Una grande scommessa che ha bisogno di essere conosciuta. Spetterà ad Andrea Negro, Server Solutions Sales Manager IBM Italia, trasformare le linee guida della promessa tecnologica in una realtà adottata dai clienti.

IBM Learning Machine per z/OS e IBM Power AI 

Il Machine Learning è oggi localizzabile nel’incontro di due grandi forze nell’ambito IT: i Big Data e le applicazioni cognitive in grado di estrarre informazioni da questi dati, inutilizzabili programmando semplicemente alla vecchia maniera. Il Deep Learning è invece definibile come un sottoinsieme del Machine Learning, abilitato da sistemi che hanno ancora lo scopo di estrarre valore dai dati ma addirittura senza essere preprogrammati, “mimando” dal cervello umano la capacità di apprendere dall’esperienza. Ecco, le potenzialità messe in mostra da IBM Learning Machine per z/OS rientrano nell’ambito del Machine Learning, mentre con Power AI si parla di specializzazione in ambito Deep Learning.

Andrea Negro
Andrea Negro – Server Solutions Sales Manager IBM Italia

Il lavoro sui modelli predittivi ancora oggi sfrutta molto del lavoro manuale svolto dagli analisti sulla scorta dei tool di Business Analitycs. Machine Learning invece automatizza molto del lavoro di step by step di interazione continua con il sistema, creando esempi, testandoli, accelerando i processi, senza soluzione di continuità, lasciando al data analyst il compito di affinare sì il modello ma a un livello più alto. E’ questo un pilastro stesso di Watson declinato nei sistemi mainframe, in piena coerenza con l’obiettivo di avere la tecnologia direttamente nel DC dove sono i dati.

All’ambito Deep Learning – di cui Power AI è realizzazione pratica –  invece si legano due tecnologie: (1) la disponibilità di sistemi accelerati dalle Gpu dal punto di vista hardware (in questo caso Nvidia) e dal punto di vista software (2) l’applicazione sul campo dei concetti relativi alle reti neurali (quelle che non richiedono pre-programmazioni, tantomeno statiche), in cui il sistema, nel tempo, reiterando ed esperienziando dati, impara cosa fare. In questo campo ecco le applicazioni legate alla predizione in ambito medico delle mutazioni cellulari (cancro), e dei veicoli senza guida, o ancora di servizi come quelli di Netflix nell’ambito della raccomandazione di nuovi titoli. 

Power AI è in pratica la summa dei framework disponibili sul mercato, li pacchettizza e li rende disponibili all’installazione facilitata per le aziende. A livello sottostante Power AI invece ottimizza le tecnologie disponibili per i sistemi Power e OpenPower (progetto cui collaborano oltre 300 aziende, tra cui Google che lavora direttamente anche sul processore) in modo da sfruttare al meglio le macchine IBM. A pagamento è invece il supporto ai framework.

IBM - Power AI Platform
IBM – Power AI Platform

La vera scommessa, anche per IBM, quando si declina una proposta di questo tipo, è trovare i partner migliori, che non necessariamente sono quelli tradizionali, ma spesso arrivano dalla sfera delle startup, o anche dalla ricerca, e ancora più di frequente si trovano già sulla lunghezza d’onda dell’esperienza Power AI di cui conoscono le potenzialità, si tratta quindi di nuove figure che comprendano già gli oggetti AI e abbiano in dote un grande know-how industriale. E questo perché siamo in un’era diversa dalla precedente. Abbiamo lasciato quella in cui i computer andavano programmati e siamo entrati in quella in cui essi devono imparare. 

Il dato sta nel posto migliore dove usarlo

Francesco Casa, Manager of Storage Solutions di IBM Italia, ci guida nella lettura dell’evoluzione storage. Il cardine base è, in comune con altri vendor, la capacità di comprendere che se il dato è il cuore di tutto, lo storage si colloca alle fondamenta dell’evoluzione dei sistemi cognitivi nelle infrastrutture d’elezione che spesso si sposano con scelte di cloud ibrido. Si tende verso sistemi che grazie alle applicazioni stesse sappiano prima dove memorizzare e poi dove andare a ricercare il dato. Inevitabile la necessità di distribuirlo su più sistemi, associati al dato proprio per il loro valore e per il valore del dato.

Francesco Casa
Francesco Casa – Manager of Storage Solutions di IBM Italia

Come si farebbe in un trasloco, spostando le cose più o meno vicine a noi e in luoghi più o meno accessibili a seconda di quanto e quando pensiamo ci torneranno utili. Il mantra di Casa è ovvio: “Non posso memorizzare tutto sullo stesso dispositivo, devo differenziare”. Ed è un mantra consolidato nel mercato, insieme all’assenza di lockin tra scelte software, di appliance o di servizio cloud. E insieme alla disposizione tattica che prevede l’assoluta adozione di una strategia Software Defined, Fash e Cloud.

In ambito SDS nel 2014 IBM ha chiarito quali fossero i pezzi fondanti la proposta SD, portando in IBM Spectrum Storage quelle funzionalità, ha investito acquisendo CleverSafe, ha intuito l’importanza di componenti Spectrum come Copy Data Management (Spectrum CDM) per tenere assoluta visibilità sulle copie dei dati (non perché duplicati, ma perché copiati in diversi sistemi e applicazioni),  e ha portato Object Storage, la soluzione per i dati non strutturati, sul cloud. Nella roadmap dell’anno Spectrum CDM sarà acquistabile come appliance (oltre che come software), IBM Spectrum Virtualize si declinerà in cloud su VM o Container. e Spectrum Archive sarà erogato anche come servizio Cloud.

IBM - L'evoluzione dell'offerta Storage
IBM – L’evoluzione dell’offerta Storage

Per la parte flash:  durante l’estate IBM ha aggiornato Storwize in ottica flash con i modelli F (per esempio V7000F) che sono ora All Flash, stesso destino riservato a Deep Flash 150 per i dati non strutturati, e a Gennaio ecco che è arrivato il refresh dell’offerta per la serie DS8000 in chiave All-Flash.

Insieme a Cisco si concretizza in ambito VersaStack (quindi sistemi converged) l’ambizione di portare anche in quell’ambito i sistemi All Flash, con l’estensione del relativo portafoglio non solo per i sistemi Storwize ma anche per la serie A9000 quindi oltre il semplice segmento mid-range.

IBM - verso il cloud federato
IBM – verso il cloud federato

L’idea di IBM per il cloud, se si parla di storage, è il superamento del dualismo privato/pubblico e anche del modello ibrido. Nel futuro IBM vede l’idea vincente del cloud federato con i dati sparpagliati su più cloud, ma sempre al centro.