Data storageStorage

NetApp, la gestione del dato come trend cardine dello sviluppo

Nel 1998 inizia la sua esperienza nel mondo IT in Mondadori e partecipa alla nascita di Web Marketing Tools di cui coordina la redazione. Redattore esperto di software per PC Magazine, e caporedattore di ComputerIdea, segue da circa 20 anni l'evoluzione del mondo hardware, software e dei servizi IT in un confronto continuo con le aziende leader del settore

NetApp evidenzia i trend nel “mercato del dato”, oltre il mero valore dello storage. Anche in questo ambito conta sempre di più il livello di servizio, non le specifiche. Le nuove soluzioni NetApp AFF A700S e A200 e i vantaggi dell’integrazione SolidFire

Quali sono i trend portanti nell’evoluzione dell’offerta per quanto riguarda lo storage? Come si muove NetApp in questo mercato? A che punto si è arrivati nell’integrazione di SolidFire dopo l’acquisizione? Partiamo da queste domande per fare il punto su un comparto (lo storage appunto) che, per gli addetti ai lavori IT, non potrà che conquistarsi ulteriori spazi di attenzione nell’era di cloud, big data, e Industry 4.0.

Il futuro dello storage nella sfera di NetApp

Industry 4.0 esalterà tre ambiti di azione IT – intelligenza artificiale, connettività e storage – ed è naturale come proprio quest’ultimo punto sia il primo considerato da Mark Bregman, CTO di NetApp, che identifica tre macro percorsi cardine legati alla gestione delle informazioni, come fulcro abilitante per il business (qui di seguito 1-2-3). Per Bregman (il suo pensiero in Italia è mediato da Roberto Patano, Sr. Mgr System Engineering di Netapp), addirittura, i dati rappresenteranno una sorta di nuova valuta universale (1).  Padroneggiare l’informazione, trasformarla sarà la modalità di business per incrementare le performance aziendali, e non più come in passato per capire semplicemente quanto e cosa è stat già fatto.

Se l’informazione è valùta bisogna essere pronti a cambiare piattaforme, modelli, e saper creare servizi innovativi(2), circondandosi di un nuovo ecosistema di partner per abilitare lo sfruttamento delle informazioni. Amazon con i suoi Web Services ha già ampiamente intrapreso questa strada adempiendo anche al ruolo di market place, con una piattaforma che rende possibile l’accesso a nuove possibilità di elaborazione, per esempio per avere data anlaytics immediati senza strutturarsi on premise per questo scopo.

Mark Bregman - CTO di NetApp
Mark Bregman – CTO di NetApp

NetApp porta come esempio AWS proprio perché il cloud è oggi catalizzatore e acceleratore del valore del dato(3), in cloud è possibile pensare in modo più veloce all’offerta di nuovi servizi. Sono richieste pertanto nuove competenze in tutta la filiera, come internamente all’azienda. Pensieri adeguati solo per il mercato americano? Per nulla: l’Italia non è ‘tutta’ indietro. In questo percorso, per esempio, nel Triveneto si registra già una buona sensibilità sul tema, sulla capacità di intravvedere le potenzialità di nuovi servizi e del cloud come catalizzatore. Inevitabile quindi che questi processi abbiano una ricaduta sul mercato storage anche nostrano.

Per esempio anche solo quando la scelta del servizio cloud cade su Office 365 si innesca la problematica del backup, del suo controllo. NetApp allora ha annunciato un servizio per cui è possibile fare il backup automatico in locale, in tempo reale, su storage on premise, ma c’è anche – per esempio – chi sceglie esattamente il percorso inverso, quindi decide di svincolare il backup dalle risorse on premise affidandosi al cloud. La tecnologia è pronta, la scelta resta il fattore chiave. 

NetApp nell’ambito DevOps. OpenStack e Docker abilitanti

A questi aspetti si aggiunge, fondamentale per il futuro, la prospettiva sulle nuove tecnologie e sull’approccio DevOps. NetApp sviluppa in casa il proprio sistema operativo (Ontap ora 9.1), e ha avvicinato le componenti sviluppo, business, operations, per garantire due uscite annue di major release e ridurre i tempi di introduzione di nuove funzionalità indicate dal mercato come cardine per esempio su alcuni verticali; tra queste come esempio la funzione per definire aree storage come non più scrivibili né modificabili per compliance amministrativa e legislativa.

Qui si innestano anche i percorsi OpenStack e Docker, nel primo caso per crearsi un proprio data center private cloud emulando un data center di un hyperscaler, con l’obiettivo – per esempio – di riuscire a spostare servizi su AWS ma rimanendo pronti a riportarli in casa, all’occorrenza, in tempi estremamente ridotti. Con Docker invece si possono abilitare micro servizi strategici che vivono esattamente per il periodo di tempo in cui vengono utilizzati.

Per la parte prettamente tecnologica invece la componente Flash è, ovviamente cresciuta, oramai l’unico ambito ancora non del tutto pertinente  per questo storage è quello dell’archiviazione (a livello enterprise), perché la tecnologia flash è già entrata in utilizzo normale su DB, virtualizzazione e VDI, accesso rapido, e si è guadagnata quote anche in ambito HPC. Nei prossimi mesi arriveranno le soluzioni HPC di seconda generazione con più Hypervisor possibili all’interno della stessa infrastruttura e soprattutto un innalzamento della qualità di servizio, con garanzie di performance di altro livello.

Intanto la capacità dei dischi flash è aumentata in modo sensibile (si va verso i 128 TB), mentre i milioni di IOPS messi a disposizione dallo storage flash trovano il collo di bottiglia lato server che fatica a tenerne il passo nella gestione. I sistemi AFF sono sì ancora più costosi, ma consentono di ottimizzare lo spazio occupato grazie alle possibilità di compressione, ottimizzazione, deduplica ed è un peccato che tante gare siano ancora basate invece su criteri di capacità grezza.

In questo contesto il mestiere cardine per NetApp resta la gestione del dato, lasciando al cliente la possibilità di scegliere persino il pezzo di ferro, con una massima apertura, pur consapevoli che le potenzialità massime della Data Fabric saranno spremute su ferro NetApp. L’OS 9.1 NetApp gestisce via software sullo storage l’encryption, vanta soluzioni di avanguardia ineguagliate al momento per quanto riguarda la compattazione, la compressione e la deduplica.   

NetApp AFF A700s e A200

Ecco che arrivano allora i nuovi annunci di soluzioni Flash: AFF A700s (high-end) e l’interessante A200 (entry level) ideale per le nostre piccole e medie aziende. A settembre erano arrivate le soluzioni A700 e A300, con l’ingegnerizzazione nuova di tutta la parte hardware e l’introduzione delle nuove interfacce a 40 Gbit e 32 Gbit Fiber Channel, con i dischi 15.4 TB ; ora quella proposta si completa con l’arrivo dei nuovi sistemi.

Il Portafoglio prodotti AFF di NetApp
Il Portafoglio prodotti AFF di NetApp

Rispetto alle precedenti, queste due nuove soluzioni odierne possono avere i dischi interni, l’A200 con prezzo di ingresso del tutto accessibile. Il mercato voleva soluzioni compatte, in 4U (AFF A700s) e 2U per avere tutto quello che servisse con al proprio interno dischi SSD anche per le nostre piccole aziende, con 12 core, tutta la connettività in alta affidabilità e doppio controller e la possibilità di sfruttare 12 o 24 dischi SSD. Resta la possibilità di crescere con i dischi esterni e scalare fino a 8 nodi. NetApp AFF A700s mantiene le caratteristiche di A700 ma permette di ospitare ora all’interno i dischi allo stato solido. Sei macchine di questo tipo superano l’obiettivo di 2mln 400mila IOPS, con l’OS Ontap 9.1 che resta lo stesso ovunque, in cloud come sulle commodities on premise con compressione, deduplica e compattazione in line attiva prima del deposito del dato sulla parte storage.

Collocazione prodotto AFF A700, A300 e A200
Collocazione prodotto AFF A700, A300 e A200

SolidFire, non si pagano le specifiche ma il livello di servizio

L’anno scorso (2016), in questi giorni di inizio Febbraio NetApp ha annunciato il completamento dell’acquisizione di SolidFire (pagata oltre 870 milioni a fine 2015). E in questo ultimo anno NetApp è riuscita, con il completamento dell’acquisizione, a cambiare di fronte agli analisti la percezione della propria realtà come attore in grado di abilitare a livello enterprise soluzioni all-flash. Si è riposizionata nel Magic Quadrant di Gartner in alto a destra, pur se nella parte bassa e a sinistra e ora propone in modo indistinto soluzioni AFF o tradizionali ai clienti. Quattro i clienti SolidFire che hanno scelto la soluzione nel corso dell’anno: Carrenza (erogazione di livelli di servizi specifici app per app), FICO (servizi di analytics su infrastruttura integrata OpenStack), Internet Solutions, Premier Eye Care.

Il valore dell’acquisizione di SolidFire, spiega NetApp, resta soprattutto la tecnologia flash, il valore non è legato al fatto che SolidFire utilizzasse dischi SSD, quanto piuttosto al fatto che offrisse la tecnologia ideale per i data center di nuova generazione di tipo “no-touch”, con storage quindi che non deve essere configurato. Con l’aggiunta dei nodi, la configurazione su 4 nodi per 100 TB incrementata di 20 TB per esempio, è immediatamente visibile su pannello di configurazione e pronta da distribuire; se si toglie un nodo semplicemente si sottraggono performance e capacità senza interruzione di servizio con lo storage che replica su nodi e storage diversi i servizi, senza calo delle performance. E’ un’altra era e a NetApp non importa vendere ferro ma qualità di servizio. Resta solo un punto di sfida per il futuro, mentre alcuni competitor navigano a vele spiegate evangelizzando sui vantaggi dei sistemi iperconvergenti, il mantra a Sunnyvale è una profonda fede verso si sistemi ‘convergenti’, per la parte iper… Si vedrà.   

WHITE PAPER: Sei interessato ad approfondire l’argomento?  Scarica il whitepaper  Guida per l’acquirente: come valutare lo storage all-flash