NetApp e Nvidia premono l’acceleratore sul Deep Learning con Ontap AI

CloudData storageDatacenterStorage

Un Data Fabric con la technologia all-flash connessa al cloud di NetApp e il calcolo GPU-assisted di Nvidiaper controllare e rendere più efficiente il patrimonio dati negli ambienti deep learning

NetApp Ontap AI è l’architettura di riferimento nella proposta del vendor per accelerare e scalare la pipeline dei dati per gli utilizzi Deep Learning. E’ composta dai super computer Nvidia DGX e storage cloud connected all-flash NetApp A800.

L’array AFF A800 offre una latenza inferiore a 200 microsecondi e un throughput elevato di 300 GB/s alimentato da una combinazione di SSD NVMe e con connettività NVMe/FC. Inoltre è compatibile con la maggior parte delle opzioni di integrazione del cloud per workload intensivi di elaborazione tipici delle applicazioni che sfruttano AI.

Il cuore dell’elaborazione è Nvidia DGX, un sistema chiavi in mano completamente integrato hardware e software, appositamente progettato per il Deep Learning. La piattaforma DGX sfrutta lo stack di software di Deep Learning della Gpu Nvidia, ottimizzato per le massime prestazioni DL accelerate dalla Gpu.

L'architettura NetApp Ontap AI
L’architettura NetApp Ontap AI

Sfruttando il Data Fabric di NetApp, Ontap AI offre alle imprese la possibilità di creare una data pipeline ininterrotta, che copre dall’edge al core al cloud. Questa pipeline integra fonti di dati eterogenee, dinamiche e distribuite, con controllo e protezione completi. In questo modo Ontap AI elimina i colli di bottiglia nelle prestazioni e consente un accesso sicuro e senza interruzioni ai dati provenienti da molteplici fonti e in diversi formati.

Le potenzialità di scalabilità sono evidenti. Le organizzazioni alle prime armi con il deep learning possono iniziare scegliendo una configurazione 1:1 e, con la crescita dei dati, scalare fino ad una configurazione 1:5 e oltre.

La combinazione di Nvidia DGX e degli array all-flash di NetApp fa fronte alle sfide poste dagli utilizzi odierni dell’AI in un contesto in cui molte organizzazioni nonostante stiano adottando nuove piattaforme, strumenti e pratiche per l’AI, non hanno il controllo sui loro data store per assicurare che dati completi, correnti e accessibili siano disponibili per i loro progetti di AI.

Le soluzioni cloud-connected di NetApp e la nuova architettura con Nvidia DGX creano un ambiente di gestione dei dati per l’AI. Questo dà ai clienti il controllo, l’accesso e le prestazioni di cui hanno bisogno per fornire i dati giusti, al momento giusto e al posto giusto alle loro applicazioni AI – tutto su larga scala e integrato, gestito e protetto dal Data Fabric di NetApp.

La proposta NetApp permette alle organizzazioni di dare priorità alla visibilità e al controllo dei loro dati, “from edge to core to cloud”.

Tra gli ambiti di utilizzo che hanno già trovato buone conferme, il caso IAS, partner di lancio per l’architettura Ontap AI. Il Ceo, Amy Rao, ha così commentato: “Spostare grandi set di dati dall’edge al core al cloud sta diventando poco pratico, e i clienti stanno cercando modi per massimizzare il valore dei dati indipendentemente dalla loro ubicazione. Il Data Fabric – combinato con la technologia all-flash connessa al cloud di NetApp e il calcolo GPU-assisted di NVIDIA (tutto confezionato in una configurazione pre-validata) – offre ai clienti la scelta, il controllo, l’efficienza e la disponibilità necessarie per gli ambienti deep learning”. 

Read also :