Big DataData storage

La strada di Intel verso AI e deep learning

Giornalista e collaboratore di TechWeekEurope, si occupa professionalmente di IT e nuove tecnologie da oltre vent'anni e ha collaborato con le principali testate italiane di settore

Follow on: Linkedin

Tra hardware e software, Intel ha definito un ecosistema per diffondere l’uso di intelligenza artificiale e deep learning a tutti i livelli

Oggi tutti sembrano in qualche modo parlare di intelligenza artificiale, deep learning e tematiche collegate, ma in fondo la base concettuale di molto di ciò che oggi è così trendy è nota da decenni. Quello che era sempre mancato per uscire da una fase quasi puramente teorica era la potenza elaborativa. Ora questa c’è, e il tema caldo diventa addirittura non l’AI in sé ma quanto essa diventerà pervasiva nei prossimi anni.

Intel crede fortemente nell’affermazione del cognitive computing e ritiene anzi di essere posizionata in maniera ottimale nel nascente mercato dell’AI, grazie ai vari componenti – hardware, ma non solo – che può mettere a disposizione. Secondo l’azienda è la convergenza di tre evoluzioni che ha portato l’AI a potersi davvero esprimere: l’evoluzione delle piattaforme di computing, con sempre più potenza; la crescita esponenziale dei dati a disposizione delle piattaforme di AI, da cui “imparare” per portare benefici; un picco di innovazione nella definizione degli algoritmi, che ha portato al miglioramento delle conclusioni tratte dai sistemi di AI.

intel-ai-grafQuesto scenario richiede aziende capaci di giocare su più tavoli, secondo Joe Curley, Director Ecosystem Enabling del Data Center Group: “Il ruolo di Intel è più che fornire chip. L’AI non è un problema unico con una sola soluzione ma una gamma amplissima di applicazioni, per questo continuiamo a investire in un portafoglio prodotti sempre più esteso”. Non ci sono poi solo i prodotti in sé ma anche le collaborazioni e il lavoro nella definizione dei nuovi standard di settore, con l’intenzione di mantenere ancora per diversi anni il livello di investimento espresso sinora.

L’hardware di Nervana

Ma se la chiave dello sviluppo concreto dell’AI sta nella disponibilità di grande potenza elaborativa è comunque dall’hardware che si deve partire. Qui Intel fa valere le acquisizioni che ha compiuto negli ultimi tempi e in particolare quelle di Altera e soprattutto di Nervana. Proprio Nervana è il brand che contraddistingue l’offerta di processori e componenti che mirano a ottimizzare e velocizzare drasticamente le operazioni di deep learning.

L’offerta è in concreto un continuum di soluzioni con configurazioni diverse, a più o meno alta densità di elaborazione, a seconda delle applicazioni e delle necessità. Il punto di partenza sono i processori Xeon che nella versione v5 sono particolarmente adatti al machine learning. Il passo ulteriore è rappresentato da Xeon Phi, la soluzione per il dense computing che nella versione Knights Mill (prevista per l’ultimo trimestre 2017) avrà performance quattro volte migliori nel deep learning del modello precedente. Salendo in complessità e performance si possono affiancare agli Xeon le FPGA Arria 10.

Computer vision is a critical technology for smart, connected devices of the future. (Credit: Intel Corporation)
Computer vision is a critical technology for smart, connected devices of the future. (Credit: Intel Corporation)

Andando avanti sulla strada delle prestazioni in deep learning si arriva ai prodotti che Nervana aveva progettato prima dell’acquisizione di Intel e che ora stanno evolvendo ulteriormente. Il processore che era indicato come Nervana Engine è in test presso clienti e dovrebbe arrivare sul mercato più ampio nella seconda metà del 2017: per ora ha solo il nome in codice Lake Crest. Il passo successivo – Knights Crest – sarà in un certo senso la fusione dell’acceleratore con una CPU: un processore Xeon autonomo per il deep learning. Con l’obiettivo di ridurre, entro il 2020, di cento volte il tempo di training dei sistemi di AI rispetto alla soluzione attualmente più veloce.

Software per tutti

Intel è ovviamente nota per l’hardware ma ha una forte componente software che si esprime anche nel campo dell’AI. Il presupposto delle attività software di Intel in questo campo è che ci sono due tipi di utenti che “programmano” AI: da un lato i data scientist che sviluppano e testano modelli, usando i framework di deep learning come Caffe o TensorFlow, dall’altro gli sviluppatori in senso più tradizionale che integrano i modelli stessi nelle applicazioni, usando i linguaggi convenzionali.

Il livello più importante è quello dei framework, che devono essere supportati dall’hardware sottostante in modo da ottimizzarne le prestazioni. Nella parte dei componenti di base che sono immediatamente “sotto” i framework, Intel offre le primitive per parallelizzare il calcolo in maniera efficiente. Concretamente ci sono le primitive computazionali della libreria MKL-DMN (attualmente in versione beta) e quelle di comunicazione tra nodi della libreria MLSL, una evoluzione della libreria MPI tipica del mondo High Performance Computing.

nervana-gcIn questo ambito il futuro è Nervana Graph Compiler, su cui si sta lavorando. Si tratta di un modulo che segue un approccio diverso dalle varie librerie. Invece di ottimizzare ogni specifico framework si ottimizza il grafo computazionale ed è questo che diventa in grado di supportare diversi framework.

Per i programmatori convenzionali, invece, le proposte sono diverse e comprendono in particolare una distribuzione ad hoc di Python che comprende già le librerie per il machine learning, come NumPy o SciPy, e una libreria denominata BigDL per fare deep learning direttamente in Spark, semplificando la vita agli sviluppatori che non devono per questo uscire dall’ambiente Spark.