Big DataData storage

Cosa ha davvero portato Nervana a Intel

Giornalista e collaboratore di TechWeekEurope, si occupa professionalmente di IT e nuove tecnologie da oltre vent'anni e ha collaborato con le principali testate italiane di settore

Follow on: Linkedin

I passi avanti per l’AI vengono dalla conbinazione di due filosofie diverse che dopo l’acquisizione si stanno integrando, spiega il fondatore Naveen Rao

La crescita di Intel in quelli che adesso considera come segmenti innovativi e promettenti per la crescita dell’azienda è legata anche a diverse acquisizioni. La più citata è probabilmente quella di Altera per la parte FPGA, ma in campo machine learning e AI l’operazione fondamentale è stata l’acquisto di Nervana e delle sue tecnologie. Anche della sua filosofia, in un certo senso, dato che il filone di sviluppo dell’azienda era diverso da quello di Intel al momento dell’acquisizione. E ora le due direttrici tecnologiche possono convivere.

Nervana non è stata acquisita per i prodotti che aveva ma per quelli che stava sviluppando. Nello specifico si tratta del Nervana Engine, un processore progettato esclusivamente per il machine/deep learning che ora in Intel ha nome in codice Lake Crest. La caratteristica principale del Nervana Engine è che tutti i suoi componenti sono pensati per le operazioni necessarie al machine learning e tutto quello che non serve a questo scopo è stato eliminato.

Una schematizzazione del Nervana Engine
Una schematizzazione del Nervana Engine

Quindi troviamo quello che serve a gestire e trasferire grandi quantità di dati (ad esempio 32 GB di memoria veloce integrata nel chip o link bidirezionali ad alta banda verso altri processori) e non troviamo altri elementi (come le cache) dettati dalla progettazione convenzionale derivata dal mondo dell’High Performance Computing.

L’approccio di Nervana – ci ha spiegato il fondatore Naveen Rao, oggi General Manager Artificial Intelligence Solutions in Intel – è diverso perché aumentare la capacità elaborativa pura dei processori è un passo avanti ma non basta. Bisogna ispirarsi al funzionamento del cervello umano per riprogettare i computer. In fondo per progettare gli aerei si è guardato al funzionamento delle ali degli uccelli”. E il Nervana Engine ha molte delle proprietà delle reti di neuroni: l’alta densità, l’interconnessione veloce e la bassa precisione (il chip fa calcoli a 16 bit ma massimizzando la “fedeltà” dei suoi risultati).

Naveen Rao, fondatore di Nervana e oggi in Intel
Naveen Rao, fondatore di Nervana e oggi in Intel

Serve un approccio diverso da quello tradizionale anche perché il nostro cervello non impara usando uno solo dei metodi classici teorizzati per il machine learning (supervised, unsupervised e reinforcement learning), in realtà li combina. Nervana ha approcciato sin da subito il tema del deep – e non solo machine – learning. In questo senso la parte di apprendimento non prevede l’indicazione dei parametri chiave da esaminare nei dati: è il sistema che scopre le caratteristiche chiave di un fenomeno direttamente dai dati, estraendone milioni di parametri caratterizzanti invece di pochi e definendo i modelli su questi. “Un esperto – spiega Rao – impara nello stesso modo”.

Il salto evolutivo del Nervana Engine è necessario perché bisogna ridurre i tempi necessari per addestrare un modello di machine learning. Laddove ci vogliono settimane dovremo arrivare a minuti e le prestazioni dei sistemi di AI diventano proporzionali alla quantità di dati analizzata. Da qui la necessità di gestire velocemente la memorizzazione dei dati con memorie su chip e di incrementare il parallelismo tra processori. Nell’approccio di Nervana questi comunicano fra loro abbastanza velocemente da operare come un unico chip che condivide lo stesso modello per avere analisi più precise.

intel-aiIl futuro ci riserva il “matrimonio” tra il Nervana Engine e l’approccio Intel. Se il primo (ormai Lake Crest) è progettato sin da zero per essere un processore di deep learning, Xeon Phi è un approccio più tradizionale ma è pesantemente multicore e si adatta bene al deep learning. La loro combinazione nel futuro processore Knights Crest è quindi “meno strana di quanto possa sembrare inizialmente”, spiega Rao, anche tenendo conto delle differenze concettuali dell’approccio di Nervana da quello classico. Con il vantaggio di poter contare sui processi produttivi di Intel, con microlitografia a maggiore densità del progetto iniziale del Nervana Engine.