ComponentiProgettiWorkspace

La strategia di Intel per l’intelligenza artificiale

Nel 1998 inizia la sua esperienza nel mondo IT in Mondadori e partecipa alla nascita di Web Marketing Tools di cui coordina la redazione. Redattore esperto di software per PC Magazine, e caporedattore di ComputerIdea, segue da circa 20 anni l'evoluzione del mondo hardware, software e dei servizi IT in un confronto continuo con le aziende leader del settore

Google + Linkedin Subscribe to our newsletter Write a comment

Cpu dedicate, acceleratori, ma anche didattica e partnership ad hoc per il cloud computing e l’Intelligenza Artificiale. Ecco cosa c’è nella roadmap di Intel. I primi frutti a inizio 2017

E’ universale lo spostamento di attenzione dal semplice business IT focalizzato sui componenti, allo sviluppo di soluzioni pensate per soddisfare task specifici, o meglio, per abilitare la trasformazione digitale in atto nelle sue componenti chiave. Per questo Intel, ben conosciuta sia per le Cpu client, sia per le soluzioni server, per il cloud computing e l’HPC ( in questo ambito sono stati investiti 25 milioni di dollari a favore del Borad Institute per l’analisi genomica), ha declinato in questi giorni la propria strategia nell’ambito dell’intelligenza artificiale (IA) con un portafoglio di prodotti che comprendono soluzioni per i data center, software e dispositivi IoT.

Intel Nervana, piattaforma IA

L’insieme dei prodotti per IA nell’ambito dell’elaborazione dati ricade sotto il nome della nuova piattaforma Intel Nervana. Inoltre Intel vuole aggiungere una serie di strumenti per gli sviluppatori che si distinguano per la facilità d’uso e la possibilità di essere utilizzati trasversalmente per la loro ampia compatibilità. Così Nervana rappresenta la base per soluzioni di Intelligenza Artificiale ottimizzata per i carichi di lavoro in questi ambiti possibili grazie alle soluzioni Intel Xeon e Xeon Phi, con i relativi acceleratori – tra cui FPGA (Field-Programmable Gate Array) – per abilitare carichi di lavoro maggiorati. Si può parlare di work in progress, pensando a Nervana, perché l’innovazione portata dalla piattaforma entrerà nei prodotti secondo una propria roadmap.

Si inizia con il testing delle prime soluzioni in sicilio, sotto il nome in codice Lake Crest all’inizio del 2017, per portare le soluzioni a clienti selezionati nel corso dell’anno; Lake Crest è ottimizzato soprattutto per le reti neurali e il deep lerning; Intel ha poi annunciato Knights Crest, cpu Xeon con Nervana. La generazione successiva di Intel Xeon Phi si chiama in codice Knights Mill e segnerà il cambio di passo nel deep learning con un aumento prestazionale fino a 4 volte. Anche queste Cpu arriveranno entro la fine del 2017. La versione preliminare della generazione di processori Xeon (Skylake) è invece già disponibile per alcuni service provider. Queste cpu sono accelerate dal sistema AVX-512 che aumenta le prestazioni di inferenza per i carichi di lavoro di machine learning. L’azienda vuole arrivare ad offrire soluzioni in grado di ridurre fino a 100 volte (rispetto alle attuali Gpu) il tempo necessario per l’addestramento di un modello deep learning e vuole farlo nel corso dei prossimi tre anni.

Nervana, la piattaforma alla base delle soluzioni IA per Intel
Nervana, la piattaforma alla base delle soluzioni IA per Intel

Non ci sono solo le soluzioni sul silicio. Con la tecnologia Intel Saffron, Santa Clara offre una piattaforma che sfrutta le tecniche di ragionamento basate sulla memoria e l’analisi dei dati eterogenei. E’ questa proposta che incontra le possibilità di integrazione sui dispositivi di piccole dimensioni a favore dell’analisi intelligente già sul dispositivo per IoT. ne sono al servizio anche API comuni per il portafoglio distribuito dei processori Intel dalla periferia al cloud, e le tecnologie già conosciute come per esempio Intel RealSense, o le unità di elaborazione visiva (VPU, Vision Processing Unit) come Movidius. 

Tra i temi cari a tutti i vendor, ma su cui – in onestà – il panorama resta ancora più che fluido, magmatico – c’è quello dell’interoperabilità tra soluzioni e piattaforme. In questa direzione Intel ha stretto con Google un’alleanza strategica per portare le aziende scegliere un’infrastruttura multi-cloud aperta e flessibile. Da qui le integrazioni tecnologie incentrate su Kubernetes (un container open source) per l’apprendimento automatico, la sicurezza e ovviamente IoT.

 Gli sviluppatori interessati avranno a disposizione Intel Nervana AI Academy per la formazione e l’accesso agli strumenti e con Intel Nervana Graph Compiler  per quanto riguarda i framework di deep learning.  Intel è in partnership con AI Academy e da questa collaborazione è nata infine la collaborazione con Coursera, specializzato nella didattica online, proprio per offrire corsi su AI.