CloudComponentiData storageDatacenterWorkspace

Intel reinventa Xeon, la famiglia di processori scalabili per i data center

Nel 1998 inizia la sua esperienza nel mondo IT in Mondadori e partecipa alla nascita di Web Marketing Tools di cui coordina la redazione. Redattore esperto di software per PC Magazine, e caporedattore di ComputerIdea, segue da circa 20 anni l'evoluzione del mondo hardware, software e dei servizi IT in un confronto continuo con le aziende leader del settore

Intel reinventa la piattaforma per i data center con le cpu scalabili Intel Xeon basate su nuova micro architettura. Si tratta del passo in avanti più importante degli ultimi dieci anni

Solo il nome resta uguale. La nuova piattaforma per i data center di prossima generazione di Intel si chiama ancora Xeon, ma la declinazione della proposta è del tutto rinnovata. Intel pone un’enfasi particolare attraverso le parole di Carmine Stragapede, Business Developer Manager DC Group Sud Europa per Intel: “Arriva la prima famiglia di processori scalabili per il data center. E’ il più grande passo in avanti compiuto negli ultimi dieci anni in questo ambito.  

Si parla di trasformazione digitale, oggi le aziende stanno iniziando a comprendere davvero i reali cambiamenti. I CIO del mondo bancario, per primi, ne stanno realizzando l’urgenza. Stragapede evidenzia: “Molte delle aziende che oggi sono leader nei propri settori presto non lo saranno più e la nuova forza lavoro che entra oggi nel mercato sarà nativamente digitale. Viviamo nella Digital Strategy Economy: andiamo verso nuovi modelli di business, prodotti, servizi in grado di mettere in discussione il business tradizionale”.

E così di pari passo cresce anche a livello globale la richiesta di risorse di calcolo, on-premise, come su cloud pubbliche. Qualcosa però è sostanzialmente cambiato: le vecchie installazioni gestite localmente diminuiscono, aumentano invece le installazioni in cloud ibrido. Si erogano servizi di IT in modo completamente diverso, e multicloud.

Questo cambiamento impatta sia su chi propone tecnologia di base, sia su chi la implementa. Prosegue Stragapede: “L’Italia è il secondo Paese nell’adozione dei servizi cloud, ma ci si accorge presto che si tratta di servizi a poco valore aggiunto, invece i nuovi carichi di lavoro e le applicazioni erogate in cloud saranno in verità sempre più sofisticati e di livello enterprise”. Tutta l’enterprise, si gestirà in cloud e per questo acquista ancora più valore l’agreement globale di partnership tra Intel con SAP che non potrà che beneficiare dell’annuncio odierno.

Carmine Stragapede, Intel
Carmine Stragapede – Business Developer Manager DC Group Sud Europa per Intel

Secondo Intel, assisteremo alla concentrazione del numero di data center, che saranno sempre più capaci e in grado di declinare prestazioni a valore aggiunto. E’ il parere anche degli analisti Gartner secondo cui l’85 percento delle applicazioni business sarà erogato in modalità cloud.

In questo contesto si innesta la trasformazione di Intel che ha adeguato il modo in cui disegna e progetta la piattaforma tecnologica del futuro. Non si guarda più solo alle prestazioni di calcolo ma a tre driver chiave, Stragapede: “Le prestazioni, per Xeon date per scontate, l’efficienza di calcolo e di gestione della memoria e dell’I/O e il networking. Sono questi tre i vettori che guidano lo sviluppo delle piattaforme tecnologiche Intel e alla base della nuova famiglia di processori scalabili Xeon”.

Come cambia lo scenario IT
Come cambia lo scenario IT

 La famiglia di processori Intel Xeon recepisce questi mandati, ed è la prima pensata per carichi di lavoro ad altissime prestazioni (1,6 volte superiori a quelle della versione precedente), per ottimizzare la parte di calcolo, storage e networking e riuscire ad essere utilizzata nel maggior numero di applicazioni e tecnologie.

Stragapede chiosa: “Questa famiglia dà il via a un nuovo percorso. Una nuova micro architettura che prevede sempre più l’integrazione di componenti; l’integrazione della connessione e del networking con nuove caratteristiche per accelerare l’esecuzione dei carichi di lavoro. Vedremo sul percorso, presto, anche l’integrazione della memoria all’interno della Cpu, e di core personalizzabili, grazie all’acquisizione di Altera, per indirizzarci su carichi di lavoro che per essere realmente efficaci dovranno essere “personalizzabili”, certo anche via software” .

Intel - Lo scenario di cloud ibrido
Intel – Lo scenario di cloud ibrido

Le caratteristiche hardware infatti saranno sempre più da questo momento solo una delle componenti della proposta: il set di istruzioni, le librerie, saranno ottimizzate al massimo proprio da Intel, parleranno le lingue degli analytics, del calcolo vettoriale, di deep learning, di tutte le tecnologie che trasformano il modo in cui si lavora.

Non solo parole, comunque: se Intel facesse lo spinoff delle sue persone che si occupano di software sarebbe addirittura la quarta azienda al mondo. E arriviamo ai “goods”.

La famiglia di processori sarà ridefinita in modo diverso, in quattro gruppi: Intel Xeon Bronze, Silver, Gold e Platinum, con una massiccia e scalare introduzione di caratteristiche RAS (Reliability, Availability, and Serviceability) aggiuntive e socket P per tutta la gamma.

Le quattro nuove famiglie Intel Xeon sfruttano tutte lo stesso socket P
Le quattro nuove famiglie Intel Xeon sfruttano tutte lo stesso socket P

La nuova piattaforma Intel Xeon

Andrea Luiselli, Enterprise Technology Specialist, ci guida nell’approfondimento sulle nuove tecnologie e riprende il concetto di fondo sull’integrazione fondamentale:Intel Xeon è frutto di un lavoro intenso su tutto l’ecosistema. I migliori strumenti hardware devono essere valorizzati tramite il software”.

Per quanto riguarda la proposta tecnologica, il primo cambiamento riguarda il passaggio dalle due famiglie con la parte Xeon E7 (enterprise) e Xeon E5 (mainstream) – su due socket diversi – a un’unica proposta sulla piattaforma Purley con i processori “interscambiabili” (ma devono essere della stessa serie) sul medesimo socket P, pronta ad accogliere anche i processori di prossima generazione con il nome in codice Cascade Lake. La piattaforma consente design a 2/4/8 o più socket, il chipset sarà il medesimo per tutta la famiglia in diverse versioni, mentre un’importante novità riguarda tutta la parte di comunicazione, fondamentale in un data center.

Intel Xeon, i nuovi processori scalabili fanno 1,6 volte meglio di quelli della generazione precedente
Intel Xeon, i nuovi processori scalabili marcano miglioramenti di performance significativi rispetto a quelli della generazione precedente

Si introduce la possibilità del 10 Gbit Ethernet on board, e la parte High Performance Interconnect con Omni-Path in versione card o integrata nel processore. Arrivano nuove soluzioni “Volume Management” per interfacciabilità del processore con dischi di ultima generazione PCIe, Intel 3D nand, etc. Prima di tutto quindi grande flessibilità di configurazione Dual-Socket, si possono avere due o piu canali di comunicazione tra processori, si potranno sfruttare anche tre canali per un design di comunicazione  mesh completa tra quattro o addirittura otto socket e oltre.

Cos’è cambiato a livello di processore? Siamo passati da 22 a 28 core, sempre tecnologia Hyperthreading (raddoppio dei thread per socket), ma cambia la cache e si riduce (e ciononostante con benefici importanti). Il Bus di interconnessione che permette la comunicazione tra i processori è migliorato in velocità, sono aumentate le linee PCI Express da 40 a 48 e da 4 a 6 canali di memoria con relativi aumenti di frequenza e banda.

Intel Xeon - Cosa cambia
intel Xeon – Cosa cambia

Tra gli importanti cambiamenti introdotti vi sono le nuove estensioni AVX 512  che implementano ulteriore efficienza energetica e nella parte di calcolo a virgola mobile (da 16 a 32 istruzioni in doppia precisione per ciclo di clock). AVX 512 introduce componenti in più nel processore, e quindi la parte di Turbo Mode Intel funzionerà anche in modo diverso, con scalabilità in frequenza diversa. L’incremento di funzioni per ciclo di clock è tale che, nonostante il calo di frequenza massima raggiungibile, l’efficienza del processore, sfruttata con il giusto codice, risulterà superiore. Questo permetterà di costruire data center davvero più efficienti e con consumi energetici inferiori.

Per quanto riguarda ancora la microarchitettura del design interno (vedi slide), si rinuncia al modello a doppio anello per la comunicazione, ma ci si vota alla tecnologia mesh. Per quanto riguarda la cache, L2 passa da 256 Kbyte a 1 Mbyte (riservata al core), L3 invece è inferiore,  ma non inclusiva, quindi senza la duplicazione della cache L2 in quella L3.

Se si parla di memoria invece un cambio importantissimo riguarda l’aumento del 50 percento del numero di canali, la capacità totale fino a 1,5 TB per socket (importantissimo per le applicazioni in-memory dei DB – si pensi a tante applicazioni SAP). All’interno del processore i controller sono due ognuno dei quali gestisce tre canali. Le varie versioni Xeon si differenziano da Bronze a Platinum anche per la frequenza di memoria, sempre DDR4.

Il Bus UPI è stato reso più efficiente, migliorata la velocità totale, importante per quando si disegnano soluzioni di storage denso, dove la comunicazione e il passaggio dei dati tra un processore e l’altro diventa significativa e impattante.
Per la parte SUB-NUMA Clustering, si rileva la possibilità di dividere il processore in due cluster di core separati. Il fatto di avere doppio memory controller manterrà un’efficienza di comunicazione elevata. E’ importante l’ottimizzazione applicativa perché essa permetterà di sfruttare la reale efficienza delle Cpu. 

Arriviamo alle prestazioni I/O. Parliamo di 48 linee PCIe in tre blocchi da 16 configurabili in modo vario rispetto a prima, con la massima espandibilità. E’ stata introdotta come grande novità la tecnologia Volume management Device, ovvero VMD per creare aggregazioni di device PCIe. Si può avere un certo numero di dischi configurato in raid dal processore (Raid on Chip) anche per fare il boot o Raid0,1,5,10, fino ad avere fino a 24 dischi NVMe per ogni volume device con storage ad altissima densità tutti collegati tramite PCIe. Con un aumento sempre del 50 percento di banda, rispetto ai processori della generazione precedente.

Intel Xeon - La nuova microarchitettura
Intel Xeon – La nuova microarchitettura

Per la parte di efficienza energetica aver ridisegnato l’architettura con la parte mesh e aver distribuito la cache in modo diverso rende più efficiente ogni singolo core, in modo diverso. Migliorata Speed Shift Technology, con gestione di stadi dei vari code in modo autonomo.

Arriviamo al Chipset.  La prima novità è l’introduzione delle porte 10 Giga Ethernet native, fino a 4 porte, la novità più ghiotta è forse l’introduzione di QuickAssist Technology. La tecnologia di per sé non è nuova, nella parte discreta, ma ora permette di implementare alcune feature rilevanti: crittografia (e decrittografia), compressione (e decompressione) con performance significative direttamente integrate sul chipset (da 40 Giga di banda iniziale sulla parte di crittografia fino ora a 100 Giga). 

In tutta  la piattaforma Purley i miglioramenti introdotti indirizzeranno tantissimi aspetti, non solo a livello di calcolo, ma proprio di efficienza energetico. La roadmap prevederà sempre più l’integrazione sul processore di una serie di componenti. Intel Xeon quindi come vero core di tutto il data center, e il software sempre più protagonista anche sulla Cpu, scalabile e configurabile e ottimizzata per ogni diverso workload applicativo.