Intel al lavoro per l’interoperabilità del cloud, i vantaggi dei nuovi Xeon E5 v4

CloudCloud managementDatacenter

Presentati a San Francisco i nuovi processori Xeon E5 v4 e nuove soluzioni SSD con tecnologia 3D-NAND e doppia porta PCI-Express. Le iniziative di Intel per il cloud computing interoperabile

Il cloud non è più solo un’idea, è diventato oramai da qualche anno una realtà tecnologica concreta che sta permettendo alle aziende quella trasformazione indispensabile per potere sopravvivere e sostenere le sfide della digital disruption. In concreto si parla di incrementi di fatturato e di valore aggiunto nell’offerta, ottenuti addirittura riducendo i costi e sfruttando quello che il mondo IT già offre.

Cloud pubbliche, al servizio anche degli utenti finali, cloud private (dai datacenter a silos al datacenter flessibile), cloud ibride (per cogliere il meglio di cloud pubblico e privato, tenendo in casa app e informazioni critiche), tutte hanno beneficiato della crescita dell’offerta di cpu su piattaforma x86 e dello storage flash SSD.

Intel Cloud for All

Quando si parla di cloud computing, i dati IDC indicano che le cpu Intel segnano circa il 95 percento di market share, anche per questo Intel, a partire dall’ampia base di installato, è in grado di sottolineare alcune delle criticità per le aziende che si trasformano con il cloud computing. Si innesta in questo contesto l’iniziativa Intel Cloud for All: essa è nata proprio con l’obiettivo di migliorare lo sviluppo di tutta la parte di software e funzionalità alla base delle infrastrutture software defined (SDI), di ottimizzare la produzione di componenti e cpu per essere ancora più efficienti nel funzionamento in cloud, e di garantire l’interoperabilità tra cloud pubbliche private e ibride.

Le barriere all’adozione del cloud sono sostanzialmente di tre tipi: una certa frammentazione delle soluzioni – ognuno degli attori crea la propria, tralasciando i fattori che garantiscono interoperabilità; la mancanza di alcune funzionalità fondamentali per gli utenti – per lacune nei processi di progettazione infrastrutturale; e in ultimo entra in gioco la complessità nel riuscire a fornire una soluzione end to end completa in tutti i suoi aspetti – proprio perché ogni attore sviluppa in modo indipendente.

Andrea Toigo
Andrea Toigo, Pre-Sales Director Intel Central, Southern & Eastern Europe: “Tra i punti di forza dei nuovi Xeon E5 v4 ci sono gli strumenti di orchestrazione delle risorse della cache”

Per affrontare questi problemi Intel ha investito pesantemente in Openstack. Nello specifico, per l’ottimizzazione di alcune componenti di OpenStack, Intel ha investito importanti risorse nella collaborazione con Google, Mirantis e CoreOS.  Intel ha aperto un Innovation Center dedicato a S. Antonio, funzionale a declinare non solo su progetti pilota, ma in ambito enterprise, una serie di soluzioni, e sta lavorando con cloud service provider e software vendor per creare reference architecture, cioè una serie di soluzioni testate e certificate (una ventina) end to end con componenti disponibili sul mercato, in modo che chi desidera adottarle non si ritrovi a partire creando da zero il proprio progetto: un terzo di queste è stato effettivamente adottato.

Con i cloud service provider Intel ha sviluppato inoltre soluzioni innovative nell’ambito della sicurezza delle VM e dei dati per garantire, per esempio, che essi risiedano in un determinato pool di macchine fisiche in specifici data center. E’ il caso dell’esperienza con Swisscom che serve utenza pubblica e privata.

Un altro aspetto importante per il raggiungimento di ‘una cloud per tutti’ è l’investimento su Cloud Native Computing Foundation, iniziativa nata per migliorare lo sviluppo di applicazioni native per il cloud, volta anche a definire standard comuni a garanzia dell’interoperabilità. Ci sono centinaia di Service Providers attivi, ognuno di essi sviluppa una propria offerta di servizi e risponde alle richieste degli utenti che hanno bisogno di cloud separati. Lo scenario porterebbe a pensare che tra qualche anno potrebbero essere decine di migliaia i cloud frammentati.  Il contributo alla semplificazione e alla standardizzazione del cloud arriva quindi con l’estensione della propria gamma di programmi dedicati ai builder.

Intel Builder Programs è il cappello comune a questi programmi che in passato hanno portato anche alla definizione di standard su cui ora si basano gli strumenti di Network Functions Virtualization (è il caso di Intel Networks Builders). L’annuncio odierno dei nuovi processori è l’occasione per rilanciare Intel Cloud Builders e aggiungere alla serie Storage Builders Program, dedicato alle aziende che producono sistemi di storage. L’era delle SDI (Software Defined Infrastructure) prevede che tutti i componenti siano definiti dal software, e Cloud Builders si ritrova naturalmente legato agli annunci odierni ed ora è affiancato dal nuovo programma per lo storage che vede al momento grande attenzione intorno a Ceph, la piattaforma di gestione già sposata dai principali attori in cloud. Complessivamente sono oltre 300 i partner che aderiscono ai Builders Program.

La IV generazione di processori Xeon E5

L’impegno di Intel per il cloud passa attraverso il rilascio odierno della quarta generazione di processori Xeon E5. Per il momento si parla della versione Xeon E5-2600, quindi sistemi bi-processore, e con significativi miglioramenti  per quanto riguarda l’adattabilità alle infrastrutture Software Defined, dove sono richieste prestazioni, capacità di orchestrazione, di gestione automatica di tutte le risorse all’interno del data center (i processori Xeon oggi non sono solo all’interno dei server, ma anche dei sistemi di storage e dei sistemi di gestione delle reti) e alti livelli di sicurezza. 

Intel Xeon E5 v4
Intel Xeon E5 v4

Intel Xeon E5-2600 segna l’aumento del numero di core disponibili, fino a 22 core per processore e 55 MB di cache di ultimo livello, per circa il 44 percento in più di prestazioni rispetto alla generazione precedente, sono integrate inoltre nuove funzioni di virtualizzazione che permettono di migliorare le prestazioni in ambienti virtuali.

Intel Resource Director Technology

Per quanto riguarda l’orchestrazione delle risorse del data center viene introdotta per la prima volta la tecnologia Intel Resource Director Technology essa permette di avere un migliore controllo su alcuni aspetti nell’esecuzione delle macchine virtuali dei server, per ottimizzare l’esecuzione a seconda del tipo di applicazione lavorata, evitando rallentamenti non voluti grazie a una più fina granularità di controllo su alcuni parametri, per esempio nella gestione della cache. Dal punto di vista della sicurezza i miglioramenti sono legati all’introduzione di nuove istruzioni per la gestione della crittografia, nuove istruzioni per la protezione dall’installazione di malware sul server, e un nuovo generatore di numeri casuali, importante per gli algoritmi di sicurezza interni (non viene reiterata la stessa serialità di codici).

Ecco in dettaglio come funziona Intel Resource Director Technology. Quando si hanno macchine virtualizzate all’interno del server, alcune risorse, come RAM e disco, generalmente non sono limitate o comunque possono essere rese facilmente disponibili, altre invece sono effettivamente limitate e possono incidere sull’esecuzione rapida delle applicazioni nella macchina virtuale, tra queste la più importante è la cache.

Intel Resource Director Technology
Intel Resource Director Technology

Le VM spesso si allocano cache in modalità automatica, le une sottraendo risorse alle successive o viceversa, con la nuova tecnologia Intel è possibile esporre le informazioni relative a quale VM abbia bisogno di più risorse e il software di orchestrazione può riallocare la cache secondo le policy imposte. E’ questa una possibilità strategica quando sono decine e centinaia le VM all’interno di un server. Il sistema è già utilizzato da VMware e da utenti finali come Alibaba attraverso la modifica del codice personalizzato dagli attori, e sono disponibili plugin per altre piattaforme per la medesima implementazione.

I nuovi dischi SSD Intel DC P3320 e DR3700

Accompagna questo annuncio Xeon l’arrivo di quattro dischi SSD – dedicati al mercato datacenter – con la serie P3320 (P3520 sarà introdotto più tardi), D3700 e D3600. Per quanto riguarda i dischi SSD PP3320 si segnala l’interfaccia PCI-Express, quindi con minore latenza rispetto ai dischi SATA, ma è ancora più importante l’introduzione su questi dischi della tecnologia 3D-NAND (sviluppata da Intel con Micron) che permette una densità di memoria più elevata rispetto alla tecnologia 3D-NAND implementata da altri vendor. Con questa offerta Intel vuole portare dischi con capacità paragonabile a quella dei dischi consumer nell’ambito data center con prestazioni decisamente più alte e affidabili.

Si tratta quindi di dischi indicati per applicazioni pesanti dal punto di vista del numero di letture e critiche per la velocità. Nell’offerta di dischi D3700 invece non è presente la tecnologia 3D-NAND. La caratteristica innovativa qui è la possibilità di avere una doppia porta PCI-Express (e con supporto per il protocollo NVMe), per cui si riesce a mantenere attive entrambe le porte di comunicazione con una maggiore velocità, minore latenza, un aumento della sicurezza sulla disponibilità dei dati.

Per saperne di più, guarda il video: Intel, la digital transformation guidata dal software

Clicca per leggere la biografia dell'autore  Clicca per nascondere la biografia dell'autore