SUSE CaaS Platform 3, la gestione dei container come servizio

CloudSaas
SUSe Caas Platform

La nuova versione della piattaforma Suse Caas per la gestione dei container rende disponibili le migliori funzionalità di Kubernetes facilitando il deployment e la gestione di workload

CaaS è l’acronimo che svela le soluzioni Container As A Service. Si tratta di servizi cloud che consentono agli sviluppatori di caricare, organizzare, eseguire, ridimensionare, gestire e chiudere container utilizzando le chiamate API di un provider o un’interfaccia portale web. Come nel caso della maggior parte dei servizi cloud, gli utenti pagano solo per le risorse CaaS che utilizzano, siano esse istanze di calcolo, bilanciamenti dei carichi e/o capacità di pianificazione.

SUSE ha presentato la nuova versione della sua proposta per accelevare il delivery delle applicazioni a container con SUSE CaaS Platform che arriva alla versione numero tre e offre le innovazioni di Kubernetes in una soluzione di classe enterprise per la gestione dei container, permettendo ai team DevOps e agli sviluppatori applicativi di implementare, gestire e scalare più facilmente applicazioni e servizi basati su container.

I benefici di un’architettura a container sono conosciuti, il primo di tutto è l’agilità, ma prima che i team applicativi possano avvalersi di Kubernetes, non sono pochi i problemi che si riscontrano nell’implementazione della piattaforma stessa che richiede messa in sicurezza, controllo e maintenance. SUSE CaaS Platform 3 aiuta le aziende a fornire e utilizzare Kubernetes con maggior facilità attraverso una soluzione completa progettata avendo in mente tanto l’operatore quanto l’utente della piattaforma. 

Cosa offre SUSE Caas Platform
Cosa offre SUSE Caas Platform

La proposta permette di implementare Kubernetes, con tutti i processi di integrazione nell’ambiente IT (sistemi, processi e infrastruttura cloud) seguiti e supportati. Il deployment semplificato si accompagna infatti con le funzionalità per ottimizzare la configurazione dei cluster con nuove opzioni per l’integrazione nel data center.

E’ possibile infatti velocizzare il deployment e la gestione dei workload a lungo termine attraverso Kubernetes Apps Workloads API. Questa API facilita in genere le attività di orchestrazione (auto-riparazione, scalabilità, aggiornamenti, terminazione) delle comuni tipologie di workload.

Sono migliorati l’integrazione delle risorse cloud storage pubbliche e private e il deployment automatico del load balancer di Kubernetes. E’ disponibile un nuovo modulo di toolchain SUSE che permette ai clienti di ottimizzare MicroOS, il sistema operativo dei container, per supportare configurazioni personalizzate.

La gestione delle immagini dei container è ora più sicura e semplice perché  i clienti possono scaricare una sola volta l’immagine di un container da un registry esterno per poi salvarne una copia nel proprio registry locale così da renderla condivisibile tra tutti i nodi del cluster.

La connessione a un proxy interno anziché a un registry esterno e il download da una cache locale anziché da un server remoto migliorano i livelli di sicurezza e prestazioni ogni volta che un nodo del cluster deve recuperare un’immagine valida dal registry locale.

Read also :
Clicca per leggere la biografia dell'autore  Clicca per nascondere la biografia dell'autore