Il blog di Red Hat
Blog menu
Il lancio sul mercato dei servizi di cloud pubblico, avvenuto più di dieci anni fa, ha segnato l'inizio di una rivoluzione nell'universo delle infrastrutture IT. Il cambiamento è la naturale prosecuzione di un percorso iniziato già alla fine degli anni '90 con l'introduzione dei primi servizi SaaS e l'impiego sempre più massiccio di macchine virtuali (nate negli anni '70) per ottimizzare le risorse dei server fisici. Le macchine virtuali e i servizi SaaS però si basavano ancora su un'infrastruttura IT tradizionale, vincolata a sistemi fisici in sale server e data center.
Il cloud pubblico ha introdotto una nuova architettura decentralizzata dotata di servizi integrati e cataloghi self service e così facendo ha cambiato per sempre il volto dell'infrastruttura IT. Come evidenzia il report Global Tech Outlook 2021 di Red Hat la maggior parte dei clienti ha adottato una strategia cloud che coinvolge uno o più cloud pubblici e il 17% dei clienti ha optato per una strategia di cloud privato.
I servizi cloud però hanno fatto emergere una serie di sfide per gli amministratori di sistema (e per i leader IT che si occupano di pianificare i progetti o di gestire i budget) perché se è vero che il cloud è molto facile da adottare, è vero anche che saperlo gestire non è così scontato.
La nascita del cloud
Dal 2006, quando è stato introdotto il primo cloud pubblico, si è potuto osservare un cambiamento sostanziale nel modo in cui le aziende si occupano di IT. Le applicazioni possono essere sviluppate e distribuite integralmente al di fuori dell'infrastruttura fisica dell'impresa, a una velocità e scalabilità impensabili per i sistemi nei data center.
Il cloud pubblico (oggi integrato dai container) permette di prescindere tutte le considerazioni e la pianificazione che erano necessarie per creare l'infrastruttura fisica. Molte funzionalità delle infrastrutture fisiche, come l'amministrazione delle reti e lo storage, possono essere gestite in modalità nativa nel cloud. Senza contare che la facilità di utilizzo e l'immediatezza della configurazione agevolano il trasferimento di nuovi progetti in ambienti cloud.
Purtroppo però la facilità di deployment e di accesso ai servizi native può rivelarsi un'arma a doppio taglio. Basti considerare che alcuni attributi nati per semplificare il deployment di nuove istanze rendono difficile gestire, per via dell'assenza di controllo centralizzato, la configurazione degli utenti, l'autenticazione al servizio in diversi cloud, e l'accesso e la sicurezza dei dati. Anche attività di amministrazione base come l'applicazione di patch si complicano notevolmente vista l'architettura complessa e distribuita del cloud.
I motivi di questa complessità sono molteplici, tra i principali si ricordano:
-
l'utilizzo di strumenti specifici del provider, che rendono difficile una gestione coerente tra i provider di servizi cloud
-
la difficoltà nella migrazione dei carichi di lavoro nel cloud o tra istanze cloud
-
il controllo dell'utilizzo di risorse nei cloud, ad esempio l'identificazione di risorse non utilizzate
-
la gestione di immagini di base
-
la definizione del failover
-
l'implementazione di criteri di sicurezza, come l'accesso degli utenti, l'applicazione di CVE a sistemi vulnerabili e le impostazioni di sicurezza delle istanze
Resta valida anche per gli ambienti cloud una delle regole d'oro per l'utilizzo dei data center: la standardizzazione.
Standardizzazione e semplificazione
Gli ambienti di cloud computing distribuiti sono intrinsecamente complessi; ridurre la complessità dove possibile permette di aumentare l'efficienza operativa, migliorare l'implementazione della sicurezza e ottimizzare l'utilizzo delle risorse (ad esempio, tenere sotto controllo le spese per il cloud).
Gli ambienti operativi standard (SOE) hanno tre funzioni principali:
-
aumentare la sicurezza
-
semplificare i processi di manutenzione
-
automatizzare le attività di gestione comuni
Di solito i SOE definiscono il sistema operativo, la configurazione richiesta e le applicazioni o i servizi in un'immagine usata per il deployment massivo in diverse infrastrutture, come le macchine virtuali o il cloud (o addirittura i container).
I SOE permettono di sfruttare gli strumenti integrati per i provider di servizi cloud, di usare strumenti di gestione esterni (come Red Hat Insights), di monitorare gli errori di configurazione, di rilevare le vulnerabilità, di applicare correzioni e ridistribuire laddove necessario. E consentono di eseguire tutte queste attività in modo coerente, affidabile e scalabile.
La standardizzazione può rivelarsi una valida strategia per affrontare l'adozione del cloud perché i punti di forza di un SOE controbilanciano le difficoltà nella gestione del cloud.
Adotta un approccio intenzionale al cloud
Noi di Red Hat parliamo spesso di strategia per l'hybrid cloud, ma cosa significa davvero? In pratica significa adottare un approccio calcolato e aggiungere ambienti cloud con requisiti e risultati chiaramente definiti.
Uno dei vantaggi del cloud è la flessibilità, ma un approccio non ben delineato alla configurazione delle istanze e alla distribuzione dei carichi di lavoro può rendere gli ambienti cloud più fragili e complicati da amministrare. È infatti possibile che emergano problemi con la gestione e la configurazione di utenti e dati, o problemi di conformità.
Grazie alla standardizzazione l'infrastruttura cloud diventa più flessibile, in questo modo si possono apportare modifiche e correzioni rapidamente, riducendo il downtime e le interruzioni del servizio.
Disporre di una base stabile e flessibile diventa essenziale per soddisfare le esigenze di un'infrastruttura che, dal cloud, si espande verso l'edge, l'intelligenza artificiale e le nuove tecnologie.
La standardizzazione non sarà un approccio innovativo ma potrebbe rivelarsi la strategia cloud giusta per la tua azienda.
About the author
Deon Ballard is a product marketing manager focusing on customer experience, adoption, and renewals for Red Hat Enterprise Linux. Red Hat Enterprise Linux is the foundation for open hybrid cloud. In previous roles at Red Hat, Ballard has been a technical writer, doc lead, and content strategist for technical documentation, specializing in security technologies such as NSS, LDAP, certificate management, and authentication / authorization, as well as cloud and management. She also wrote and edited the Middleware Blog for Red Hat and led portfolio solution marketing for integration and business automation.