Panoramica
Red Hat OpenShift è la piattaforma applicativa di cloud ibrido ideale per gestire i flussi di dati che arrivano alle organizzazioni moderne con volumi e velocità sempre maggiori. Le esigenze dell'High Performance Computing (HPC) non sono un'eccezione. Oggi elaborare questi dati in un'unica posizione o destinazione non è più sostenibile, e le aziende devono intervenire su queste informazioni nel luogo più vicino alla loro sorgente; per questo l'HPC si sposta verso l'edge.
Molti settori hanno già adottato soluzioni HPC. La ricerca di giacimenti di gas e petrolio, la modellazione finanziaria complessa, la mappatura e il sequenziamento del DNA sono solo alcuni esempi di flussi di lavoro moderni con elevati requisiti legati ai dati, che fanno affidamento sull'HPC per favorire scoperte rivoluzionarie.
Vuoi conoscere l'High Performance Computing?
Scalabilità dell'HPC
La scalabilità dell'HPC ne consente l'impiego in simulazioni e calcoli avanzati che possono generare risultati e opportunità impensabili con un'infrastruttura tradizionale. Questa scalabilità esponenziale dell'HPC è rimasta in larga parte immutata negli ultimi 20 anni, ma ora le nuove applicazioni richiedono nuove architetture. Le più recenti, ad esempio, fanno largo uso dell'intelligenza artificiale (IA), che si basa sull'analisi dei dati ad alte prestazioni (HPDA) e sulla gestione di voluminose quantità di campioni di dati per consentire l'uso e l'inclusione di framework esterni. Se un'applicazione e le rispettive dipendenze sono raggruppate in container, è molto più facile andare incontro a queste esigenze. Gli ambienti HPC esistenti non sono stati progettati in funzione dei container; è pertanto indispensabile rivedere queste architetture e trovare nuovi modi per poterle utilizzare nei flessibili ambienti cloud native odierni.
Red Hat promuove da sempre l'innovazione cloud native negli ambienti multicloud ibridi. Questa nostra esperienza viene oggi convogliata verso i deployment HPC su larga scala. Conoscendo le esigenze collettive e le richieste in continua evoluzione degli scenari di utilizzo legati all'HPC, Red Hat punta a rendere i container Linux, Kubernetes e gli altri componenti basilari dell'elaborazione cloud native più accessibili nei siti in cui si trovano sistemi di supercomputing.
Per espandere la portata dell'HPC dall'edge all'exascale l'adozione di standard è fondamentale. Standard e procedure comuni e accettate, come quelle del progetto Open Container Initiative (OCI), per la sicurezza dei container e la scalabilità dei carichi di lavoro containerizzati, sono indispensabili affinché l'HPC possa sfruttare al meglio le tecnologie dei container. Per far sì che i container soddisfino i requisiti esclusivi del computing exascale, Red Hat è impegnata a migliorare Podman e gli strumenti per container associati affinché soddisfino le esigenze intensive dei carichi di lavoro containerizzati sui sistemi HPC.
All'aumento esponenziale del numero di container corrispondono nuove sfide. Simulazioni su larga scala e altri carichi di lavoro con grandi esigenze richiedono una robusta piattaforma di orchestrazione. Kubernetes è lo standard de facto per l'orchestrazione dei carichi di lavoro containerizzati negli ambienti multicloud ibridi. Red Hat è uno dei principali contributori al progetto della community Kubernetes e fornisce Red Hat OpenShift, la piattaforma Kubernetes leader di settore pensata per le aziende.
Red Hat OpenShift è oggi il prodotto di punta per l'esecuzione dei container su larga scala. Se è già adottato nel datacenter, nei cloud pubblici e all'edge, i suoi componenti e procedure standard possono semplificare anche gli ambienti HPC. Red Hat si occupa degli scenari di deployment delle infrastrutture Kubernetes di grandi dimensioni, fornendo meccanismi più semplici e ben definiti per distribuire agli utenti HPC carichi di lavoro containerizzati.
La transizione da un'architettura HPC tradizionale e dai suoi imponenti carichi di lavoro paralleli verso applicazioni compatibili con l'IA eseguite nei container non è veloce né facile, ma è il primo passo verso la riduzione delle complessità, dei costi e delle personalizzazioni necessarie per eseguire un'infrastruttura HPC convenzionale. Intraprendere questa transizione implica anche l'opportunità di adottare tecniche di sviluppo applicativo più innovative, di incrementare la portabilità e la capacità di aggiungere più rapidamente nuove funzionalità.
Risorse da Red Hat
Chi utilizza OpenShift per HPC?
Numerose organizzazioni nei settori verticali hanno già avviato la trasformazione dei propri carichi di lavoro HPC tradizionali in applicazioni intelligenti e containerizzate utilizzando Red Hat OpenShift:
- Grazie a Red Hat OpenShift, la Royal Bank of Canada migliora la collaborazione tra data scientist, data engineer e sviluppatori di software puntando ad accelerare il deployment di modelli di ML e DL negli ambienti di produzione che utilizzano un'infrastruttura ad alte prestazioni potenziata da GPU.
- Red Hat OpenShift consente a Public Health England di migliorare la portabilità e la riusabilità di codice e dati, la condivisione dei dati e la collaborazione dei team per le operazioni multicloud e HPC.
- Il Lawrence Livermore National Laboratory ha adottato OpenShift per sviluppare procedure ottimali per interfacciare gli scheduler HPC e gli strumenti di orchestrazione cloud, consentendo così ai processi HPC più tradizionali di utilizzare tecnologie per container moderne.
Oggi molte organizzazioni cercano di collegare gli ambienti di HPC e cloud computing a un toolset di container standardizzato, facilitando la creazione di prassi tecnologiche comuni tra deployment cloud native e HPC. Questi scenari sono un esempio di come sia possibile apportare miglioramenti evidenti ai carichi di lavoro HPC tradizionali con applicazioni basate su AI/ML e potenziate da una piattaforma di cloud ibrido come Red Hat OpenShift. Operando con un'infrastruttura tecnologica moderna e facendo affidamento sui container, i siti HPC possono sfruttarne l'uniformità, la velocità e l'efficienza.
Queste nuove capacità possono creare vantaggi competitivi e accelerare le scoperte, oltre a offrire la flessibilità e la scalabilità delle tecnologie cloud native. Ciò, a sua volta, consente ai carichi di lavoro HPC di essere eseguiti all'edge, dove i dati vengono generati o raccolti, oppure ai supercomputer exascale più potenti, e in qualsiasi altro luogo.
Il blog ufficiale di Red Hat
Leggi gli articoli del blog di Red Hat per scoprire novità e consigli utili sulle nostre tecnologie, e avere aggiornamenti sul nostro ecosistema di clienti, partner e community.