Come funziona AI/ML su Red Hat OpenShift?
AI/ML su Red Hat® OpenShift® accelera i flussi di lavoro AI/ML e la distribuzione di applicazioni intelligenti basate sull'intelligenza artificiale con Red Hat OpenShift a gestione autonoma, o il nostro servizio cloud AI/ML.
MLOps con Red Hat OpenShift
Red Hat OpenShift include funzionalità chiave per consentire operazioni di machine learning (MLOps) in modo coerente tra datacenter, cloud computing pubblico ed edge computing.
Con l'applicazione dei principi DevOps e GitOps, le organizzazioni automatizzano e semplificano il processo iterativo di integrazione dei modelli di ML nei processi di sviluppo software, rollout in produzione, monitoraggio, riaddestramento e ridistribuzione per previsioni sempre costanti.
Quali sono le fasi del machine learning?
È un processo in più fasi con lo scopo di realizzare applicazioni intelligenti sfruttando grandi volumi di dati di ogni tipo, elevate risorse di elaborazione e strumenti di machine learning open source.
A livello macroscopico, questo ciclo di vita si articola in quattro fasi:
- Raccolta e preparazione dei dati, per assicurarsi che i dati di input siano completi e di alta qualità
- Sviluppo del modello, che include l'addestramento, il test e la selezione del modello con la massima precisione predittiva
- Integrazione dei modelli nel processo di sviluppo applicativo e inferenza
- Monitoraggio e gestione dei modelli, al fine di misurare le prestazioni aziendali e correggere le eventuali deviazioni nei dati di produzione
Acquisizione e preparazione dei dati
Modellazione ML
Deployment del modello ML
Monitoraggio e gestione dei modelli ML
Principali problematiche gestite dai data scientist
I data scientist sono responsabili soprattutto della modellazione ML, per garantire che il modello selezionato continui a fornire la massima precisione predittiva.
Le principali problematiche che i data scientist si trovano a gestire includono:
- Selezione e deployment degli strumenti ML più appropriati, come Apache Spark, Jupyter notebook TensorFlow, PyTorch e così via.
- Complessità e tempo necessario per l'addestramento, i test, la selezione e l'ulteriore addestramento del modello ML che offre la massima precisione predittiva
- Lentezza delle attività di modellazione e inferenza dovuta alla mancanza di accelerazione hardware
- Dipendenza costante dai team operativi IT, per il provisioning e la gestione dell'infrastruttura
- Interazione costante con data engineer e sviluppatori software, per garantire la pulizia dei dati di input e il deployment appropriato del modello ML nei processi di sviluppo applicativo
Perché utilizzare container e Kubernetes per le iniziative di machine learning
I container e Kubernetes svolgono un ruolo chiave per l'accelerazione del ciclo di vita ML poiché forniscono ai data scientist i livelli di agilità, flessibilità, portabilità e scalabilità indispensabili per l'addestramento, il test e il deployment dei modelli ML.
Red Hat® OpenShift® è la piattaforma di cloud ibrido leader di settore per i container e Kubernetes. Oltre a offrire tutti i vantaggi, promuove la collaborazione fra data scientist e sviluppatori software, tramite le funzionalità DevOps integrate (come OpenShift Pipelines, OpenShift GitOps e Red Hat Quay) e l'integrazione con gli acceleratori hardware. Velocizza inoltre la distribuzione delle applicazioni intelligenti in tutto il cloud ibrido (data center, edge e cloud pubblici).
Red Hat OpenShift Data Science
Red Hat OpenShift AI è un insieme di strumenti basati sull'intelligenza artificiale e pensati per l'intero ciclo di vita delle iniziative e dei modelli di AI/ML. Include Red Hat OpenShift Data Science.
Red Hat OpenShift Data Science è un servizio cloud gestito e autogestito per data scientist e sviluppatori di applicazioni intelligenti. Fornisce una sandbox completamente supportata per lo sviluppo, l'addestramento e i test dei modelli di machine learning (ML) in modo rapido nel cloud pubblico prima di distribuirli in produzione.
I vantaggi di Red Hat OpenShift per il machine learning
Offri ai data scientist gli strumenti essenziali
- Esperienza cloud self service coerente per i data scientist in tutto il cloud ibrido
- Flessibilità e portabilità necessarie all'utilizzo degli strumenti ML containerizzati scelti dai data scientist, al fine di accelerare le creazione, l'estensione, la riproduzione e la condivisione dei modelli ML.
- Utilizzo degli strumenti ML più appropriati, tramite gli operatori Kubernetes certificati da Red Hat, sia per la versione autogestita che per l'opzione del servizio cloud basata sull'intelligenza artificiale.
- Autonomia nel provisioning dell'infrastruttura necessaria per le attività di modellazione ML iterative, che comportano un uso intensivo delle risorse di elaborazione.
- Nessun lock-in con uno specifico provider di servizi cloud e il relativo menu di strumenti ML.
- Deployment più rapidi dei modelli ML, con tutte le iterazioni necessarie, grazie all'integrazione completa con gli strumenti CI/CD.
Accelera i processi di modellazione ML a elevato utilizzo di calcolo
Grazie alle integrazioni con gli acceleratori hardware più diffusi, come le GPU NVIDIA tramite gli operatori GPU certificati da Red Hat, OpenShift riesce a fornire tutte le risorse di elaborazione necessarie. Ciò permette di selezionare il modello ML ottimale, allo scopo di garantire la massima precisione predittiva, nonché i processi di inferenza ML più adatti, a mano a mano che il modello individua nuove tipologie di dati nell'ambiente di produzione.
Sviluppa applicazioni intelligenti
Grazie alle funzionalità DevOps integrate in OpenShift, i team MLOps possono accelerare la distribuzione delle applicazioni basate sull'intelligenza artificiale e semplificare il processo iterativo di integrazione dei modelli ML e la ridistribuzione continua per una previsione accurata.
L'estensione delle funzionalità di automazione DevOps fornita da OpenShift al ciclo di vita ML promuove la collaborazione fra data scientist, sviluppatori software e team operativi IT, consentendo di integrare velocemente i modelli ML nello sviluppo di applicazioni intelligenti. Ciò consente di ottenere cicli di sviluppo più efficienti semplificando la gestione del ciclo di vita per le applicazioni intelligenti basate su ML.
- Generazione dal registro delle immagini dei modelli di container con OpenShift Build.
- Sviluppo continuo e iterativo delle applicazioni intelligenti basate su modello ML con OpenShift Pipelines.
- Automazione del deployment continuo per le applicazioni intelligenti basate su modello ML con OpenShift GitOps.
- Repository per i microservizi e le immagini container dei modelli di versione con Red Hat Quay.
Principali scenari di utilizzo del machine learning con Red Hat OpenShift
OpenShift aiuta le organizzazioni di vari settori ad accelerare le iniziative aziendali chiave attraverso lo sviluppo delle applicazioni intelligenti nel cloud ibrido. Gli scenari di utilizzo includono ad esempio il rilevamento delle frodi, la diagnostica dei problemi basata sui dati, le auto connesse, la ricerca di giacimenti di gas e petrolio, l'automazione dei preventivi assicurativi e l'elaborazione delle richieste di risarcimento.
Red Hat Data Services per la gestione dei dati nel ciclo di vita ML
Red Hat Data Services è un prodotto concepito per rispondere alle esigenze di storage nell'ordine dei petabyte che caratterizzano il ciclo di vita ML, dalle fasi di acquisizione e preparazione dei dati alla modellazione ML, fino all'inferenza. Il portafoglio Red Hat Data Services include Red Hat Ceph Storage, un sistema di storage software defined e open source che fornisce supporto esaustivo per lo storage basato su file, blocchi e oggetti S3, garantendo livelli di scalabilità elevatissimi su hardware commerciale standard di settore.
Permette ad esempio di fornire storage Ceph scalabile a notebook Jupyter containerizzati su OpenShift tramite S3 o volumi permanenti.
Storie di successo
Turkcell, il principale operatore di telefonia mobile in Turchia, ha eseguito il deployment di Red Hat OpenShift come architettura di base per i carichi di lavoro delle applicazioni basati sull'intelligenza artificiale. OpenShift ha consentito di creare un'infrastruttura reattiva per distribuire applicazioni AI innovative in modo più rapido, riducendo i tempi di provisioning da mesi a secondi. I costi operativi e di sviluppo dell'AI sono stati ridotti del 70%.
Royal Bank of Canada e il suo istituto di ricerca sull'AI, Borealis AI, hanno collaborato con Red Hat e NVIDIA per sviluppare una nuova piattaforma di elaborazione basata sull'intelligenza artificiale, progettata per trasformare l'esperienza bancaria dei clienti e restare al passo con i rapidi cambiamenti tecnologici e le aspettative in costante evoluzione dei clienti.
Open Data Hub Project per la realizzazione di una piattaforma ML completa

Open Data Hub Project è un'architettura funzionale basata su Red Hat OpenShift, Red Hat Ceph Storage, Red Hat AMQ Streams e una serie di progetti open source upstream, con lo scopo di realizzare una piattaforma ML open source completa di tutti gli strumenti ML essenziali.
L'intelligenza artificiale per gli ambienti aziendali
La combinazione di Red Hat OpenShift e della suite software NVIDIA AI Enterprise in esecuzione su NVIDIA-Certified Systems offre una piattaforma scalabile che accelera una vasta gamma di scenari di utilizzo dell'AI. La piattaforma include le tecnologie chiave di NVIDIA e Red Hat che garantiscono coerenza alle attività di deployment, gestione e scalabilità dei workload AI in ambienti di cloud ibrido, bare metal o virtualizzati.
Ecosistema dei partner AI/ML di Red Hat
Scenari di utilizzo AI/ML trasformativi si verificano in tutti i settori: sanità, servizi finanziari, telecomunicazioni, automotive e altri. Grazie a un solido ecosistema di partner, Red Hat è in grado di offrire soluzioni complete per la creazione, il deployment e la gestione di modelli di machine learning e deep learning per applicazioni intelligenti basate sull'intelligenza artificiale.