Il ritmo dell'innovazione dell'IA sta accelerando e il lancio di Red Hat AI 3 ci ricorda che trasformare questo potenziale in una realtà per le aziende richiede un ecosistema solido e aperto basato sulla scelta e sulla collaborazione. Il nostro obiettivo è sempre stato quello di fornire una piattaforma coerente ed efficiente per l'IA, che funzioni con qualsiasi modello, su qualsiasi acceleratore e nel cloud ibrido. Oggi siamo entusiasti di sottolineare lo slancio dei nostri partner, che stanno lavorando al nostro fianco per costruire il futuro dell'IA open source e ibrida affidandosi al Red Hat.

L'ecosistema di partner di Red Hat è il motore che fornirà l'IA generativa (gen AI) e le capacità dell’agentic AI di cui i clienti hanno bisogno per un'adozione sul mercato su larga scala. Si tratta di unire il meglio in termini di hardware, software e servizi per creare un insieme che vada ben oltre la somma delle sue parti.

Potenzia l'inferenza in modo rapido, flessibile ed efficiente 

Il lancio di Red Hat AI 3 è incentrato sulla promozione dell'inferenza dell'IA aziendale, sull'ampliamento della scelta dei modelli e sull'abilitazione di modelli open source per ottimizzare costi e flessibilità, consentendo alle organizzazioni di passare dalla fase di addestramento alla fase produttiva. E i partner di Red Hat svolgono un ruolo fondamentale perché ciò avvenga. 

Per offrire un'inferenza dell'IA scalabile utilizzando vLLM e Kubernetes, il progetto open source llm-d è ora disponibile a livello generale all’interno di Red Hat OpenShift AI 3.0, ed è supportato da un gruppo di fornitori leader per modelli di IA generativa, acceleratori di IA e le principali piattaforme cloud IA. Tra i principali fondatori citiamo CoreWeave, Google Cloud, IBM Research e NVIDIA, con il supporto aggiuntivo di partner come AMD, Cisco, Hugging Face, Intel, Lambda e Mistral AI. Dall'introduzione del progetto all'inizio di quest'anno, anche Microsoft, Oracle e WEKA sono diventati membri attivi. 

"In qualità di membri della community llm-d, NeuralMesh, NeuralMesh Axon e Augmented Memory Grid di WEKA forniscono la base di dati adattiva e ad alte prestazioni necessaria per l'inferenza, estendendo la memoria della GPU e supportando i carichi di lavoro cache-aware su larga scala. Siamo orgogliosi di collaborare con Red Hat e con questo potente ecosistema di leader tecnologici nella creazione di ambienti di IA aperti, efficienti e abilitati in produzione per consentire ai clienti di passare più facilmente dalla fase di addestramento all'inferenza."

Nilesh Patel

Chief Strategy Officer, WEKA

Poiché i Large Language Model (LLM) stanno diventando la base per un'ampia gamma di applicazioni di IA generativa, Red Hat presenta la Partner Model Validation Guide per supportare i propri partner e offrire maggiore scelta ai clienti. Questa guida illustra una procedura standardizzata e dettagliata, che consente ai partner Red Hat di confrontare i propri LLM per l'inclusione nel catalogo dei modelli di IA di Red Hat OpenShift.

Sfruttando la Partner Model Validation Guide, i partner provider di modelli possono generare i dati necessari per la convalida utilizzando una toolchain open source prescritta, tra cui vLLM per l'erogazione, GuideLLM per il benchmarking delle prestazioni e LM Evaluation Harness per le valutazioni dell'accuratezza. Una volta inviati e convalidati dal nostro team, i modelli dei partner, completi delle metriche relative a prestazioni e qualità, saranno resi visibili e disponibili a tutti i clienti di Red Hat OpenShift AI. Questa iniziativa arricchisce il nostro catalogo di modelli, offrendo ai clienti informazioni e indicazioni più trasparenti a livello di modello, una selezione più ampia dei migliori modelli open source per creare le loro applicazioni di IA e visibilità sul mercato per i nostri partner fornitori di modelli.

Accelera i deployment dell'agentic AI

In definitiva, l'obiettivo è portare le applicazioni di IA in produzione in modo che possano offrire valore alle aziende. Insieme al nostro ecosistema di partner, Red Hat AI offre le funzionalità essenziali per lo sviluppo, il deployment e la gestione dell'agentic AI. È qui che i nostri integratori di sistemi e partner di servizi svolgono un ruolo cruciale. Red Hat collabora con leader globali come Accenture, HCL, Kyndryl, IBM Consulting, Infosys e NTT DATA per supportare i clienti nella scalabilità di queste applicazioni e nell'ottimizzazione dell'inferenza per eseguire l'IA ovunque, dal datacenter all'edge. 

Con una base solida e un'infrastruttura abilitata, l'attenzione si sposta sugli strumenti e sui modelli di cui le applicazioni intelligenti fanno uso. Una strategia di IA è valida quanto l'ecosistema di piattaforme dati, database vettoriali, strumenti di sicurezza e utility per sviluppatori che la supportano. Il panorama dei partner di Red Hat è ricco e diversificato e offre i componenti essenziali per la creazione di flussi di lavoro di IA moderni.

Model Context Protocol (MCP)

Con il lancio di Red Hat AI 3, abbiamo selezionato una raccolta di server MCP. Ciò consente agli ISV di connettere i propri strumenti e servizi direttamente a Red Hat AI. Partner come CyberArk, Dynatrace, Elastic, EnterpriseDB, Palo Alto Networks e altri stanno collaborando con Red Hat per presentare i loro server MCP, aiutando i clienti a realizzare applicazioni sofisticate basate su agenti con strumenti affidabili. 

"Il successo degli agenti di IA per le aziende dipende dalla capacità di ottenere il contesto più pertinente dai dati aziendali su larga scala, basato su un ecosistema di IA aperto con strumenti completi e componibili. Con il nostro server MCP su Red Hat OpenShift AI, miriamo a consentire ai clienti di integrare, in modo semplice, la piattaforma di ingegneria del contesto Elasticsearch e il database vettoriale nei loro flussi di lavoro di IA."

Steve Kearns

General Manager, Search Solutions, Elastic

"Red Hat OpenShift AI ci ha aiutato a rafforzare e migliorare il nostro MCP. Dynatrace consente ai clienti di integrare facilmente l'osservabilità in tempo reale nei flussi di lavoro di IA. Insieme, aiutiamo le organizzazioni ad accelerare lo sviluppo dei modelli con informazioni affidabili, automatizzare il rilevamento delle anomalie e garantire che le applicazioni di IA siano affidabili, scalabili e sicure in ambienti ibridi e multi-cloud."

Wolfgang Heider

Product Lead Software Delivery, Dynatrace

Llama Stack

Il lavoro di Red Hat con Llama Stack open source di Meta è fondamentale per consentire agli sviluppatori di utilizzare Red Hat AI 3. Contribuendo attivamente a questo progetto open source, Red Hat e i suoi partner contribuiscono a migliorare un set completo di strumenti standardizzati che rivoluzionano il ciclo di vita delle applicazioni di IA generativa. Ciò consente agli sviluppatori di disporre di un ambiente efficace, solido e adattabile per accelerare la creazione e il deployment di soluzioni IA innovative, offrendo ai nostri partner e clienti un percorso chiaro verso la produzione. Riducendo la complessità dell'integrazione di vari servizi e strumenti di IA, Llama Stack consente agli sviluppatori di concentrarsi sull'innovazione anziché sulle sfide dell'infrastruttura.

Scalabilità dell'IA nel cloud ibrido

Acceleratori di IA  

Le opzioni sono importanti per offrire un'ampia gamma di funzionalità, motivo per cui abbiamo approfondito le nostre collaborazioni con partner acceleratori come AMD, Google Cloud e Intel. 

Collaboriamo con NVIDIA per integrare il software, il networking e l'elaborazione IA ottimizzata per le prestazioni con Red Hat AI, aiutando i clienti a creare, distribuire e gestire l'IA in modo scalabile e ottimizzare l'infrastruttura su diversi carichi di lavoro. Red Hat e NVIDIA continuano a promuovere l'espansione dell'infrastruttura di IA con il supporto dell'infrastruttura NVIDIA GB200 NVL72, mirata all’addestramento e all'inferenza dell'IA di fascia alta scalabili. Inoltre, le GPU NVIDIA RTX PRO(R) 6000 Blackwell Server Edition supportano Red Hat AI, Red Hat OpenShift e Red Hat OpenShift Virtualization, accelerando una vasta gamma di carichi di lavoro aziendali, tra cui IA enterprise e grafica VDI, con GPU e server raffreddati ad aria. 

La nostra collaborazione con AMD contribuisce a potenziare l'IA generativa per renderla più efficiente abilitando il portafoglio di processori e GPU basati su x86 di AMD su Red Hat AI, grazie alle nostre attivazioni nelle community upstream (tra cui vLLM e llm-d) per offrire prestazioni migliorate e supporto GPU. 

Inoltre, Red Hat continua a consolidare la sua collaborazione di lunga data con Intel per supportare Red Hat AI in tutto il suo portafoglio di piattaforme hardware e acceleratori in espansione, inclusi gli acceleratori Intel® Gaudi® AI. 

Questo impegno per offrire più scelta si estende al cloud ibrido. In questo ambito, stiamo collaborando attivamente con Google Cloud per rafforzare il supporto delle TPU su Red Hat AI, estendendo la nostra visione condivisa dell'innovazione basata sulla community attraverso progetti come llm-d e vLLM.

Soluzioni per l'infrastruttura 

Gli acceleratori sono solo un tassello del puzzle. I clienti hanno bisogno di soluzioni integrate e convalidate. È qui che entrano in gioco i nostri partner per i server OEM, che trasformano il potenziale teorico dell'IA in una realtà aziendale tangibile. Sebbene le basi dell’AI consistano di due livelli, ovvero gli acceleratori e i modelli linguistici, il deployment pratico e la gestione dell'IA scalabile richiedono soluzioni solide e integrate. 

Red Hat collabora attivamente con i leader del settore, tra cui Cisco, Dell Technologies, HPE e Lenovo, per semplificare il deployment e la gestione dell'IA negli ambienti cloud ibridi. Insieme a Dell, stiamo lavorando per garantire che le potenti soluzioni server e storage siano ottimizzate per l'IA di Red Hat, fornendo ai clienti un'infrastruttura affidabile e scalabile per i loro carichi di lavoro di IA. Ciò include gli sforzi congiunti per abilitare Red Hat OpenShift e Red Hat OpenShift AI per Dell AI Factory with NVIDIA, che combinano funzionalità hardware e software ottimizzate per promuovere deployment di IA più fluidi in grado di gestire le attività di calcolo più impegnative.

Allo stesso modo, la nostra collaborazione con Cisco unisce i loro punti di forza in termini di networking, sicurezza, elaborazione e osservabilità con Red Hat OpenShift come piattaforma applicativa per i carichi di lavoro di IA containerizzati all'interno dei Cisco AI PODs, l'elemento base dell'infrastruttura IA di Cisco Secure AI Factory with NVIDIA. Red Hat AI parte da questa base per offrire un ambiente coerente e automatizzato per lo sviluppo, l’addestramento e l'inferenza dei modelli di IA. Il risultato è una piattaforma IA completa, scalabile, ad alte prestazioni e sicura.

Stiamo espandendo i progetti di riferimento e le offerte di infrastrutture di IA all'intero ecosistema infrastrutturale. Queste collaborazioni sono essenziali per fornire ai clienti le soluzioni complete necessarie per rendere operativa l'IA, contribuendo a garantire che l'hardware, il software e i servizi necessari possano essere integrati per accelerare l'adozione e l'innovazione dell'IA.

Il nostro vasto ecosistema di distributori e rivenditori a valore aggiunto (VAR) globali è fondamentale per creare soluzioni ripetibili e scalabili per le aziende. Partner come Ahead, Arrow, TD Synnex, WWT e molti altri si stanno allineando a Red Hat AI all'interno del loro portafoglio di soluzioni.

"World Wide Technology sta sfruttando il portfolio di Red Hat AI nel suo AI Proving Ground per semplificare il processo di creazione e deployment di modelli di IA, sia predittivi che generativi."

Neil Anderson

Neil Anderson, Vice President and Chief Technology Officer, Cloud, World Wide Technology

Un ecosistema di IA leader nel settore

Grazie a collaborazioni strategiche con partner hardware, software e servizi, Red Hat mette a disposizione una piattaforma per l'IA coerente ed efficiente, che offre scelta e flessibilità in tutto il cloud ibrido. Questo approccio collaborativo, che spazia dall'ottimizzazione dell'inferenza distribuita con llm-d alla convalida dei modelli linguistici con la Partner Model Validation Guide e all'accelerazione dei deployment dell'agentic AI, aiuta i clienti a rendere operativa l'IA su larga scala e a sfruttare appieno il valore che offre alle aziende.


Sull'autore

Ryan King is Vice President of AI and Infrastructure for the Partner Ecosystem Success organization at Red Hat. In this role, King leads a team in shaping Red Hat's AI strategy with key infrastructure and hardware providers to drive go-to-market engagements and customer success with AI. 

UI_Icon-Red_Hat-Close-A-Black-RGB

Ricerca per canale

automation icon

Automazione

Novità sull'automazione IT di tecnologie, team e ambienti

AI icon

Intelligenza artificiale

Aggiornamenti sulle piattaforme che consentono alle aziende di eseguire carichi di lavoro IA ovunque

open hybrid cloud icon

Hybrid cloud open source

Scopri come affrontare il futuro in modo più agile grazie al cloud ibrido

security icon

Sicurezza

Le ultime novità sulle nostre soluzioni per ridurre i rischi nelle tecnologie e negli ambienti

edge icon

Edge computing

Aggiornamenti sulle piattaforme che semplificano l'operatività edge

Infrastructure icon

Infrastruttura

Le ultime novità sulla piattaforma Linux aziendale leader a livello mondiale

application development icon

Applicazioni

Approfondimenti sulle nostre soluzioni alle sfide applicative più difficili

Virtualization icon

Virtualizzazione

Il futuro della virtualizzazione negli ambienti aziendali per i carichi di lavoro on premise o nel cloud