-
Prodotti e documentazione Red Hat AI
Una piattaforma di prodotti e servizi per lo sviluppo e il deployment dell'IA nel cloud ibrido.
Red Hat AI Inference Server
Ottimizza le prestazioni dei modelli con vLLM per un'inferenza rapida e conveniente in modo scalabile.
Red Hat Enterprise Linux AI
Sviluppa, testa ed esegui modelli di IA generativa per le applicazioni aziendali.
Red Hat OpenShift AI
Crea e distribuisci applicazioni e modelli basati sull'IA in modo scalabile negli ambienti ibridi.
Servizi cloud
Red Hat AI InstructLab su IBM Cloud
Una soluzione scalabile e conveniente per personalizzare i modelli di IA nel cloud.
-
Formazione Concetti di base
-
Partner per l'IA
Red Hat Enterprise Linux AI
Red Hat® Enterprise Linux® AI è una piattaforma per l'esecuzione di modelli linguistici di grandi dimensioni (LLM) in ambienti server individuali. La soluzione include Red Hat AI Inference Server, che offre un'inferenza rapida e conveniente nel cloud ibrido, massimizzando il throughput e riducendo al minimo la latenza.
Cos'è Red Hat Enterprise Linux AI?
Red Hat Enterprise Linux AI include:
- Red Hat AI Inference Server, che consente di eseguire il deployment dei modelli in modo rapido e uniforme nel cloud ibrido con ampio supporto hardware.
- Un'immagine di avvio di Red Hat Enterprise Linux, incluse le librerie di IA più diffuse (come PyTorch) e le inferenze hardware ottimizzate per NVIDIA, Intel e AMD.
- Supporto tecnico di livello aziendale e tutele legali Open Source Assurance.
Inferenza veloce e flessibile
L'implementazione dell'IA generativa può avvenire in due modi: si può adattare la strategia a un prodotto già pronto, oppure creare una soluzione su misura per le esigenze aziendali.
Red Hat Enterprise Linux AI è un prodotto open source che offre un'infrastruttura sicura e affidabile per l'esecuzione di qualsiasi modello, su qualsiasi hardware e con qualsiasi acceleratore all'interno del cloud ibrido. Include anche Red Hat AI Inference Server, un'appliance immutabile progettata appositamente per l'inferenza. Con questa soluzione, che mette insieme sistema operativo e AI Inference Server, sarà facile iniziare immediatamente a lavorare sui modelli. Grazie al runtime integrato vLLM e al compressore degli LLM, è possibile massimizzare il throughput e ridurre al minimo la latenza, così da eseguire i deployment in modo rapido e conveniente.
Caratteristiche e vantaggi
LLM per l'azienda
Usa metodi come la retrieval augmented generation (RAG) per ottimizzare i modelli più piccoli e specifici con i tuoi dati.
Maggiore efficienza
Grazie a vLLM, Red Hat AI Inference Server migliora l'efficienza senza compromettere le prestazioni.
Scalabilità cloud native
La modalità immagine di Red Hat Enterprise Linux ti permette di gestire la piattaforma di IA come immagine di container, semplificando l'approccio alla scalabilità.
Quando l'IA si adatta alle tue esigenze e alle tue condizioni.
IA generativa
Genera nuovi contenuti, come testi e codice software.
Red Hat AI ti consente di eseguire i modelli di IA generativa che preferisci, più velocemente, con meno risorse e costi di inferenza inferiori.
IA predittiva
Collega i modelli e prevedi i risultati futuri.
Con Red Hat AI le organizzazioni possono creare, addestrare, distribuire e monitorare i modelli predittivi, mantenendo la coerenza nel cloud ibrido.
Gestione operativa dell'IA
Crea sistemi che supportino la manutenzione e il deployment dell'IA in modo scalabile.
Con Red Hat AI puoi gestire e monitorare il ciclo di vita delle applicazioni basate sull'IA, risparmiando sulle risorse e garantendo la conformità alle normative sulla privacy.
Agentic AI
Crea flussi di lavoro che eseguono attività complesse con una supervisione limitata.
Red Hat AI offre un approccio flessibile e una base robusta per la creazione, la gestione e il deployment dei flussi di lavoro di Agentic AI all'interno delle applicazioni esistenti.
Affidati ai nostri partner
L'addestramento dei modelli di intelligenza artificiale (IA) richiede hardware ottimizzati con capacità di elaborazione altamente efficienti. Amplia le funzionalità di Red Hat Enterprise Linux AI con altri servizi e prodotti integrati.
Storie dei clienti relative all'IA dall'evento Red Hat Summit e AnsibleFest 2025
Turkish Airlines ha raddoppiato i tempi di deployment grazie all'accesso ai dati in tutta l'organizzazione.
JCCM ha migliorato i processi di valutazione di impatto ambientale (VIA) della regione utilizzando l'IA.
DenizBank ha accelerato i tempi di rilascio passando da pochi giorni a pochi minuti.
Hitachi ha reso operativa l'IA nell'intera azienda con Red Hat OpenShift AI.
Domande frequenti
Qual è la differenza tra Red Hat Enterprise Linux AI e Red Hat Enterprise Linux?
Red Hat Enterprise Linux AI è una piattaforma per modelli fondativi per l'esecuzione degli LLM in ambienti server singoli. La soluzione include Red Hat AI Inference Server, che offre un'inferenza rapida e conveniente nel cloud ibrido, massimizzando il throughput, riducendo al minimo la latenza e tagliando i costi di elaborazione.
Red Hat Enterprise Linux è una versione commerciale e open source di Linux sviluppata da Red Hat che offre una base solida ma flessibile per supportare l'innovazione nel cloud ibrido.
Red Hat Enterprise Linux AI è distribuito come un'immagine di avvio di Red Hat Enterprise Linux che include librerie di IA e modelli Granite.
Devo acquistare Red Hat Enterprise Linux per usare Red Hat Enterprise Linux AI?
No, è sufficiente una licenza per Red Hat Enterprise Linux AI, che include tutti i componenti necessari.
Le funzionalità di Red Hat Enterprise Linux AI
Red Hat Enterprise Linux AI include un'immagine di avvio di un'immagine dei container di Red Hat Enterprise Linux, che a sua volta comprende:
- Red Hat AI Inference Server.
- Modelli Granite con licenza open source.
- Librerie Pytorch e di runtime.
- Driver per acceleratori (NVIDIA, Intel, AMD).
Qual è la differenza tra Red Hat Enterprise Linux AI e Red Hat OpenShift AI?
Red Hat Enterprise Linux AI offre modelli di linguaggio di grandi dimensioni in dotazione e in un unico server. Include anche Red Hat AI Inference Server, un'appliance immutabile progettata appositamente per l'inferenza. Red Hat Enterprise Linux AI, che offre insieme il sistema operativo e l'applicazione,agevola le fasi iniziali per l'inferenza IA all'interno del cloud ibrido, perché massimizza la latenza e riduce i costi di elaborazione.
Red Hat OpenShift® AI fornisce tutti gli strumenti necessari per aiutare i clienti a creare in modo scalabile nuove applicazioni basate sull'IA. Red Hat OpenShift AI offre una piattaforma MLOps completa e integrata che consente di gestire il ciclo di vita dei modelli, garantendo il supporto per l'elaborazione distribuita, i flussi di lavoro collaborativi, il monitoraggio e le applicazioni del cloud ibrido.
Red Hat OpenShift AI include l'accesso a Red Hat Enterprise Linux AI. In questo modo i team possono utilizzare gli stessi modelli e strumenti di allineamento anche nella loro architettura OpenShift AI, oltre a beneficiare di più funzionalità MLOps di livello enterprise.
Qual è il costo di Red Hat Enterprise Linux AI?
Il costo della licenza Red Hat Enterprise Linux AI dipende dal numero di acceleratori.
Scopri altre risorse di intelligenza artificiale
Quattro fattori da considerare per scegliere il giusto modello di IA
Ottimizza l'innovazione IA con i modelli open source
Quattro motivi per utilizzare i modelli linguistici di piccole dimensioni open source
Sfrutta l'innovazione dell'IA generativa con Red Hat AI
Contatta il team commerciale
Contatta Red Hat
Contatta il team commerciale compilando il modulo seguente per ottenere informazioni sulle opzioni di sottoscrizione disponibili per Red Hat Enterprise Linux AI.
Per sapere di più sulle nostre partnership, sfoglia il catalogo.