-
Prodotti e documentazione Red Hat AI
Una piattaforma di prodotti e servizi per lo sviluppo e il deployment dell'IA nel cloud ibrido.
Red Hat AI Inference Server
Ottimizza le prestazioni dei modelli con vLLM per un'inferenza rapida e conveniente in modo scalabile.
Red Hat Enterprise Linux AI
Sviluppa, testa ed esegui modelli di IA generativa per le applicazioni aziendali.
Red Hat OpenShift AI
Crea e distribuisci applicazioni e modelli basati sull'IA in modo scalabile negli ambienti ibridi.
Servizi cloud
Red Hat AI InstructLab su IBM Cloud
Una soluzione scalabile e conveniente per personalizzare i modelli di IA nel cloud.
-
Formazione Concetti di base
-
Partner per l'IA
Red Hat AI Inference Server
Red Hat® AI Inference Server ottimizza l'inferenza nel cloud ibrido per adozioni più rapide e a un costo più vantaggioso.
Cos'è un server di inferenza?
Un server di inferenza è la parte di software che permette alle applicazioni di intelligenza artificiale (IA) di comunicare con modelli linguistici di grandi dimensioni (LLM) e generare una risposta in base ai dati. Questo processo viene chiamato inferenza. È dove si crea il valore di business e dove viene consegnato il risultato finale.
Per funzionare in modo efficace, gli LLM necessitano di ampio spazio di storage, memoria e infrastrutture per l'inferenza in modo scalabile. Ed è per questo che possono assorbire la maggior parte del tuo budget
Come parte della piattaforma Red Hat AI, Red Hat AI Inference Server ottimizza le capacità di inferenza per ridurre i costi tradizionalmente elevati e l'infrastruttura estesa.
Introduzione a Red Hat AI Inference Server
Come funziona Red Hat AI Inference Server?
Red Hat AI Inference Server offre un'inferenza veloce e a costi contenuti in modo scalabile. La sua natura open source gli consente di supportare qualsiasi modello di IA generativa (IA gen), su qualsiasi acceleratore IA, in qualsiasi ambiente cloud.
Basato su vLLM, il server di inferenza massimizza l'utilizzo della GPU e accelera i tempi di risposta. In combinazione con le capacità di LLM Compressor, l'efficienza dell'inferenza aumenta senza compromettere le prestazioni. Con un'adattabilità multipiattaforma e una community di contributori in crescita, vLLM si sta affermando come il Linux® dell'inferenza dell'IA gen.
50% Alcuni clienti che hanno utilizzato LLM Compressor hanno ottenuto un risparmio del 50% sui costi senza compromettere le prestazioni.*
*Zelenović, Saša. “Sfrutta tutto il potenziale degli LLM: ottimizza le prestazioni con vLLM”. Blog di Red Hat Blog, 27 febbraio 2025.
Scegli liberamente i tuoi modelli
Red Hat AI Inference Server supporta tutti i principali modelli open source e garantisce una portabilità flessibile sulle GPU. Hai il vantaggio di poter utilizzare qualsiasi modello di IA gen e di scegliere dalla nostra collezione ottimizzata di modelli open source convalidati di terze parti.
Inoltre, come parte di Red Hat AI, Red Hat AI Inference Server è certificato per tutti i prodotti Red Hat. Può anche essere adottato su altre piattaforme Linux e Kubernetes con supporto vincolato all'informativa sul supporto di terze parti di Red Hat.
Supporto di Red Hat AI
Essendo tra i maggiori contributori commerciali a vLLM, abbiamo una profonda conoscenza della tecnologia. I nostri consulenti IA possiedono le competenze giuste su vLLM per aiutarti a raggiungere i tuoi obiettivi di IA per le aziende.
Come acquistare la soluzione
Red Hat AI Inference Server è disponibile come prodotto standalone o come parte di Red Hat AI. È incluso sia in Red Hat Enterprise Linux® AI sia in Red Hat OpenShift® AI.
Affidati ai nostri partner
Con le giuste tecnologie e il supporto degli esperti del settore, i nostri clienti potranno sfruttare al massimo il potenziale dell'IA. Scopri tutti i partner che collaborano con Red Hat per certificare la compatibilità dei propri prodotti con le nostre soluzioni.
Storie dei clienti relative all'IA dall'evento Red Hat Summit e AnsibleFest 2025
Turkish Airlines ha raddoppiato i tempi di deployment grazie all'accesso ai dati in tutta l'organizzazione.
JCCM ha migliorato i processi di valutazione di impatto ambientale (VIA) della regione utilizzando l'IA.
DenizBank ha accelerato i tempi di rilascio passando da pochi giorni a pochi minuti.
Hitachi ha reso operativa l'IA nell'intera azienda con Red Hat OpenShift AI.
Domande frequenti
Devo acquistare Red Hat Enterprise Linux AI o Red Hat OpenShift AI per usare Red Hat AI Inference Server?
No. Puoi acquistare Red Hat AI Inference Server come prodotto Red Hat standalone.
Devo acquistare Red Hat AI Inference Server per usare Red Hat Enterprise Linux AI?
No. Red Hat AI Inference Server è incluso con l'acquisto di Red Hat Enterprise Linux AI e di Red Hat OpenShift AI.
Red Hat AI Inference Server può essere eseguito su Red Hat Enterprise Linux o Red Hat OpenShift?
Sì. Può essere eseguito anche in ambienti Linux di terze parti in base al nostro accordo con terze parti.
Come viene calcolata la tariffa di Red Hat AI Inference Server?
La tariffa si calcola in base all'acceleratore.
Quando l'IA si adatta alle tue esigenze e alle tue condizioni.
IA generativa
Genera nuovi contenuti, come testi e codice software.
Red Hat AI ti consente di eseguire i modelli di IA generativa che preferisci, più velocemente, con meno risorse e costi di inferenza inferiori.
IA predittiva
Collega i modelli e prevedi i risultati futuri.
Con Red Hat AI le organizzazioni possono creare, addestrare, distribuire e monitorare i modelli predittivi, mantenendo la coerenza nel cloud ibrido.
Gestione operativa dell'IA
Crea sistemi che supportino la manutenzione e il deployment dell'IA in modo scalabile.
Con Red Hat AI puoi gestire e monitorare il ciclo di vita delle applicazioni basate sull'IA, risparmiando sulle risorse e garantendo la conformità alle normative sulla privacy.
Agentic AI
Crea flussi di lavoro che eseguono attività complesse con una supervisione limitata.
Red Hat AI offre un approccio flessibile e una base robusta per la creazione, la gestione e il deployment dei flussi di lavoro di Agentic AI all'interno delle applicazioni esistenti.