Red Hat AI Inference Server

Red Hat® AI Inference Server ottimizza l'inferenza nel cloud ibrido per adozioni più rapide e a un costo più vantaggioso. 

Grafica hero Red Hat Inference Server

Cos'è un server di inferenza?

Un server di inferenza è la parte di software che permette alle applicazioni di intelligenza artificiale (IA) di comunicare con modelli linguistici di grandi dimensioni (LLM) e generare una risposta in base ai dati. Questo processo viene chiamato inferenza. È dove si crea il valore di business e dove viene consegnato il risultato finale.

Per funzionare in modo efficace, gli LLM necessitano di ampio spazio di storage, memoria e infrastrutture per l'inferenza in modo scalabile. Ed è per questo che possono assorbire la maggior parte del tuo budget 

Come parte della piattaforma Red Hat AI, Red Hat AI Inference Server ottimizza le capacità di inferenza per ridurre i costi tradizionalmente elevati e l'infrastruttura estesa. 

Inferenza IA veloce ed efficiente in termini economici con Red Hat AI Inference Server. Durata del video: 2:28

Introduzione a Red Hat AI Inference Server

Come funziona Red Hat AI Inference Server?

Red Hat AI Inference Server offre un'inferenza veloce e a costi contenuti in modo scalabile. La sua natura open source gli consente di supportare qualsiasi modello di IA generativa (IA gen), su qualsiasi acceleratore IA, in qualsiasi ambiente cloud. 

Basato su vLLM, il server di inferenza massimizza l'utilizzo della GPU e accelera i tempi di risposta. In combinazione con le capacità di LLM Compressor, l'efficienza dell'inferenza aumenta senza compromettere le prestazioni. Con un'adattabilità multipiattaforma e una community di contributori in crescita, vLLM si sta affermando come il Linux® dell'inferenza dell'IA gen. 

50%

Alcuni clienti che hanno utilizzato LLM Compressor hanno ottenuto un risparmio del 50% sui costi senza compromettere le prestazioni.* 

*Zelenović, Saša. “Sfrutta tutto il potenziale degli LLM: ottimizza le prestazioni con vLLM”. Blog di Red Hat Blog, 27 febbraio 2025. 

Scegli liberamente i tuoi modelli

Red Hat AI Inference Server supporta tutti i principali modelli open source e garantisce una portabilità flessibile sulle GPU. Hai il vantaggio di poter utilizzare qualsiasi modello di IA gen e di scegliere dalla nostra collezione ottimizzata di modelli open source convalidati di terze parti.   

Inoltre, come parte di Red Hat AI, Red Hat AI Inference Server è certificato per tutti i prodotti Red Hat. Può anche essere adottato su altre piattaforme Linux e Kubernetes con supporto vincolato all'informativa sul supporto di terze parti di Red Hat

Maggiore efficienza con vLLM

vLLM consente un uso efficiente della memoria e un maggiore utilizzo della GPU per offrire un'inferenza del modello efficiente. Ottimizza l'adozione di qualsiasi modello di IA gen, su qualsiasi acceleratore IA, grazie a vLLM.

LLM Compressor

Comprimi modelli di qualsiasi dimensione per ridurre l'utilizzo delle risorse e i relativi costi, mantenendo al contempo un'elevata accuratezza nelle risposte del modello. 

Flessibilità del cloud ibrido

Mantieni la portabilità tra diverse GPU ed esegui i modelli on premise, nel cloud o nell'edge.

Repository di Red Hat AI

Modelli convalidati e ottimizzati da terze parti sono pronti per l'adozione dell'inferenza, per aiutarti a ottenere un time to value più rapidamente e mantenere costi bassi.

Supporto di Red Hat AI

Essendo tra i maggiori contributori commerciali a vLLM, abbiamo una profonda conoscenza della tecnologia. I nostri consulenti IA possiedono le competenze giuste su vLLM per aiutarti a raggiungere i tuoi obiettivi di IA per le aziende. 

Come acquistare la soluzione

Red Hat AI Inference Server è disponibile come prodotto standalone o come parte di Red Hat AI. È incluso sia in Red Hat Enterprise Linux® AI sia in Red Hat OpenShift® AI. 

Affidati ai nostri partner

Con le giuste tecnologie e il supporto degli esperti del settore, i nostri clienti potranno sfruttare al massimo il potenziale dell'IA. Scopri tutti i partner che collaborano con Red Hat per certificare la compatibilità dei propri prodotti con le nostre soluzioni. 

Logo Dell Technologies
Logo Lenovo
Logo Intel
Logo Nvidia
Logo AMD

Storie dei clienti relative all'IA dall'evento Red Hat Summit e AnsibleFest 2025

Turkish Airlines

Turkish Airlines ha raddoppiato i tempi di deployment grazie all'accesso ai dati in tutta l'organizzazione.

Logo JCCM

JCCM ha migliorato i processi di valutazione di impatto ambientale (VIA) della regione utilizzando l'IA.

DenizBank

DenizBank ha accelerato i tempi di rilascio passando da pochi giorni a pochi minuti.

Logo Hitachi

Hitachi ha reso operativa l'IA nell'intera azienda con Red Hat OpenShift AI.

Domande frequenti

Devo acquistare Red Hat Enterprise Linux AI o Red Hat OpenShift AI per usare Red Hat AI Inference Server?

No. Puoi acquistare Red Hat AI Inference Server come prodotto Red Hat standalone. 

Devo acquistare Red Hat AI Inference Server per usare Red Hat Enterprise Linux AI?

No. Red Hat AI Inference Server è incluso con l'acquisto di Red Hat Enterprise Linux AI e di Red Hat OpenShift AI. 

Red Hat AI Inference Server può essere eseguito su Red Hat Enterprise Linux o Red Hat OpenShift?

Sì. Può essere eseguito anche in ambienti Linux di terze parti in base al nostro accordo con terze parti.

Come viene calcolata la tariffa di Red Hat AI Inference Server?

La tariffa si calcola in base all'acceleratore.

Quando l'IA si adatta alle tue esigenze e alle tue condizioni.

IA generativa

IA generativa

Genera nuovi contenuti, come testi e codice software. 

Red Hat AI ti consente di eseguire i modelli di IA generativa che preferisci, più velocemente, con meno risorse e costi di inferenza inferiori. 

IA predittiva

IA predittiva

Collega i modelli e prevedi i risultati futuri. 

Con Red Hat AI le organizzazioni possono creare, addestrare, distribuire e monitorare i modelli predittivi, mantenendo la coerenza nel cloud ibrido.

Gestione operativa dell'IA

Gestione operativa dell'IA

Crea sistemi che supportino la manutenzione e il deployment dell'IA in modo scalabile. 

Con Red Hat AI puoi gestire e monitorare il ciclo di vita delle applicazioni basate sull'IA, risparmiando sulle risorse e garantendo la conformità alle normative sulla privacy. 

Agentic AI

Agentic AI

Crea flussi di lavoro che eseguono attività complesse con una supervisione limitata. 

Red Hat AI offre un approccio flessibile e una base robusta per la creazione, la gestione e il deployment dei flussi di lavoro di Agentic AI all'interno delle applicazioni esistenti.

Scopri altre risorse di IA

Come implementare l'IA a livello aziendale

Muovere i primi passi con l'inferenza IA

Ottimizza l'innovazione IA con i modelli open source

Webinar: come migliorare le prestazioni e ottimizzare i costi

Contatta il team commerciale

Contattaci per sapere di più su Red Hat AI