-
Prodotti e documentazione Red Hat AI
Una piattaforma di prodotti e servizi per lo sviluppo e il deployment dell'IA nel cloud ibrido.
Red Hat AI Inference Server
Ottimizza le prestazioni dei modelli con vLLM per un'inferenza rapida e conveniente in modo scalabile.
Red Hat Enterprise Linux AI
Sviluppa, testa ed esegui modelli di IA generativa per le applicazioni aziendali.
Red Hat OpenShift AI
Crea e distribuisci applicazioni e modelli basati sull'IA in modo scalabile negli ambienti ibridi.
Servizi cloud
Red Hat AI InstructLab su IBM Cloud
Una soluzione scalabile e conveniente per personalizzare i modelli di IA nel cloud.
-
Formazione Concetti di base
-
Partner per l'IA
Red Hat AI
Offri il valore dell'IA con le risorse che hai, le informazioni che possiedi e la libertà di cui hai bisogno.
Basata su una tecnologia open source, Red Hat® AI è progettata per aiutarti a creare ed eseguire soluzioni di IA in tutta sicurezza.
Red Hat AI 3 è arrivato
La nostra ultima versione rende l'inferenza IA più efficiente e conveniente con llm-d. Funzionalità aggiuntive gettano le basi per offrire flussi di lavoro di Agentic AI scalabili, grazie a un'esperienza unificata e flessibile, su misura per le esigenze collaborative di sviluppo scalabile di soluzioni di IA production-ready.
Tuoi i modelli. Tuoi i dati. Tua la scelta.
Per funzionare al meglio, le applicazioni di IA richiedono inferenza rapida e conveniente. Red Hat AI offre una piattaforma unificata e flessibile per raggiungere questo obiettivo, con llm-d: un framework per l'inferenza distribuita in modo scalabile.
Basato sul successo di vLLM, llm-d sfrutta il valore comprovato di Kubernetes e offre un'elaborazione coerente ed efficiente in grado di offrire prestazioni prevedibili.
Man mano che le organizzazioni passano ad Agentic, hanno bisogno di qualcosa di più dell'efficienza; hanno bisogno di un framework interoperabile per connettere modelli, dati e flussi di lavoro di IA nel cloud ibrido.
L'introduzione di un livello API unificato basato su Llama Stack offre un punto di accesso per un'ampia gamma di funzionalità di IA, tra cui l'integrazione con il Model Context Protocol (MCP), che semplifica la distribuzione e l'esecuzione di Agentic AI in modo scalabile negli ambienti di produzione.
2 ore | Martedì, 14 ottobre alle 10 EST
Novità e prospettive di Red Hat AI
Il tuo viaggio verso l'IA enterprise-ready
Unisciti ai leader di Red Hat AI per scoprire le ultime novità del framework.
La versione più recente dà priorità a un'inferenza prevedibile e performante e allo sviluppo accelerato di agenti IA. Gli aggiornamenti del prodotto contribuiscono a superare le sfide dell'IA, come i costi, la complessità e il controllo.
Red Hat AI comprende:
Red Hat AI Inference Server ottimizza l'inferenza dei modelli nel cloud ibrido, per adozioni più rapide e a un costo più vantaggioso.
Basato su vLLM, include l'accesso a modelli di terze parti convalidati e ottimizzati su Hugging Face. Comprende inoltre strumenti LLM Compressor.
Red Hat Enterprise Linux® AI è una piattaforma per l'esecuzione continua di modelli linguistici di grandi dimensioni (LLM) in ambienti server individuali.
Con Red Hat AI Inference Server incluso, ottieni inferenze cloud ibride veloci e convenienti, utilizzando vLLM per massimizzare il throughput e ridurre al minimo la latenza.
Inoltre, con funzionalità come la modalità immagine, puoi implementare soluzioni in modo scalabile e coerente. Consente poi di applicare gli stessi profili di sicurezza su Linux, unificando il tuo team in un unico flusso di lavoro.
Red Hat OpenShift® AI si basa sulle funzionalità di Red Hat OpenShift per offrire una piattaforma per la gestione scalabile del ciclo di vita dei modelli di IA generativa e predittiva.
Fornisce IA production ready, consentendo alle organizzazioni di creare, distribuire e gestire modelli e agenti di IA in ambienti di cloud ibrido, tra cui IA sovrana e privata.
Prestazioni convalidate per l'utilizzo in contesti reali
Red Hat AI consente di accedere a una serie di modelli di terze parti pronti all'uso e convalidati, che funzionano in modo efficiente su vLLM all'interno della nostra piattaforma.
Utilizza i modelli di terze parti convalidati di Red Hat per testare le prestazioni dei modelli, ottimizzare l'inferenza e ottenere indicazioni per semplificare la complessità e accelerare l'adozione dell'IA.
Quando l'IA si adatta alle tue esigenze e alle tue condizioni.
IA generativa
Genera nuovi contenuti, come testi e codice software.
Red Hat AI ti consente di eseguire i modelli di IA generativa che preferisci, più velocemente, con meno risorse e costi di inferenza inferiori.
IA predittiva
Collega i modelli e prevedi i risultati futuri.
Con Red Hat AI le organizzazioni possono creare, addestrare, distribuire e monitorare i modelli predittivi, mantenendo la coerenza nel cloud ibrido.
Gestione operativa dell'IA
Crea sistemi che supportino la manutenzione e il deployment dell'IA in modo scalabile.
Con Red Hat AI puoi gestire e monitorare il ciclo di vita delle applicazioni basate sull'IA, risparmiando sulle risorse e garantendo la conformità alle normative sulla privacy.
Agentic AI
Crea flussi di lavoro che eseguono attività complesse con una supervisione limitata.
Red Hat AI offre un approccio flessibile e una base robusta per la creazione, la gestione e il deployment dei flussi di lavoro di Agentic AI all'interno delle applicazioni esistenti.
Più partner di IA. Più possibilità di crescita.
Con le giuste tecnologie e il supporto degli esperti del settore, i nostri clienti potranno sfruttare al massimo il potenziale dell'IA. Molti partner tecnologici collaborano con Red Hat per certificare la compatibilità dei propri prodotti con le nostre soluzioni.
Storie dei clienti relative all'IA dall'evento Red Hat Summit e AnsibleFest 2025
Turkish Airlines ha raddoppiato i tempi di deployment grazie all'accesso ai dati in tutta l'organizzazione.
JCCM ha migliorato i processi di valutazione di impatto ambientale (VIA) della regione utilizzando l'IA.
DenizBank ha accelerato i tempi di rilascio passando da pochi giorni a pochi minuti.
Hitachi ha reso operativa l'IA nell'intera azienda con Red Hat OpenShift AI.
Analisi della soluzione
Applicazioni IA con Red Hat e NVIDIA AI Enterprise
Crea un'applicazione RAG
Red Hat OpenShift AI è una piattaforma per creare progetti di data science e distribuire applicazioni abilitate all'IA. Puoi integrare tutti gli strumenti che ti servono per supportare la tecnologia retrieval augmented generation (RAG), un metodo per ottenere le risposte dell'IA dai tuoi documenti di riferimento. Quando connetti OpenShift AI con NVIDIA AI Enterprise, puoi fare alcune prove con gli LLM (Large Language Model) per trovare il modello ideale per la tua applicazione.
Sviluppa una pipeline per i documenti
Se vuoi usare la tecnologia RAG, per prima cosa devi inserire i tuoi documenti in un database vettore. Nella nostra app di esempio, integriamo una serie di documenti di prodotto in un database Redis. Visto che questi documenti vengono modificati spesso, possiamo creare una pipeline da eseguire periodicamente per tale processo in modo da disporre sempre della versione più recente.
Sfoglia il catalogo degli LLM
NVIDIA AI Enterprise ti offre l'accesso a un catalogo di diversi modelli LLM, così potrai fare diverse prove e scegliere quello che offre risultati migliori. I modelli sono ospitati nel catalogo delle API di NVIDIA. Una volta che hai impostato un token API, puoi eseguire il deployment di un modello utilizzando la piattaforma di distribuzione dei modelli NVIDIA NIM direttamente da OpenShift AI.
Scegli il modello giusto
Mentre fai alcune prove con i diversi modelli LLM, i tuoi utenti possono valutare ogni risposta generata. Puoi configurare una dashboard di monitoraggio Grafana per confrontare le valutazioni, oltre che i tempi di risposta e di latenza di ogni modello. Potrai quindi sfruttare questi dati per scegliere il miglior modello LLM da usare nel tuo ambiente di produzione.
Red Hat AI in contesti reali
Ortec Finance accelera la crescita e i tempi di rilascio
Ortec Finance, provider globale di soluzioni tecnologiche per la gestione di rischi e rendimenti, eroga modelli di machine learning su Microsoft Azure Red Hat OpenShift e ha deciso di adottare Red Hat AI.

DenizBank supporta i propri data scientist
DenizBank sta sviluppando modelli di IA per contribuire a individuare i prestiti per i clienti e le potenziali frodi. Con Red Hat AI, i data scientist hanno acquisito un nuovo livello di autonomia sui propri dati.

Realizza una base affidabile per le tue app
Le aziende di tutto il mondo si affidano al nostro vasto portafoglio di infrastrutture per il cloud ibrido, servizi applicativi, soluzioni per lo sviluppo di applicazioni cloud native e l'automazione per distribuire servizi IT su qualsiasi infrastruttura in modo rapido ed economico.
Red Hat Enterprise Linux
Supporta i deployment delle applicazioni on premise, nel cloud e all'edge in un ambiente operativo flessibile.
Red Hat OpenShift
Realizza nuove applicazioni sfruttando deployment scalabili e veloci e modernizza quelle esistenti.
Red Hat Ansible
Automation Platform
Automation Platform
Ottieni un'automazione scalabile e di facile gestione per l'intera azienda.
Red Hat AI
Ottimizza modelli di dimensioni ridotte con i dati che servono alla tua azienda. Sviluppa e distribuisci soluzioni di IA negli ambienti di cloud ibrido.



