-
Prodotti e documentazione Red Hat AI
Una piattaforma di prodotti e servizi per lo sviluppo e la distribuzione dell'IA nel cloud ibrido.
Red Hat AI Inference Server
Ottimizza le prestazioni dei modelli con vLLM per un'inferenza rapida, conveniente e scalabile.
Red Hat Enterprise Linux AI
Sviluppa, testa ed esegui modelli di IA generativa per le applicazioni aziendali.
Red Hat OpenShift AI
Sviluppa ed esegui il deployment di applicazioni e modelli basati sull'IA in modo scalabile negli ambienti ibridi.
-
Formazione Nozioni di base
-
Partner IA

Red Hat AI
Adotta l'IA alle tue condizioni
Adotta soluzioni di IA in grado di sfruttare le tue risorse e di lavorare con i tuoi dati per ottenere più valore, garantendoti il massimo della flessibilità.
Red Hat® AI è progettato per aiutarti a creare ed eseguire soluzioni di IA perfettamente in linea con i tuoi processi e flussi di lavoro aziendali, dai primi test alla produzione.



IA adatta a tutti i tuoi ambienti
Per mantenere coerenza nel cloud ibrido è necessaria una piattaforma che consenta di eseguire il deployment nello stesso ambiente in cui si trovano i dati.
Red Hat AI ti permette di gestire le funzionalità dell'IA generativa e predittiva in qualsiasi tuo ambiente: cloud, on premise o all'edge.
Mantieni la flessibilità erogando inferenza rapida e scalabile con Red Hat AI e il modello e l'acceleratore che preferisci.
Red Hat AI include:
Red Hat® AI Inference Server ottimizza l'inferenza dei modelli nel cloud ibrido affinché siano distribuiti più velocemente e a un costo più vantaggioso.
Ottimizzato da vLLM, permette l'accesso ai modelli perfezionati e convalidati di terze parti disponibili su Hugging Face, e include anche strumenti di compressione per LLM.
Red Hat Enterprise Linux® AI è una piattaforma per l'inferenza e l'addestramento di modelli linguistici di grandi dimensioni per supportare le applicazioni di livello enterprise.
Oltre agli acceleratori hardware, include anche gli strumenti di InstructLab per personalizzare i modelli.
+ Include Red Hat AI Inference Server
Basato su Red Hat OpenShift, Red Hat OpenShift® AI è una piattaforma per la gestione del ciclo di vita dei modelli di IA generativa e predittiva.
L'integrazione di funzionalità MLOps e LLMOps permette di gestire l'intero ciclo di vita con addestramento, ottimizzazione, inferenza e monitoraggio delle applicazioni di IA negli ambienti di cloud ibrido.
+ Include Red Hat AI Inference Server
+ Include Red Hat Enterprise Linux AI



Prestazioni convalidate che hanno un impatto concreto
Red Hat AI mette a disposizione un set di modelli di terze parti pronti all'uso, convalidati e interamente compatibili con i vLLM della piattaforma,
che possono essere utilizzati per testare le prestazioni dei modelli, ottimizzare l'inferenza e ottenere indicazioni per superare le complessità e promuovere l'adozione dell'IA.
Personalizza gli LLM a livello locale con InstructLab
InstructLab di Red Hat è un progetto promosso dalla community che consente agli sviluppatori (a prescindere dal livello di esperienza con il machine learning) di testare più agevolmente i modelli Granite di IBM.
È un valido punto di partenza per provare il modello di IA che preferisci o eseguire il fine tuning dei modelli fondativi presenti nel tuo hardware locale.
In questo modo puoi contenere le risorse e i costi necessari per sperimentare i modelli di IA prima di adottare questa tecnologia a livello aziendale.
Più partner IA. Più opportunità.
Con le giuste tecnologie e il supporto degli esperti del settore, i nostri clienti potranno sfruttare al massimo il potenziale dell'IA. Molti partner tecnologici collaborano con Red Hat per certificare la compatibilità dei propri prodotti con le nostre soluzioni.
Analisi della soluzione
Applicazioni IA con Red Hat e NVIDIA AI Enterprise
Crea un'applicazione RAG
Red Hat OpenShift AI è una piattaforma per creare progetti di data science e distribuire applicazioni abilitate all'IA. Puoi integrare tutti gli strumenti che ti servono per supportare la tecnologia retrieval augmented generation (RAG), un metodo per ottenere le risposte dell'IA dai tuoi documenti di riferimento. Quando connetti OpenShift AI con NVIDIA AI Enterprise, puoi fare alcune prove con gli LLM (Large Language Model) per trovare il modello ideale per la tua applicazione.
Sviluppa una pipeline per i documenti
Se vuoi usare la tecnologia RAG, per prima cosa devi inserire i tuoi documenti in un database vettore. Nella nostra app di esempio, integriamo una serie di documenti di prodotto in un database Redis. Visto che questi documenti vengono modificati spesso, possiamo creare una pipeline da eseguire periodicamente per tale processo in modo da disporre sempre della versione più recente.
Sfoglia il catalogo degli LLM
NVIDIA AI Enterprise ti offre l'accesso a un catalogo di diversi modelli LLM, così potrai fare diverse prove e scegliere quello che offre risultati migliori. I modelli sono ospitati nel catalogo delle API di NVIDIA. Una volta che hai impostato un token API, puoi eseguire il deployment di un modello utilizzando la piattaforma di distribuzione dei modelli NVIDIA NIM direttamente da OpenShift AI.
Scegli il modello giusto
Mentre fai alcune prove con i diversi modelli LLM, i tuoi utenti possono valutare ogni risposta generata. Puoi configurare una dashboard di monitoraggio Grafana per confrontare le valutazioni, oltre che i tempi di risposta e di latenza di ogni modello. Potrai quindi sfruttare questi dati per scegliere il miglior modello LLM da usare nel tuo ambiente di produzione.
Scopri le esperienze di successo con Red Hat AI
Logo Ortec FinanceOrtec Finance accelera la crescita e i tempi di rilascio
Ortec Finance, provider globale di soluzioni tecnologiche per la gestione di rischi e rendimenti, eroga modelli di ML su Microsoft Azure Red Hat OpenShift e ha deciso di adottare Red Hat AI.
DenizBank offre ai suoi data scientist più strumenti per l'IA
DenizBank sta sviluppando dei modelli di IA con l'obiettivo di identificare i tipi di prestiti per i clienti e prevenire potenziali frodi. Con Red Hat AI, i data scientist della banca possono gestire i dati con più autonomia.
Realizza una base affidabile per le tue app
Le aziende di tutto il mondo si affidano al nostro vasto portafoglio di infrastrutture per il cloud ibrido, servizi applicativi, soluzioni per lo sviluppo di applicazioni cloud native e l'automazione per distribuire servizi IT su qualsiasi infrastruttura in modo rapido ed economico.
Red Hat Enterprise Linux
Supporta i deployment delle applicazioni on premise, nel cloud e all'edge in un ambiente operativo flessibile.
Red Hat OpenShift
Realizza nuove applicazioni sfruttando deployment scalabili e veloci e modernizza quelle esistenti.
Red Hat Ansible
Automation Platform
Automation Platform
Ottieni un'automazione scalabile e di facile gestione per l'intera azienda.
Red Hat AI
Ottimizza modelli di dimensioni ridotte con i dati che servono alla tua azienda. Sviluppa e distribuisci soluzioni di IA negli ambienti di cloud ibrido.

