Jump to section

I modelli convalidati da Red Hat AI

Grazie ai modelli convalidati da Red Hat® AI gli utenti possono distribuire i modelli di IA gen sviluppati da terze parti su Red Hat AI in maniera sicura, prevedibile e flessibile.

Immagine di una pila di cubi circondata da un ellisse e una nuvola con scintille in primo piano

Cosa rende così speciali questi modelli convalidati?

Con così tanti modelli linguistici di grandi dimensioni (LLM), impostazioni per i server di inferenza e opzioni di accelerazione hardware, è difficile trovare l'equilibrio giusto tra prestazioni, accuratezza e costi per il tuo scenario di utilizzo. 

Grazie agli ultimi aggiornamenti di Red Hat AI 3.3, la nostra raccolta di modelli convalidati semplifica la scelta. Il nostro repository di modelli di terze parti è stato convalidato per funzionare in modo efficiente sulla piattaforma Red Hat AI e ora include un nuovo batch di modelli ad alte prestazioni. 

I nuovi modelli, come IBM Granite 4 e Apertus 8B, danno priorità a trasparenza e verificabilità. Mistral Large 3 supporta chi ha bisogno di sovranità dei dati in Europa. Inoltre, la famiglia di modelli Nemotron di NVIDIA garantisce le massime prestazioni ai clienti che preferiscono l'infrastruttura NVIDIA. 

Modelli di IA convalidati con Red Hat AI. Durata del video: 2:19

Caratteristiche e vantaggi

Flessibilità aumentata

Accedi alla raccolta di modelli convalidati e ottimizzati per l'inferenza in hosting su Hugging Face. I modelli convalidati aiutano ad aumentare la coerenza e l'affidabilità delle app di IA, accorciando il time to value.

Inferenza ottimizzata

Razionalizza l'infrastruttura di IA e riduci i costi e i tempi di deployment scegliendo il modello, le impostazioni di deployment e gli acceleratori hardware più adatti agli scenari di utilizzo aziendali.

Maggiore sicurezza

Accedi a benchmark di settore, valutazioni dell'accuratezza e strumenti di ottimizzazione dei modelli per analizzare, comprimere e convalidare i modelli di terze parti per il deployment in diversi scenari.

Massimizza i vantaggi dei tuoi modelli

La convalida del modello di Red Hat AI si esegue tramite strumenti open source, quali GuideLLM, Language Model Evaluation Harness e vLLM , per assicurare la riproducibilità.

Modelli convalidati

Questi non sono LLM qualunque. Testiamo i modelli di terze parti in scenari realistici per esaminare come si comporteranno in contesti reali. Utilizziamo strumenti specifici per valutare le prestazioni degli LLM su diversi hardware.

  • GuideLLM valuta le prestazioni e i costi dell'esecuzione su diverse configurazioni hardware.
  • LM Evaluation Harness testa la capacità di generalizzazione dei modelli in diversi contesti.

Modelli ottimizzati

Sottoposti a compressione per aumentare velocità ed efficienza. Questi LLM sono progettati per il deployment su vLLM dove garantiscono prestazioni e accuratezza elevate e una significativa riduzione nell'utilizzo di risorse. 

  • LLM Compressor è una libreria open source che accorpa in un unico strumento le ultime tecnologie per la compressione dei modelli in maniera più efficiente e rapida.
  • vLLM è il principale motore inferenziale e di model serving open source che assicura elevata produttività e basso consumo di memoria per LLM ottimizzati.

Sviluppa le soluzioni di cui hai bisogno con Red Hat AI

Red Hat AI è la piattaforma IA open source che funziona come vuoi tu. Riduci i costi con modelli efficienti, personalizzali con i tuoi dati e con la tua esperienza del settore e distribuisci e gestisci i carichi di lavoro in modo coerente su qualsiasi infrastruttura. Il tutto con strumenti ideati per aiutare i tuoi team a collaborare e a essere scalabili.

Immagine dell'interfaccia della console

Domande frequenti

Dove posso trovare i modelli convalidati?

I modelli convalidati sono disponibili nel Red Hat AI Ecosystem Catalog e nel repository di Red Hat AI su Hugging Face. Su Hugging Face sono presenti anche informazioni complete sui modelli, pesi SafeTensor e comandi per snellire il deployment su Red Hat AI Inference Server, RHEL AI e Red Hat OpenShift AI.

Con che frequenza vengono aggiunti nuovi modelli convalidati?

Red Hat punta a rilasciare un nuovo set di modelli convalidati al mese in base all'uscita delle nuove versioni di vLLM upstream. Red Hat si riserva il diritto di sospendere la convalida dei modelli per qualsivoglia motivo.

Qual è il ciclo di vita dei modelli convalidati?

I modelli selezionati vengono convalidati per un minimo di n+2 versioni secondarie di vLLM. Questo significa che ciascun modello viene convalidato su una determinata versione di vLLM e Red Hat si impegna a garantire la compatibilità del modello per almeno due versioni successive di vLLM.

I modelli ottimizzati e convalidati godono del supporto completo di Red Hat Support?

No, Red Hat non si occupa di supportare, tutelare, certificare o garantire in alcun modo i modelli di terze parti. Inoltre, le valutazioni sulla capacità sono semplici indicazioni e non una garanzia di prestazioni o accuratezza. Per maggiori dettagli sulla licenza di un modello specifico, contatta il provider del modello.

È possibile ricevere assistenza personalizzata per quanto riguarda configurazione, deployment del modello LLM e uso di acceleratori hardware per il proprio scenario di utilizzo?

Per maggiori informazioni, invia una richiesta a validated-models@redhat.com.

Approfondimenti

Come implementare l'IA a livello aziendale

I nuovi modelli convalidati supportano l'IA prevedibile su larga scala

Quattro fattori da considerare per scegliere il giusto modello di IA