Cosa sono i modelli Granite?

Copia URL

Granite è una serie di modelli linguistici di grandi dimensioni (LLM) creata da IBM per le applicazioni aziendali. I modelli fondativi Granite supportano gli scenari di utilizzo dell'intelligenza artificiale generativa (IA gen) che coinvolgono linguaggio e codice.

I modelli della famiglia Granite sono open source garantiti dalla licenza Apache 2.0, il che significa che gli sviluppatori possono sperimentare, modificare e distribuire i modelli Granite gratuitamente. Ciò rende i modelli Granite una buona scelta per le organizzazioni che si occupano di dati sensibili e desiderano eseguire il proprio LLM anziché affidarsi a un servizio esterno.

Scopri la collaborazione tra Granite e Red Hat

I

modelli fondativi sono addestrati per avere una comprensione generica di andamenti, strutture e rappresentazioni della lingua. Questo addestramento fondamentale insegna al modello a comunicare e a identificare gli schemi ricorrenti. Si chiama inferenza IA. L'inferenza IA è la fase operativa dell'intelligenza artificiale, ovvero il momento in cui il modello è in grado di applicare alle situazioni concrete ciò che ha appreso dall'addestramento.

I modelli di IA IBM Granite hanno questa conoscenza di base che si può poi ottimizzare per permettere al modello di svolgere compiti specifici in pressoché qualunque settore. Sono addestrati su dati curati e garantisco la trasparenza sui dati utilizzati per l'addestramento.

Gli LLM sfruttano l'IA gen per produrre contenuti nuovi a partire da un prompt dell'utente. Oggi l'IA gen viene utilizzata soprattutto per generare testi, immagini, video e codice. In ambito aziendale i modelli fondativi LLM possono aiutare le organizzazioni ad automatizzare diversi aspetti delle operazioni, come l'assistenza clienti o i test del codice software.

Altri modelli fondativi LLM basati su IA gen sono: LLaMa di Meta (compresi LLaMa 2 e LLaMa 3), Gemini di Google, Claude di Anthropic, GPT di OpenAI (noto per il suo bot ChatGPT) e Mistral. I modelli di IA Granite però si differenziano dalla concorrenza per la trasparenza sui dati per l'addestramento; un approccio che aumenta la fiducia degli utenti e rende questi modelli particolarmente adatti agli ambienti aziendali.

Risorse da Red Hat

Sì, alcuni dei modelli Granite AI sono disponibili con una licenza open source, il che significa che gli sviluppatori possono accedere facilmente al modello e utilizzarlo in locale. Quindi possono perfezionare il modello per i loro obiettivi specifici. Gli utenti hanno anche accesso alla maggior parte dei dati utilizzati per l'addestramento del modello (PDF). In questo modo possono sapere come è stato sviluppato e comprenderne meglio il funzionamento.

Nel caso dei modelli Granite, open source significa offrire agli sviluppatori uno spazio dove personalizzare i modelli con i dati aziendali perché generino risultati pertinenti per l'organizzazione. Ciò non significa che i dati privati di tutti siano disponibili per l'intera community open source. A differenza dell'IA dei servizi web pubblici, i modelli Granite non vengono addestrati continuamente. I dati inseriti nei modelli Granite non sono condivisi con Red Hat, IBM o con gli altri utenti Granite.

Le aziende di molti settori, dalla sanità all'edilizia, possono beneficiare dei modelli Granite, sfruttandoli per automatizzare le operazioni con scalabilità. Questo modelli si possono addestrare per svolgere attività specifiche, come riassumere contenuti, formulare risposte e classificare. Gli scenari di utilizzo sono svariati, di seguito alcuni esempi:

  • Generazione di codice: i modelli Granite per la generazione di codice sono in grado di ottimizzare i processi, rendendo più efficienti i cicli di sviluppo. Un esempio è la funzionalità di completamento automatico. Analogamente a quanto succede sugli smartphone, il modello è capace di completare automaticamente una stringa di codice senza che lo sviluppatore debba digitarla manualmente.
  • Estrazione di informazioni: Granite offre uno strumento di notevole efficacia agli utenti che devono semplificare, sintetizzare o analizzare set di dati di grandi dimensioni perché è in grado di identificare rapidamente informazioni e schemi accurati. In questo modo si evita di dover raccogliere molti dati. 
  • Architettura flessibile: Granite si integra ai sistemi in uso e si può distribuire sia on premise che nel cloud. Le sue interfacce sono progettate per semplificare il deployment. La famiglia Granite offre modelli di diverse dimensioni affinché le aziende possano scegliere il modello che meglio si adatta alle loro esigenze e al loro budget.
  • Soluzioni personalizzate: Granite è venduto come modello fondativo, ma è progettato per essere addestrato a svolgere compiti specifici per le singole aziende. Gli utenti possono estendere e ottimizzare il modello in base alle esigenze aziendali. Ad esempio, le organizzazioni che utilizzano dispositivi medici possono addestrare il modello sul linguaggio tecnico del settore sanitario.
  • Latenza ridotta: eseguire un modello Granite nella propria infrastruttura significa ottenere tempi di risposta più rapidi. Il modello fornisce dati in tempo reale, una capacità utile per le operazioni critiche. Ad esempio, rimanendo nel settore sanitario, l'accessibilità ai dati in tempo reale è un aspetto cruciale per la collaborazione remota tra dottore e paziente e per l'erogazione tempestiva di assistenza medica. 
  • Precisione: gli sviluppatori possono eseguire il fine tuning dei modelli Granite perché apprendano linguaggi settoriali ed eseguano attività specifiche. I modelli si possono anche addestrare su più lingue in modo da garantire precisione e accessibilità a livello globale.
  • Trasparenza: Granite è disponibile con licenza open source. Questo significa che gli sviluppatori possono verificare in che modo è stato sviluppato e addestrato il modello, oltre a collaborare con la community open source.

IBM ha rilasciato diverse serie di modelli Granite per soddisfare i bisogni delle applicazioni aziendali sempre più esigenti. Le serie di modelli che compongono la famiglia Granite sono convenzionalmente suddivise in categorie e hanno denominazioni particolari.

Ciascuna serie ha uno scopo preciso:

  • Granite for Language: questi modelli offrono elaborazione del linguaggio naturale (NLP) accurata in diverse lingue e assicurano ridotta latenza.

    Scopri gli scenari di utilizzo dell'IA generativa

  • Granite for Code: questi modelli sono addestrati su oltre 100 diversi linguaggi di programmazione per supportare attività di sviluppo di livello enterprise.
  • Granite for Time Series: questi modelli sono ottimizzati per la previsione delle serie temporali, un metodo per predire i dati futuri grazie ai dati storici disponibili.
  • Granite for GeoSpatial: IBM e la NASA hanno sviluppato un modello fondativo che, grazie ai dati su larga scala raccolti dai satelliti, aiuta a monitorare e affrontare i cambiamenti climatici attraverso l'osservazione della Terra.

    Scopri gli scenari di utilizzo dell'IA predittiva

Per ciascuna serie, Granite offre modelli di diverse dimensioni e specializzati in attività differenti. Ad esempio, Granite for Language comprende:

  • Granite-7b-base, un modello per utilizzo generico adatto alla generazione di chat e conversazioni.
  • Granite-7b-instruct, un modello specializzato nell'esecuzione di istruzioni.

Scopri i modelli Granite su Hugging Face

Red Hat® AI è il nostro portafoglio di prodotti di IA sviluppati a partire dalle soluzioni che i nostri clienti già conoscono. Grazie a questa base i nostri prodotti sono affidabili, flessibili e scalabili.

La gamma di soluzioni di IA offerta da Red Hat aiuta le organizzazioni a:

  • Adottare l'IA rapidamente per promuovere l'innovazione.
  • Semplificare l'erogazione di soluzioni di IA.
  • Eseguire il deployment ovunque.

Red Hat AI permette di accedere agli LLM della famiglia Granite e personalizzarli secondo le proprie esigenze. Inoltre, i nostri consulenti aiutano le aziende a identificare i loro scenari di utilizzo durante lo sviluppo e la distribuzione delle applicazioni di IA gen e i carichi di lavoro critici.

Scopri Red Hat AI

 

Accedi agli LLM della famiglia Granite

Red Hat® Enterprise Linux® AI è una piattaforma per modelli fondativi concepita per sviluppare, testare ed eseguire gli LLM della famiglia Granite. Il suo approccio open source permette di limitare i costi e allarga l'accesso ai modelli di IA anche a utenti non specializzati. Questa piattaforma ti consente di sperimentare con i tuoi dati e di apprendere mentre la utilizzi. È un buon punto di partenza se non sai ancora bene quali saranno gli scenari di utilizzo aziendali. Red Hat® Enterprise Linux® AI è una piattaforma per modelli fondativi concepita per sviluppare, testare ed eseguire gli LLM della famiglia Granite. Il suo approccio open source permette di limitare i costi e allarga l'accesso ai modelli di IA anche a utenti non specializzati.

Scopri di più su Red Hat Enterprise Linux AI

 

Prova InstructLab

Red Hat Enterprise Linux AI include InstructLab, un progetto sviluppato dalla community open source per il perfezionamento degli LLM. Le funzionalità di InstructLab lo rendono il punto di partenza ideale per le aziende che desiderano sperimentare con i modelli di IA anche se non dispongono di team specializzati in tale ambito. Ad esempio, l'addestramento richiede meno informazioni generate dagli utenti e risorse di elaborazione. Non basandosi su un modello specifico, InstructLab offre la possibilità di svolgere un fine tuning aggiuntivo su un LLM di propria scelta.

Guarda come addestrare un LLM su InstructLab

Hub

Il blog ufficiale di Red Hat

Leggi gli articoli del blog di Red Hat per scoprire novità e consigli utili sulle nostre tecnologie, e avere aggiornamenti sul nostro ecosistema di clienti, partner e community.

Tutte le versioni di prova dei prodotti Red Hat

Grazie alle versioni di prova gratuite dei prodotti Red Hat potrai acquisire esperienza pratica, prepararti per le certificazioni o capire se il prodotto che hai scelto è giusto per le esigenze della tua organizzazione.

Continua a leggere

Cos'è il fine tuning efficiente dal punto di vista dei parametri (PEFT)?

Il PEFT consiste in un insieme di tecniche grazie alle quali è possibile ottimizzare solo una parte dei parametri di un LLM e quindi risparmiare risorse.

LoRA e QLoRA a confronto

LoRA (Low-Rank Adaptation) e QLoRA (Quantized Low-Rank Adaptation) sono due tecniche di addestramento dei modelli di IA.

Che cos'è vLLM?

vLLM è una raccolta di codice open source che rende più efficienti i calcoli eseguiti dai modelli di linguaggio.

AI/ML: risorse consigliate

Articoli correlati