LLM: cosa sono i modelli Granite?

Copia URL

Granite è una serie di modelli linguistici di grandi dimensioni (LLM) creata da IBM per le applicazioni aziendali. I modelli fondativi Granite supportano gli scenari di utilizzo dell'intelligenza artificiale generativa (IA gen) che coinvolgono linguaggio e codice.

I modelli della famiglia Granite sono open source garantiti dalla licenza Apache 2.0, il che significa che gli sviluppatori possono sperimentare, modificare e distribuire i modelli Granite gratuitamente. Ciò rende i modelli Granite una buona scelta per le organizzazioni che si occupano di dati sensibili e desiderano eseguire il proprio LLM anziché affidarsi a un servizio esterno.

Scopri la collaborazione tra Granite e Red Hat

I modelli fondativi sono addestrati per avere una comprensione generica di andamenti, strutture e rappresentazioni della lingua. Questo addestramento fondamentale insegna al modello a comunicare e a identificare gli schemi ricorrenti. Si chiama inferenza AI. L'inferenza IA è la fase operativa dell'intelligenza artificiale, ovvero il momento in cui il modello è in grado di applicare alle situazioni concrete ciò che ha appreso dall'addestramento.

I modelli di IA IBM Granite hanno questa conoscenza di base che si può poi ottimizzare per permettere al modello di svolgere compiti specifici in pressoché qualunque settore. Sono addestrati su dati curati e garantisco la trasparenza sui dati utilizzati per l'addestramento.

Gli LLM sfruttano l'IA gen per produrre contenuti nuovi a partire da un prompt dell'utente. Oggi l'IA gen viene utilizzata soprattutto per generare testi, immagini, video e codice. In ambito aziendale i modelli fondativi LLM possono aiutare le organizzazioni ad automatizzare diversi aspetti delle operazioni, come l'assistenza clienti o i test del codice software.

Altri modelli fondativi LLM basati su IA gen sono: LLaMa di Meta (compresi LLaMa 2 e LLaMa 3), Gemini di Google, Claude di Anthropic, GPT di OpenAI (noto per il suo bot ChatGPT) e Mistral. I modelli di IA Granite però si differenziano dalla concorrenza per la trasparenza sui dati per l'addestramento; un approccio che aumenta la fiducia degli utenti e rende questi modelli particolarmente adatti agli ambienti aziendali.

Risorse da Red Hat

Sì, alcuni dei modelli Granite AI sono disponibili con una licenza open source, il che significa che gli sviluppatori possono accedere facilmente al modello e utilizzarlo in locale. Quindi possono perfezionare il modello per i loro obiettivi specifici. Gli utenti hanno anche accesso alla maggior parte dei dati utilizzati per l'addestramento del modello (PDF). In questo modo possono sapere come è stato sviluppato e comprenderne meglio il funzionamento.

Nel caso dei modelli Granite, open source significa offrire agli sviluppatori uno spazio dove personalizzare i modelli con i dati aziendali perché generino risultati pertinenti per l'organizzazione. Ciò non significa che i dati privati di tutti siano disponibili per l'intera community open source. A differenza dell'IA dei servizi web pubblici, i modelli Granite non vengono addestrati continuamente. I dati inseriti nei modelli Granite non sono condivisi con Red Hat, IBM o con gli altri utenti Granite.

Le aziende di molti settori, dalla sanità all'edilizia, possono beneficiare dei modelli Granite, sfruttandoli per automatizzare le operazioni con scalabilità. Questo modelli si possono addestrare per svolgere attività specifiche, come riassumere contenuti, formulare risposte e classificare. Gli scenari di utilizzo sono svariati, di seguito alcuni esempi:

  • Generazione di codice: i modelli Granite per la generazione di codice sono in grado di ottimizzare i processi, rendendo più efficienti i cicli di sviluppo. Un esempio è la funzionalità di completamento automatico. Analogamente a quanto succede sugli smartphone, il modello è capace di completare automaticamente una stringa di codice senza che lo sviluppatore debba digitarla manualmente.
  • Estrazione di informazioni: Granite offre uno strumento di notevole efficacia agli utenti che devono semplificare, sintetizzare o analizzare set di dati di grandi dimensioni perché è in grado di identificare rapidamente informazioni e schemi accurati. In questo modo si evita di dover raccogliere molti dati. 
  • Architettura flessibile: Granite si integra ai sistemi in uso e si può distribuire sia on premise che nel cloud. Le sue interfacce sono progettate per semplificare il deployment. La famiglia Granite offre modelli di diverse dimensioni affinché le aziende possano scegliere il modello che meglio si adatta alle loro esigenze e al loro budget.
  • Soluzioni personalizzate: Granite è venduto come modello fondativo, ma è progettato per essere addestrato a svolgere compiti specifici per le singole aziende. Gli utenti possono estendere e ottimizzare il modello in base alle esigenze aziendali. Ad esempio, le organizzazioni che utilizzano dispositivi medici possono addestrare il modello sul linguaggio tecnico del settore sanitario.
  • Latenza ridotta: eseguire un modello Granite nella propria infrastruttura significa ottenere tempi di risposta più rapidi. Il modello fornisce dati in tempo reale, una capacità utile per le operazioni critiche. Ad esempio, rimanendo nel settore sanitario, l'accessibilità ai dati in tempo reale è un aspetto cruciale per la collaborazione remota tra dottore e paziente e per l'erogazione tempestiva di assistenza medica. 

    La compressione del modello Granite consente di ottenere prestazioni elevate con un numero ancora inferiore di risorse.

  • Precisione elevata: gli sviluppatori possono eseguire il fine tuning dei modelli Granite perché apprendano linguaggi settoriali ed eseguano attività specifiche. I modelli si possono anche addestrare su più lingue in modo da garantire precisione e accessibilità a livello globale.
  • Trasparenza: Granite è disponibile con licenza open source. Questo significa che gli sviluppatori possono verificare in che modo è stato sviluppato e addestrato il modello, oltre a collaborare con la community open source.

IBM ha rilasciato diverse serie di modelli Granite per soddisfare i bisogni delle applicazioni aziendali sempre più esigenti. Le serie di modelli che compongono la famiglia Granite sono convenzionalmente suddivise in categorie e hanno denominazioni particolari.

Ciascuna serie ha uno scopo preciso.

  • Granite for Language: questi modelli offrono elaborazione del linguaggio naturale (NLP) accurata in diverse lingue e assicurano ridotta latenza.

    Scopri gli scenari di utilizzo dell'IA generativa

  • Granite for Code: questi modelli sono addestrati su oltre 100 diversi linguaggi di programmazione per supportare attività di sviluppo di livello enterprise.
  • Granite for Time Series: questi modelli sono ottimizzati per la previsione delle serie temporali, un metodo per predire i dati futuri grazie ai dati storici disponibili.
  • Granite for GeoSpatial: IBM e la NASA hanno sviluppato un modello fondativo che, grazie ai dati su larga scala raccolti dai satelliti, aiuta a monitorare e affrontare i cambiamenti climatici attraverso l'osservazione della Terra.

    Scopri gli scenari di utilizzo dell'IA predittiva

Per ciascuna serie IBM offre modelli di diverse dimensioni e specializzati in attività differenti. Ad esempio, Granite for Language comprende:

  • Granite-7b-base, un modello per utilizzo generico adatto alla generazione di chat e conversazioni.
  • Granite-7b-instruct, un modello specializzato nell'esecuzione di istruzioni.

Scopri i modelli Granite su Hugging Face

Red Hat® AI offre un portafoglio di prodotti di IA sviluppati a partire dalle soluzioni che i nostri clienti già conoscono. Grazie a questa base i nostri prodotti sono affidabili, flessibili e scalabili.

La gamma di soluzioni di IA offerta da Red Hat aiuta le organizzazioni a:

  • Adottare l'IA rapidamente per promuovere l'innovazione.
  • Semplificare l'erogazione di soluzioni di intelligenza artificiale.
  • Eseguire il deployment in tutti gli ambienti.

Red Hat AI permette di accedere agli LLM della famiglia Granite e personalizzarli secondo le proprie esigenze. Inoltre, i nostri consulenti aiutano le aziende a identificare i loro scenari di utilizzo durante lo sviluppo e la distribuzione delle applicazioni di IA gen e i carichi di lavoro critici.

Scopri Red Hat AI

 

Red Hat Enterprise Linux® AI è una piattaforma che consente l'esecuzione di LLM in ambienti server singoli. La soluzione comprende Red Hat AI Inference Server, per offrire un'inferenza rapida e conveniente nel cloud ibrido, massimizzando la produttività e minimizzando la latenza. Il suo approccio open source permette di limitare i costi e allarga l'accesso ai modelli di IA anche a utenti non specializzati. Questa piattaforma ti consente di sperimentare con i tuoi dati e di apprendere mentre procedi. È un buon punto di partenza se non sei ancora sicuro di quali siano gli scenari di utilizzo aziendali. Red Hat® Enterprise Linux® AI è una piattaforma per modelli fondativi concepita per sviluppare, testare ed eseguire gli LLM della famiglia Granite. Il suo approccio open source permette di limitare i costi e allarga l'accesso ai modelli di IA anche a utenti non specializzati.

Scopri di più su Red Hat Enterprise Linux AI

Dal nostro blog: Benchmarking completo dei modelli Granite e InstructLab per la sicurezza informatica

Risorsa

Definizione della strategia aziendale per l'IA: una guida introduttiva

Leggi questa guida introduttiva per scoprire come Red Hat OpenShift AI e Red Hat Enterprise Linux AI possono accelerare il percorso di adozione dell'IA.

Tutte le versioni di prova dei prodotti Red Hat

Grazie alle versioni di prova gratuite dei prodotti Red Hat potrai acquisire esperienza pratica, prepararti per le certificazioni o capire se il prodotto che hai scelto è giusto per le esigenze della tua organizzazione.

Continua a leggere

Cos'è l'inferenza distribuita?

Con l'inferenza distribuita i modelli di IA elaborano i carichi di lavoro in modo più efficiente, suddividendo le attività di inferenza su un gruppo di dispositivi interconnessi.

Cos'è il Model Context Protocol (MCP)?

Scopri in che modo il Model Context Protocol (MCP) connette le applicazioni di IA a sorgenti di dati esterne, aiutandoti a creare flussi di lavoro più intelligenti.

Introduzione ad AIOps

AIOps è un'intelligenza artificiale per le operazioni IT con un approccio specifico all'automazione delle operazioni IT che si avvale del machine learning e di altre tecniche di IA avanzate.

AI/ML: risorse consigliate

Articoli correlati