Les modèles Granite, qu'est-ce que c'est ?

Copier l'URL

La famille Granite regroupe de grands modèles de langage (LLM) qui ont été créés par IBM pour les applications d'entreprise. Les modèles de fondation Granite peuvent prendre en charge les cas d'utilisation de l'intelligence artificielle (IA) générative qui reposent sur un langage spécifique et du code.

La famille Granite se compose de modèles Open Source couverts par la licence Apache 2.0, ce qui permet de les tester, de les modifier et de les distribuer gratuitement. Ces modèles sont particulièrement avantageux pour les entreprises qui souhaitent gérer leurs données sensibles avec leur propre LLM, au lieu de s'appuyer sur un service externe.

En savoir plus sur le fonctionnement des modèles Granite avec Red Hat

Les modèles de fondation sont entraînés pour fonctionner grâce à la connaissance globale de schémas, de structures et de représentations du langage. Cet entraînement apprend au modèle à communiquer et à identifier ces schémas. Ce processus est appelé inférence d'IA. L'inférence d'IA est la phase d'exploitation durant laquelle le modèle est capable d'appliquer ce qu'il a appris au cours de son entraînement à des situations réelles.

Avec les modèles d'IA Granite d'IBM, il est possible d'ajouter un réglage fin à cette base de connaissances afin d'effectuer certaines tâches spécifiques de la plupart des secteurs d'activité. Les données sélectionnées pour entraîner ces modèles peuvent être facilement identifiées.

Lorsqu'un utilisateur leur fournit une instruction générative, les LLM utilisent l'IA générative pour produire de nouveaux contenus : textes, images, vidéos ou lignes de code. Les entreprises peuvent utiliser les modèles de fondation des LLM pour automatiser différents aspects de leurs activités, tels que l'assistance clientèle avec les dialogueurs ou les tests du code logiciel.

Il existe d'autres modèles de fondation de LLM qui utilisent l'IA générative : Llama de Meta (notamment Llama 2 et Llama 3), Gemini de Google, Claude d'Anthropic, GPT d'OpenAI (notamment ChatGPT) et Mistral. Les modèles d'IA Granite sont toutefois uniques en leur genre, puisque les données utilisées pour leur entraînement sont publiées. Cette approche favorise la confiance des utilisateurs et convient davantage aux environnements d'entreprise.

Ressources Red Hat

Certains modèles d'IA Granite sont disponibles sous une licence Open Source, ce qui permet d'y accéder facilement et de les développer en local. À l'aide d'un réglage fin, ils peuvent répondre à des objectifs précis. Les utilisateurs ont même accès à la majorité des données utilisées pour entraîner le modèle (PDF), ce qui leur permet de comprendre sa structure et son fonctionnement.

Les modèles Granite sont dits Open Source, car il est possible de les personnaliser avec ses propres données pour générer des résultats qui dépendent de chaque utilisateur. À aucun moment des données personnelles ne sont mises à la disposition de toute la communauté Open Source. Contrairement à l'IA des services web publics, les modèles Granite ne sont pas entraînés en continu. Cette famille de modèles ne partage aucune donnée avec Red Hat, IBM ou d'autres utilisateurs des modèles Granite.

Dans de nombreux secteurs, de la santé à la construction, les entreprises ont plusieurs options pour utiliser les modèles Granite de manière à automatiser leurs activités à grande échelle. Il est possible d'entraîner ces modèles à effectuer des tâches d'un domaine métier, comme la génération de résumés, la réponse aux questions et la classification. En voici quelques exemples.

  • Génération de code : les modèles de code Granite peuvent contribuer au travail des équipes de développement, voire l'améliorer, afin de renforcer l'efficacité des processus. Par exemple, la saisie semi-automatique permet à un développeur de finir une ligne de code avant de l'écrire en entier, à la manière des suggestions de mots que proposent les smartphones.
  • Extraction d'informations : les modèles Granite peuvent identifier rapidement des schémas et des renseignements précis, ce qui permet de simplifier de grands ensembles de données, de les résumer ou de les expliquer. Il n'est donc plus nécessaire de parcourir manuellement de grandes quantités de données. 
  • Architecture flexible : les modèles Granite s'intègrent aux systèmes existants et se déploient aussi bien sur site que dans le cloud. Leurs interfaces sont conçues pour simplifier le déploiement. La famille Granite comprend des modèles de différentes tailles adaptés à divers besoins et budgets informatiques.
  • Solutions personnalisées : qualifiés de modèles de fondation, les modèles Granite sont capables d'acquérir des connaissances propres à une entreprise. Les utilisateurs peuvent les mettre à l'échelle et procéder à un réglage fin pour les adapter à leurs besoins métier. Par exemple, un fabricant d'appareils médicaux peut entraîner son modèle afin qu'il maîtrise le vocabulaire du secteur de la santé.
  • Latence faible : en exécutant un modèle Granite sur leur propre infrastructure, les entreprises peuvent optimiser les délais de réponse. Le modèle peut fournir des données en temps réel et ainsi faciliter certaines activités essentielles. Toujours dans le secteur de la santé, l'accès aux données en temps réel améliore la communication à distance entre le médecin et son patient et aide à apporter les soins appropriés en temps voulu. 

    La compression du modèle Granite peut offrir de puissantes performances avec encore moins de ressources.

  • Précision extrême : grâce au réglage fin, les modèles Granite peuvent être spécialisés dans un domaine et accomplir les tâches spécifiques d'un secteur. Il est également possible de les entraîner dans plusieurs langues afin d'assurer la précision et l'accessibilité à l'échelle mondiale.
  • Transparence : la licence Open Source qui couvre les modèles Granite offre aux équipes de développement une visibilité sur la méthode de création et d'entraînement du modèle d'IA et leur permet de collaborer avec une communauté Open Source.

IBM a lancé plusieurs séries de modèles Granite pour répondre aux besoins de plus en plus complexes des applications d'entreprise. Les catégories et les conventions de dénomination des séries varient au sein de la famille Granite.

Chaque série a un objectif distinct.

  • Granite pour les langues : ces modèles offrent un traitement du langage naturel précis dans plusieurs langues, et ce, avec une faible latence.

    Découvrir des cas d'utilisation de l'IA générative

  • Granite pour le code : entraînés avec plus de 100 langages de programmation différents, ces modèles prennent en charge les tâches logicielles d'entreprise.
  • Granite pour les séries chronologiques : le réglage fin de ces modèles est axé sur la prévision des séries chronologiques, qui consiste à prévoir les futures données sur la base des anciennes.
  • Granite pour la recherche géospatiale : IBM et la NASA ont créé ce modèle de fondation pour observer la Terre en recueillant des données satellites à grande échelle, qui permettent de suivre les changements environnementaux et d'y faire face.

    En savoir plus sur les cas d'utilisation de l'IA prédictive

Chacune de ces séries se compose de modèles de différentes tailles aux spécialités variées. Par exemple, les modèles Granite pour les langues incluent :

  • Granite-7b-base, un modèle de langage général destiné à la conversation et à la messagerie instantanée ;
  • Granite-7b-instruct, un modèle spécialisé dans l'application des instructions de tâche.

Lire la page Hugging Face sur les modèles Granite

Notre gamme de produits Red Hat® AI repose sur des solutions que nos clients utilisent déjà en toute confiance. C'est ce qui permet à nos produits de rester fiables, flexibles et évolutifs.

La gamme Red Hat AI offre les avantages suivants :

  • Rapidité d'adoption de l'IA et d'innovation
  • Simplification de la distribution des solutions d'IA
  • Possibilité de déploiement dans tous les environnements

La gamme Red Hat AI donne accès aux LLM de la famille Granite et permet aussi aux entreprises d'utiliser leur propre modèle. Nos consultants peuvent également accompagner les entreprises qui créent et déploient des applications d'IA générative en parallèle des charges de travail essentielles pour leurs cas d'utilisation uniques.

Découvrir Red Hat AI

La plateforme Red Hat Enterprise Linux® AI  permet d'exécuter des LLM dans des environnements de serveurs individuels. Elle inclut également  Red Hat AI Inference Server, qui maximise le débit et réduit la latence pour garantir des opérations d'inférence rapides et rentables dans le cloud hybride.

La plateforme de modèles de fondation Red Hat Enterprise Linux® AI est conçue pour le développement, les tests et l'exécution des LLM de la famille Granite. Parce qu'elle est Open Source, elle est économique et offre une prise en main plus facile pour un grand nombre d'utilisateurs. Cette plateforme permet aux utilisateurs de tester leurs propres données et de développer leurs compétences progressivement. Il s'agit d'un bon point de départ pour les entreprises qui cherchent encore à déterminer leurs cas d'utilisation. La plateforme de modèles de fondation Red Hat Enterprise Linux® AI est conçue pour le développement, les tests et l'exécution des LLM de la famille Granite. Parce qu'elle est Open Source, elle est économique et offre une prise en main plus facile pour un grand nombre d'utilisateurs.

En savoir plus sur Red Hat Enterprise Linux AI

Ressource

Se lancer avec l'IA en entreprise : guide pour les débutants

Consultez ce guide pour les débutants afin de savoir comment les solutions Red Hat OpenShift AI et Red Hat Enterprise Linux AI peuvent accélérer votre parcours d'adoption de l'IA.

Tous les essais de produits Red Hat

Profitez de nos essais gratuits de produits pour renforcer votre expérience pratique, préparer une certification ou évaluer l'adéquation d'un produit avec les besoins de votre entreprise.

En savoir plus

RAG et réglage fin

La génération augmentée de récupération (RAG) et le réglage fin permettent d'améliorer les grands modèles de langage (LLM). Avec la RAG, le modèle n'est pas altéré, tandis que le réglage fin nécessite d'en ajuster les paramètres.

Les petits modèles de langage, qu'est-ce que c'est ?

Version réduite d'un grand modèle de langage (LLM), le petit modèle de langage (SLM) repose sur des connaissances plus spécialisées et offre aux équipes une personnalisation plus rapide ainsi qu'une efficacité d'exécution accrue.

L'inférence distribuée, qu'est-ce que c'est ?

L'inférence distribuée est une approche qui permet aux modèles d'IA de traiter les charges de travail plus efficacement en répartissant les tâches liées à l'inférence entre plusieurs équipements interconnectés.

IA/ML : ressources recommandées

Articles associés