Présentation
Pour fonctionner, les grands modèles de langage (LLM) nécessitent des ressources financières et de calcul. Le réglage fin efficace des paramètres (PEFT ou Parameter-Efficient Fine-Tuning) est un ensemble de techniques qui servent à régler une partie seulement des paramètres d'un LLM afin d'économiser ces ressources.
Avec le PEFT, la personnalisation des LLM devient plus accessible et les résultats sont comparables à ceux d'un modèle à réglage fin traditionnel.
Réglage fin traditionnel et PEFT
Le réglage fin et le PEFT sont deux techniques d'alignement des LLM. Elles permettent d'adapter le réglage et les données utilisées au résultat souhaité. Le PEFT est une évolution du réglage fin traditionnel.
Le réglage fin traditionnel consiste à entraîner le modèle dans son ensemble, ce qui requiert du temps ainsi qu'un volume important de données et de ressources de calcul.
Parce que le PEFT ne modifie qu'une petite partie des paramètres d'un modèle, il s'agit d'une méthode plus accessible pour les entreprises qui disposent de ressources limitées.
Red Hat AI
Avantages du PEFT
Le PEFT permet d'entraîner de grands modèles plus rapidement et sur du matériel moins volumineux.
Voici les principaux avantages de cette méthode :
- Rapidité de l'entraînement : en mettant à jour un plus petit nombre de paramètres, le PEFT accélère les tests et les itérations.
- Optimisation des ressources : le PEFT utilise beaucoup moins la mémoire du processeur graphique (GPU) que le réglage fin traditionnel et fonctionne sur du matériel grand public. Il est ainsi possible d'entraîner un LLM sur un ordinateur portable plutôt que sur un serveur dédié.
- Immunité aux oublis catastrophiques : on parle d'oubli catastrophique quand le modèle oublie les connaissances déjà acquises au moment où il reçoit de nouvelles données d'entraînement. Le PEFT permet d'éviter ce phénomène, car il ne met à jour que quelques paramètres, et non le modèle entier.
- Portabilité : les modèles réglés par PEFT sont plus petits et plus faciles à gérer et déployer entre les plateformes. Il est ainsi plus simple de les mettre à jour et de les améliorer dans un environnement d'exploitation.
- Durabilité : le PEFT favorise une exploitation écoresponsable, car il utilise moins de ressources de calcul.
- Accessibilité : même avec des ressources de calcul limitées, les équipes et les entreprises peuvent effectuer le réglage fin de modèles et obtenir de bons résultats.
Fonctionnement
Les LLM sont composés de plusieurs couches de réseaux neuronaux. Celles-ci sont une sorte d'organigramme qui commence par une couche d'entrée et se termine par une couche de sortie. Entre les deux, plusieurs autres couches jouent chacune un rôle dans le traitement des données au sein du réseau neuronal.
Pour modifier la manière dont un modèle de langage traite les informations, il faut modifier ses paramètres.
Paramètres d'un LLM
Les paramètres (ou pondérations) déterminent la compréhension du langage par le LLM.
On pourrait les comparer à un engrenage dans une machine : chaque paramètre dispose d'une valeur numérique spécifique dont la modification affecte la capacité du modèle à interpréter et générer un langage.
Un LLM peut contenir des milliards, voire des centaines de milliards de paramètres. Plus ce nombre est élevé, plus le modèle est capable de réaliser des tâches complexes.
Néanmoins, les modèles qui contiennent le plus de paramètres sont aussi ceux qui nécessitent le plus de ressources matérielles. Un tel investissement n'est pas possible pour toutes les entreprises, ce qui souligne l'importance des techniques de réglage telles que le PEFT.
Pour augmenter l'efficacité d'un modèle, il existe des solutions qui éliminent les paramètres non nécessaires sans perdre en précision.
Réglage fin des paramètres en toute efficacité
La stratégie du PEFT est de ne modifier qu'un petit nombre de paramètres tout en préservant la majeure partie de la structure du modèle préentraîné, notamment grâce aux techniques suivantes :
Gel de certaines couches du modèle : lors de l'inférence, les calculs passent par toutes les couches d'un réseau neuronal. En gelant certaines de ces couches, il est possible de réduire la puissance de traitement nécessaire pour effectuer les calculs.
Ajout d'adaptateurs : les adaptateurs sont comme l'extension d'un jeu de société. Ils viennent s'ajouter aux couches du modèle préentraîné et sont entraînés pour intégrer des informations propres à un domaine ou à une application. Ainsi, le modèle d'origine ne change pas, mais acquiert de nouvelles capacités.
Voici les principales méthodes utilisées pour le PEFT :
- LoRA (Low-Rank Adaptation)
- QLoRA (Quantized Low-Rank Adaptation)
- Réglage des préfixes
- Réglage des instructions génératives
- P-tuning
Réglage fin
Le réglage fin est une manière de communiquer une intention au LLM pour que celui-ci adapte ses résultats en fonction des objectifs.
Par exemple, un LLM sera capable de rédiger un e-mail dans le style de Shakespeare, sans pour autant connaître les produits vendus par l'entreprise.
Le réglage fin permet d'entraîner ce modèle avec les informations spécifiques de l'entreprise.
Ce processus consiste à entraîner davantage un modèle préentraîné à l'aide d'un ensemble de données plus adapté, afin qu'il réalise efficacement des tâches précises. Ces données d'entraînement complémentaires modifient les paramètres du modèle et créent une nouvelle version qui remplace le modèle d'origine.
Le réglage fin est essentiel pour personnaliser les LLM destinés à un cas d'utilisation propre à un domaine. Cependant, la technique traditionnelle se révèle coûteuse.
Coût élevé du réglage fin
Voici les principaux facteurs qui font augmenter le coût du réglage fin d'un LLM :
- Exigences liées au GPU : le réglage fin nécessite une puissance de traitement importante. Il est onéreux d'acheter et d'exploiter des GPU, qui sont longuement sollicités lors du réglage fin. La consommation énergétique et le refroidissement peuvent également entraîner des frais élevés.
- Exigences liées aux données : le réglage fin d'un LLM à l'aide de nouvelles informations requiert des ensembles de données de qualité, accompagnés de métadonnées pertinentes. L'acquisition, la compilation et le prétraitement de ces données sont souvent coûteux et chronophages.
Choix de la technique d'alignement de LLM adaptée
L'alignement d'un LLM consiste à entraîner et personnaliser un modèle de langage pour qu'il produise les résultats souhaités.
Plusieurs facteurs sont à prendre en compte pour choisir la technique d'alignement idéale :
- Dépendance aux données : quel est le volume de données nécessaire ? L'accès aux données requises est-il garanti ?
- Précision : dans quelle mesure cette technique améliore-t-elle la précision du modèle après le réglage ?
- Complexité : cette technique est-elle simple ?
Par rapport au réglage fin traditionnel, le PEFT nécessite moins de données. Il est intuitif et offre un niveau de précision très élevé.
Il existe une autre option pour l'alignement des LLM : la génération augmentée de récupération (RAG). Cette technique permet de compléter les données que contient un LLM avec une sélection de sources de connaissances externes, comme des référentiels de données, des corpus et de la documentation. Malgré une forte dépendance aux données, la RAG est plus facile à utiliser que le réglage fin et présente des taux de précision élevés.
Nos solutions
Le PEFT fait partie des techniques d'alignement possibles avec Red Hat® OpenShift® AI.
Plateforme MLOps flexible et évolutive, la solution OpenShift AI inclut des outils de développement, de déploiement et de gestion d'applications basées sur l'IA. Ces outils prennent en charge l'intégralité du cycle de vie des essais et des modèles d'IA/AA, sur site et dans le cloud public.
En savoir plus sur Red Hat OpenShift AI
Red Hat® AI est une gamme de produits et de services qui permettent aux entreprises d'avancer dans le déploiement de l'IA, qu'elles soient au tout début du processus ou déjà prêtes à évoluer dans le cloud hybride. Cette offre répond aux besoins en matière d'IA prédictive et générative et convient aux cas d'utilisation propres à chaque entreprise.
Red Hat AI s'appuie sur des technologies Open Source et un écosystème de partenaires axé sur les performances, la stabilité et la prise en charge des GPU au sein d'infrastructures diverses. Cette solution permet de régler efficacement les petits modèles spécifiques et de les déployer avec flexibilité, quel que soit l'emplacement des données.
Se lancer avec l'IA en entreprise : guide pour les débutants
Consultez ce guide pour les débutants afin de savoir comment les solutions Red Hat OpenShift AI et Red Hat Enterprise Linux AI peuvent accélérer votre parcours d'adoption de l'IA.