La sécurité de l'IA, qu'est-ce que c'est ?

Copier l'URL

Le terme « sécurité de l'IA » désigne toutes les mesures qui protègent les applications d'IA contre les attaques visant à affaiblir les charges de travail, à manipuler des données ou à dérober des informations sensibles. Cette pratique repose sur l'adaptation des principes de confidentialité, d'intégrité et de disponibilité au cycle de vie de l'IA et aux écosystèmes techniques. 

Découvrir Red Hat AI

Les charges de travail d'IA font émerger de nouveaux domaines que la sécurité informatique traditionnelle ne couvre pas. C'est pourquoi la sécurité de l'IA est axée sur la protection de ces charges de travail contre les utilisations abusives et les altérations. Cette pratique se distingue de l'utilisation de l'IA pour la cybersécurité, qui correspond à la protection contre l'utilisation non autorisée ou criminelle de données électroniques, et de la sûreté de l'IA qui vise à prévenir les dangers liés à l'utilisation de l'IA. 

La sécurité de l'IA implique l'identification des vulnérabilités et la préservation de l'intégrité des systèmes d'IA, dans le but de garantir leur bon fonctionnement sans perturbations. Il s'agit notamment de protéger les données d'entraînement contre toute altération, d'assurer la traçabilité des modèles et d'isoler les processeurs graphiques (GPU) au sein de la plateforme. (La plupart des GPU ne sont ni sécurisés ni isolés par défaut, et peuvent devenir des cibles faciles pour les pirates informatiques.)

La majorité des stratégies de sécurité doivent être mises à niveau pour tenir compte des nouvelles surfaces d'attaque associées aux charges de travail d'IA. Dans ce contexte en rapide évolution, l'adoption d'une approche flexible permettra de sécuriser les charges de travail d'IA et les systèmes sur lesquels elles s'exécutent à mesure que de nouvelles recommandations sont émises.

Pour protéger les systèmes d'IA, il est important de les comprendre parfaitement. En d'autres termes, plus une technologie d'IA est maîtrisée, plus il est facile de la sécuriser. 
 

Tout ce qu'il faut savoir sur les infrastructures d'IA 
 

Pour mieux comprendre ce concept, prenons un exemple : une configuration informatique type ressemble à une maison. Elle présente quelques vulnérabilités, comme des portes et des fenêtres, mais elles peuvent toutes être verrouillées et scellées. Une solution d'IA s'apparente plutôt à un immeuble sur une autre planète, avec des points d'entrée qui s'étendent sur des dizaines d'étages et de galaxies. Elle présente de nombreux points d'attaque dont on n'a pas toujours conscience.

Les solutions d'IA offrent de nombreuses opportunités aux utilisateurs et aux pirates informatiques, ce qui en fait des outils à la fois utiles et très difficiles à gérer sur le plan de la sécurité. Étant donné les défis de sécurité que présentent déjà les logiciels traditionnels, la complexité de l'IA exige des stratégies de sécurité spécialisées, capables de s'intégrer aux processus actuels des entreprises.

Une stratégie de sécurité d'IA efficace tient compte de l'ensemble des ouvertures (portes et fenêtres), et comble les failles en évitant toute infiltration grâce à une prévention active. Elle protège les données sensibles contre l'exposition et l'exfiltration, bloque les attaques, garantit la conformité avec des politiques de sécurité et des cadres réglementaires explicites (tels que la loi européenne sur l'intelligence artificielle) et offre de la visibilité sur la posture de sécurité des systèmes d'IA.

4 principes clés à prendre en compte pour mettre en œuvre des technologies d'IA

La manipulation de l'IA devient de plus en plus fine et subtile. Si les attaques visant les systèmes d'IA sont variées, certaines sont plus fréquentes que d'autres. Voici les types d'attaques les plus courants :  

  • Attaque par injection d'instructions génératives : les pirates informatiques utilisent des instructions malveillantes pour manipuler les résultats de l'IA afin de révéler des données sensibles, d'exécuter des actions involontaires ou de contourner les politiques et les contrôles de sécurité implicites et explicites.
  • Empoisonnement de données : cette méthode consiste à manipuler les modèles d'IA en injectant des données ou des logiciels malveillants, ce qui produit des résultats imprécis, biaisés, voire dangereux. Elle peut générer des perturbations et des résultats inadaptés.

Les systèmes d'IA sont sensibles à la fois aux attaques et aux défaillances. Comme tout autre système, les modèles peuvent subir des dérives et se dégrader s'ils ne sont pas gérés correctement. Lorsque les modèles sont entraînés avec des données de mauvaise qualité ou qu'ils ne sont pas mis à jour au fil du temps, leurs données peuvent devenir incorrectes, obsolètes, voire dangereuses, avec des effets négatifs sur les performances et la précision. 

Pour protéger leurs équipes et leurs technologies, les entreprises doivent appliquer des stratégies à plusieurs niveaux, car une seule ligne de défense ne suffit généralement pas. Voici quelques méthodes courantes :

  • Analyse comportementale : ce type de détection permet de déceler les anomalies et les écarts au sein d'un réseau. L'analyse des activités, des ensembles de données et des schémas courants permet de bien comprendre le comportement typique d'un système d'IA. En cas de comportement atypique, par exemple la génération de contenu biaisé ou, pire encore, l'affichage de mots de passe en clair, une alerte est déclenchée.
  • Détection des menaces en temps réel : lorsqu'un utilisateur malveillant analyse un environnement en vue d'exploiter une faille, les mesures de sécurité en temps réel déjà en place permettent de détecter des sondages répétés et de déclencher une alerte. Cette technique peut être automatisée et améliorée grâce à l'IA pour reconnaître les menaces et lancer plus rapidement l'alerte.
  • Renseignement prédictif sur les menaces : cette technologie anticipe les événements à venir en s'appuyant sur des données historiques afin de réaliser des prédictions. Par exemple, si un utilisateur malveillant cible des systèmes financiers avec un rançongiciel, la technologie de renseignement prédictif sur les menaces évalue la posture de l'entreprise pour estimer la probabilité de réussite d'une attaque.
  • Traitement de données amélioré : les charges de travail d'IA contiennent un important volume de données (des milliards et des milliards de points de données). Les mesures de sécurité de l'IA doivent analyser ces données pour déterminer si elles sont confidentielles, à risque ou disponibles. Le traitement de données amélioré permet de détecter les anomalies et les menaces dans l'environnement plus rapidement que les humains ou les technologies de traitement traditionnelles, permettant aux équipes d'agir sans délai.
  • Analyse des chemins d'attaque : cette stratégie permet de repérer les vulnérabilités et les possibilités d'attaque. Par exemple, pour comprendre le parcours d'une attaque et la bloquer, il est utile de connaître tous les points d'entrée des systèmes ainsi que les chemins possibles vers les données sensibles. 

Chaque phase du cycle de vie de l'IA présente des vulnérabilités. Voici les éléments d'une stratégie de sécurité efficace pour protéger les modèles d'IA, les données et la confidentialité :

  • Garde-fous de l'IA : les garde-fous aident les modèles d'IA générative à filtrer les propos haineux, abusifs ou grossiers, les données à caractère personnel, les informations de nature concurrentielle ou d'autres contraintes propres à un domaine.
  • Protection des données d'entraînement : les systèmes d'IA sont généralement aussi fiables que les données avec lesquelles ils ont été entraînés. Les données d'entraînement d'origine doivent être protégées contre les altérations ou les manipulations derrière des pare-feu ou d'autres mécanismes de protection afin de préserver l'intégrité du modèle et la qualité de ses résultats.
  • Sécurité renforcée de la plateforme : la plateforme sur laquelle sont exécutées les charges de travail d'IA doit être protégée pour garantir leur intégrité et leur fiabilité. Le haut niveau de sécurité de la plateforme va compliquer la tâche des acteurs malveillants qui cherchent à nuire au système.
  • Sécurité de la chaîne d'approvisionnement et des systèmes : il est possible d'adapter les meilleures pratiques classiques de sécurité de la chaîne d'approvisionnement et des systèmes pour couvrir les charges de travail d'IA. À l'image de la sécurité de la chaîne d'approvisionnement des logiciels qui vérifie l'intégrité des bibliothèques Open Source, la sécurité de la chaîne d'approvisionnement de l'IA peut vérifier la provenance et l'intégrité des données d'entraînement, des modèles préentraînés et des composants d'IA tiers.
  • Stratégies personnalisées : parce que chaque charge de travail d'IA est unique, les solutions de sécurité universelles conviennent rarement. La stratégie de sécurité doit être adaptée à chaque charge de travail d'IA, à sa conception et à ses données. 

Ces meilleures pratiques peuvent être mises en œuvre avec des outils et des solutions permettant de protéger les systèmes d'IA : 

  • Gestion des identités et des accès : ces outils déterminent qui peut accéder aux systèmes d'IA et à l'infrastructure, comment, et quand. Par exemple, il est possible d'utiliser l'authentification à plusieurs facteurs pour protéger des données sensibles.
  • Gestion de la posture de sécurité de l'IA : ces outils surveillent les déploiements et l'exploitation en matière de sécurité. Ils offrent de la visibilité et des informations sur les modèles et les données, ce qui permet aux entreprises de surveiller leurs systèmes d'IA.
  • Processus de validation des résultats : les résultats altérés ou incorrects peuvent engendrer des problèmes dans les systèmes en aval, voire révéler des informations sensibles. Ce processus vérifie deux fois les résultats du modèle avant de les transférer pour d'autres opérations.

La sécurité de l'IA apporte divers avantages aux stratégies d'IA des entreprises, y compris une certaine tranquillité d'esprit pour les équipes. La sécurité de l'IA renforce les stratégies, notamment en fluidifiant l'exécution des charges de travail d'IA et en libérant des ressources pour d'autres tâches importantes. Voici quelques exemples d'avantages : 

  • Diminution des risques et de l'exposition : en empêchant l'exposition des données, la sécurité de l'IA permet d'éviter que des données sensibles et privées tombent entre de mauvaises mains. Les attaques contrées avant de causer des dégâts ne perturbent ni les utilisateurs ni les systèmes d'IA.
  • Réduction des coûts et des délais : en réduisant l'exposition des données sensibles, il est possible de limiter les perturbations et de fluidifier l'exploitation. La neutralisation des attaques réduit les temps d'arrêt et libère du temps pour l'innovation.
  • Amélioration du renseignement sur les menaces : chaque fois que les systèmes de sécurité de l'IA rencontrent une menace potentielle, ils gagnent de nouvelles connaissances sur les attaques courantes et leur fonctionnement. À long terme, ils finissent même par anticiper ces menaces. 

L'IA est une technologie relativement nouvelle, encore en cours de perfectionnement. Puisqu'elle évolue constamment, elle nécessite une approche flexible en matière de sécurité. Voici quelques-uns des défis les plus courants rencontrés dans le secteur : 

  • Évolution des menaces propres à l'IA : l'évolution constante de l'IA implique l'apparition fréquente de nouvelles failles. Les applications et modèles d'IA représentent des cibles de choix pour les acteurs malveillants. Une bonne stratégie de sécurité doit donc évoluer au même rythme.
  • Complexité de la chaîne d'approvisionnement des logiciels : le cycle de vie de l'IA se compose de nombreux éléments, des bibliothèques Open Source aux API tierces en passant par les modèles préentraînés. Chacun de ces éléments représente un point d'entrée potentiel pour les pirates informatiques. Pour couvrir tous les composants de l'IA, il est nécessaire de mettre en place une approche multicouche qui protège ces chaînes d'approvisionnement complexes de bout en bout.
  • Exigences de base en matière de sécurité de l'IA : le nettoyage des données est essentiel pour éliminer les biais et les dérives des modèles et garantir leur bon fonctionnement. Or, la compréhension et le nettoyage des données d'entraînement de l'IA nécessitent des compétences spécifiques et inédites dans le secteur.
  • Intégration aux systèmes de sécurité existants : lors de l'intégration de nouvelles technologies telles que l'IA aux outils existants, il est nécessaire d'utiliser des systèmes qui sécurisent à la fois les charges de travail d'IA et l'infrastructure sous-jacente.
  • Lacunes en matière de visibilité et de gouvernance : malgré les efforts déployés pour créer des solutions de sécurité et de gouvernance pour la nouvelle génération d'IA, de nombreux risques imprévus ne sont pas traités de manière proactive, parfois parce qu'ils se présentent pour la première fois. Pour assurer l'efficacité de leurs politiques de sécurité de l'IA, les entreprises doivent constamment les mettre à jour, au rythme des nouvelles recommandations.

Si les risques liés à la confidentialité des données et des utilisateurs existent depuis longtemps, l'IA ajoute des menaces inédites. Voici quelques conseils à suivre pour une utilisation sûre de l'IA : 

  • Confidentialité de l'IA : pour garantir la confidentialité de l'IA, les entreprises doivent protéger leurs données personnelles et propriétaires contre toute utilisation non autorisée. La sécurité de ces données privées nécessite des mesures considérables.
  • Conformité de l'IA : l'évolution rapide de l'IA entraîne celle des cadres juridiques et réglementaires qui la régissent, créant une norme susceptible d'améliorer l'usage de l'IA. 

Bien qu'elle n'entre pas dans le domaine de la sécurité de l'IA, l'éthique peut avoir une incidence sur le risque global que l'IA représente pour une entreprise. Les utilisateurs doivent connaître les résultats de leur modèle et savoir comment ils les exploitent pour prendre des décisions.

L'utilisation éthique de l'IA implique de respecter des valeurs sociétales telles que les droits humains, l'équité et la transparence. Pour assurer le respect de leurs politiques en matière d'éthique, les entreprises doivent vérifier les méthodes de développement et d'entraînement des modèles, et surveiller les résultats en permanence afin d'éviter les dérives.

L'Open Source encourage la transparence et la confiance de la communauté. Nos solutions sont conçues pour le cloud hybride avec des technologies Open Source, pour sécuriser le cycle de vie de l'IA de bout en bout. 

L'offre Red Hat® AI aide les équipes à tester, mettre à l'échelle et distribuer des applications innovantes. Elle propose une approche globale et multicouche de la sécurité de l'IA, et repose sur des bases solides en matière de sécurité des plateformes ainsi que sur des pratiques DevSecOps. 
 

Découvrir Red Hat AI 
 

Nos solutions permettent aux clients de créer et déployer des applications d'IA fiables, tout en limitant les risques en matière de sécurité à chaque étape. Voici comment la solution Red Hat OpenShift® AI permet d'assurer l'équité, la sécurité et l'évolutivité de l'IA :

  • Renforcement de la visibilité : la solution élimine le phénomène de « boîte noire » qui masque la façon dont les modèles parviennent aux conclusions et maintient les algorithmes (et les utilisateurs) dans l'ombre. La solution Red Hat Trusted Profile Analyzer fournit des informations sur les vulnérabilités, le code malveillant, les problèmes de licence et les risques potentiels pour la sécurité.
  • Intégration des workflows de développement : l'application systématique des bonnes pratiques de sécurité de l'IA dès les phases de développement permet d'identifier les vulnérabilités plus tôt et de réduire les coûts ainsi que les tâches redondantes. Intégrée à OpenShift AI, la solution Red Hat Advanced Developer Suite comprend des outils tels que Red Hat Developer Hub qui peuvent être mis en œuvre dans les workflows de développement pour faciliter l'intégration de la traçabilité et de l'évaluation des modèles.
  • Cohérence du cloud hybride : les solutions d'IA conçues pour la flexibilité du cloud hybride permettent de réaliser des opérations d'inférence dans tous les environnements. Les charges de travail d'IA doivent offrir le même niveau de sécurité et de performances dans tous les environnements, que ce soit sur site, dans le cloud ou à la périphérie du réseau.
  • Alignement des modèles : la surveillance de l'alignement entre les résultats des modèles et les données d'entraînement permet de garantir la précision des données et l'intégrité des modèles. OpenShift AI permet également de procéder à un réglage fin et efficace des grands modèles de langage à l'aide des techniques LoRa/QLoRA afin de réduire les frais liés aux ressources de calcul ainsi que la taille de la mémoire.
  • Outils de détection de la dérive : les entrées et sorties des modèles doivent être protégées contre les informations nuisibles, comme les propos abusifs et grossiers, les données à caractère personnel ou d'autres risques propres à un domaine. Avec des garde-fous de l'IA ainsi qu'une surveillance en temps réel, il est possible de détecter tout écart potentiellement dangereux entre les données utilisées lors des opérations d'inférence et les données d'entraînement d'origine. 

En savoir plus sur Red Hat OpenShift AI

Ressource

Se lancer avec l'IA en entreprise : guide pour les débutants

Consultez ce guide pour les débutants afin de savoir comment les solutions Red Hat OpenShift AI et Red Hat Enterprise Linux AI peuvent accélérer votre parcours d'adoption de l'IA.

Déployez l'IA avec Red Hat : bénéficiez de notre expertise, de nos formations et de notre assistance

Découvrez notre gamme unique de solutions d'IA. Red Hat AI peut vous aider à atteindre vos objectifs métier et informatiques grâce à l'intelligence artificielle.

En savoir plus

RAG et réglage fin

La génération augmentée de récupération (RAG) et le réglage fin permettent d'améliorer les grands modèles de langage (LLM). Avec la RAG, le modèle n'est pas altéré, tandis que le réglage fin nécessite d'en ajuster les paramètres.

Les petits modèles de langage, qu'est-ce que c'est ?

Version réduite d'un grand modèle de langage (LLM), le petit modèle de langage (SLM) repose sur des connaissances plus spécialisées et offre aux équipes une personnalisation plus rapide ainsi qu'une efficacité d'exécution accrue.

Les modèles Granite, qu'est-ce que c'est ?

Les modèles Granite d'IBM correspondent à de grands modèles de langage créés pour les applications d'entreprise. Ils peuvent prendre en charge les cas d'utilisation de l'intelligence artificielle générative qui reposent sur un langage spécifique et du code.

IA/ML : ressources recommandées

Produit recommandé

  • Red Hat AI

    Des solutions flexibles qui accélèrent le développement et le déploiement de solutions d'IA dans les environnements de cloud hybride.

Articles associés