You are currently viewing « Sécurité des systèmes d’IA générative : Enjeux et bonnes pratiques pour un déploiement sécurisé en entreprise »

L’intelligence artificielle générative, révolutionne les processus métiers, de la création de contenu à l’automatisation des tâches parfois complexes. Son adoption par les entreprises ne cesse de croître, offrant des gains d’efficacité inédits, mais aussi de nouveaux défis, notamment en matière de sécurité.

Les risques associés à ces systèmes sont multiples : fuites de données sensibles extraites des modèles, biais algorithmiques pouvant fausser les décisions, ou encore attaques ciblées exploitant les vulnérabilités des architectures d’IA. Ces enjeux ne sont pas seulement techniques, ils impactent la confiance des utilisateurs, la conformité réglementaire et la résilience opérationnelle des organisations.

Les systèmes d’IA générative sont exposés à des attaques spécifiques exploitant leurs vulnérabilités intrinsèques — qu’il s’agisse des données d’entraînement, des modèles eux-mêmes, ou même des vulnérabilités propres au fournisseur du système.

Ces attaques peuvent compromettre la confidentialité, l’intégrité ou la disponibilité des systèmes, avec des conséquences allant de l’altération de la qualité des sorties générées, à la divulgation de données sensibles, ou encore à la prise de contrôle malveillante du modèle.

On distingue trois grandes catégories d’attaques :

          Attaques par manipulation : elles visent à modifier le comportement du système d’IA en phase de production, au moyen de requêtes malveillantes, pour influencer les sorties et provoquer des actions dangereuses ou un déni de service. Exemples : attaques par évasion, reprogrammation ou par déni de service.

          Attaques par infection : ces attaques sont mises en œuvre en phase d’entrainement en altérant les données d’entraînement ou en insérant une porte dérobée. Exemples : attaques par empoisonnement.

          Attaques par exfiltration : ces attaques visent également la phase de production. Des informations sur le système d’IA, des données ayant servi à entraîner le modèle, les données des utilisateurs ou bien des données internes du modèle sont acquises illégalement. Exemples : attaques par inférence d’appartenance, par inversion de modèle ou d’extraction de modèle.

Ces attaques peuvent viser directement votre organisation et le système d’IA qu’elle déploie, mais également le fournisseur du modèle que vous utilisez. Ces attaques sur la chaîne d’approvisionnement exploitent les vulnérabilités des dépendances externes (modèles pré-entrainé, librairies, infrastructure cloud) pour compromettre le système d’IA. Ce type d’attaque concerne aussi les modèles open source dont la communauté est parfois infiltrée par des acteurs malveillants, indépendants ou rattachés à un Etat.

Mais, alors que de nombreuses entreprises font le choix d’intégrer l’IA générative dans leurs process, comment en exploiter au mieux les avantages tout en limitant le niveau de risque ?

Selon les autorités en charge de la protection des données et de la cybersécurité (CNIL et ANSSI), il est ainsi important d’intégrer le modèle d’IA générative dans le périmètre de son SMSI, ou, à défaut, de réaliser une analyse des risques avant le déploiement du système au sein de l’organisation et d’intégrer la gestion de la sécurité dans la gouvernance de l’IA.

Les mesures de sécurité adaptées et proportionnées pourront ainsi être mises en œuvre pour limiter l’impact d’un incident cyber visant l’IA générative de l’entreprise. D’ailleurs, lorsque l’automatisation atteint un niveau important au sein de l’organisation ou touche des tâches critiques pour son fonctionnement, il devient essentiel de tenir compte de la possible compromission du système d’IA déployé dans les PCA et PRA de l’organisation.

Cette approche par les risques permet, non seulement de maintenir un socle transparent sur lequel la confiance des partenaires, clients et utilisateurs peut se construire, mais également de répondre aux exigences réglementaires relatives à la protection des données et à l’IA.

Les systèmes d’IA générative introduisent ainsi des risques uniques, mais une approche structurée (sécurité dès la conception, gouvernance, préparation aux incidents) permet de les atténuer. Les organisations souhaitant maximiser les avantages de l’IA générative tout en contrôlant leur exposition aux risques cyber pourront auditer les données et modèles avant déploiement, les intégrer dans les PCA/PRA et former les équipes aux risques spécifiques.

 

Sources et liens utiles :

Recommandations ANSSI sur la sécurité des IA génératives

Guide CNIL sur le RGPD et l’IA

Plot4AI Threats Library

Data Scientists Targeted by Malicious Hugging Face ML Models with Silent Backdoor

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.