Le cadre réglementaire de l’Union européenne
L’Union européenne est une institution très protectrice et a instauré un cadre juridique uniforme pour les systèmes d’IA qui se fondent sur une approche par le risque. Ce texte nommé règlement européen sur l’IA, raccourci en IA Act, classe à haut risque les systèmes d’IA utilisés dans les infrastructures critiques. Ainsi, pour l’IA Act, si une IA est utilisée comme un composant de la sécurité pour gérer le site de production. Dans un exemple, une IA qui pilote la vitesse des ventilateurs servant au refroidissement relève directement de cette catégorie. En conséquence, des obligations strictes s’appliquent, comme une gestion des risques, la qualité des données, une supervision humaine et une procédure d’évaluation de conformité avant sa mise en service. L’IA act juge également certaines utilisations de l’IA comme inacceptables au regard de la sécurité et décide tout simplement de les interdire, comme un système qui gère tout seul une entité critique. Ce règlement devrait progressivement être appliqué de 2025 jusqu’en 2026 sur ses mesures phares, prévoyant aussi l’enregistrement des systèmes d’IA représentant un risque élevé dans une base de données de l’Union européenne et l’obligation de rapporter les incidents graves.
L’IA est également encadrée par le RGPD à partir du moment où des données personnelles sont traitées. Par conséquent, si les systèmes d’IA présents dans les centrales traitent des données personnelles telles que des enregistrements de vidéosurveillance, ils seront tenus de se conformer aux normes du RGPD. Ce dernier stipule des normes de réduction et de protection des informations manipulées, et une évaluation d’impact anticipée à son déploiement peut être nécessaire. En somme, même dans un site de production d’énergie nucléaire, la collecte et le traitement de données par une IA doivent se conformer aux droits d’accès, d’effacement, de portabilité et de rectification garantis par l’UE.
Indépendamment de l’IA Act, les installations industrielles critiques sont soumises à une réglementation stricte en matière de sécurité. En effet, au niveau de l’Union européenne, la directive Machines 2006/42/CE exige que les systèmes automatisés intégrés aux machines assurent la sécurité des personnes, et particulièrement dans le nucléaire. De plus, la directive 2009/71/Euratom mod établit un cadre de sûreté nucléaire qui oblige les États possédant un tel type de site de production à garantir leur sûreté tout au long de leur cycle de vie, impliquant des évaluations de sûreté approfondies avant l’autorisation d’exploitation. Cette évaluation devra être effectuée à toute nouvelle implémentation, dont celle de l’intelligence artificielle, qui devra garantir qu’elle ne compromet pas la sûreté du réacteur.
Les droits fondamentaux : un principe essentiel pour le conseil de l’Europe
En complément du droit de l’Union Européenne, le conseil de l’Europe a formulé des principes et des recommandations concernant l’usage éthique et sécurisé de l’intelligence artificielle. En avril 2020, le Comité des Ministres du Conseil de l’Europe a émis une recommandation relative aux effets des systèmes algorithmiques sur les droits humains. Elle appelle les États à gérer la conception et le déploiement des IA avec le principe de précaution pour garantir les droits humains face à la technologie. L’objectif est de mettre en place un cadre législatif fort pour prévenir, détecter et sanctionner les violations des droits fondamentaux à cause d’un système algorithmique.
En ce qui concerne la sûreté dans un environnement à haut risque, le Conseil de l’Europe rejoint l’avis de l’Union sur les garanties renforcées des mesures nécessaires à garantir la sûreté. Le Conseil de l’Europe n’a pas légiféré de dispositions sur cette question de l’IA dans l’environnement nucléaire, mais pose tout de même des principes de précaution, de proportionnalité et de respect de la dignité humaine. Comme expliqué dans la charte éthique européenne d’utilisation de l’IA sans les systèmes judiciaires.
Dernièrement, en mai 2024, le Conseil de l’Europe a adopté une convention-cadre sur l’IA, les droits de l’homme, la démocratie et l’État de droit. Ce traité international engage les États à encadrer les IA dans des domaines à risque élevé, évoquant notamment des obligations de transparence, d’évaluation d’impact et de supervision. Même si celle-ci n’a pas encore été ratifiée et mise en œuvre, elle se place dans la continuité d’assurer un développement de l’IA responsable et humain en Europe.
Sources :
https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/694206/EPRS_BRI%282021%29694206_EN.pdf
https://www.intertek.com/industrial-equipment/machinery-regulation/
Juriste en droit de l’économie numérique, spécialisé en droit de l’Union européenne et en fiscalité des entreprises. J’ai des compétences en gestion de personnel, planification stratégique, gestion des ressources humaines et optimisation des processus logistiques. Grâce à mon expertise polyvalente, je navigue efficacement dans des environnements complexes pour fournir des solutions juridiques et opérationnelles adaptées aux besoins des organisations modernes.
