L’émergence de l’intelligence artificielle dans les produits du quotidien modernes a créé de nouveaux défis et rendu obsolètes les régimes classiques de responsabilité. La directive européenne n° 2024/2853 du 23 octobre 2024 répond à ces enjeux. Elle remplace l’ancienne directive de 1985 sur la responsabilité des produits défectueux et l’adapte aux défis de l’IA. Elle marque un progrès, elle révèle également des limites en matière de réparation des dommages causés par l’IA. Trois conditions doivent être remplies pour engager la responsabilité du fabricant, il convient de les développer ci-dessous.
L’IA comme produit
La première avancée majeure de la directive consiste à intégrer expressément les systèmes d’intelligence artificielle dans la notion de « produit », ce qui constitue la condition indispensable à l’application du régime de responsabilité sans faute.
L’article 4 élargit cette définition aux logiciels, y compris les systèmes d’IA, qu’ils soient autonomes ou intégrés dans un autre bien, et ce peu importe leur mode de fourniture (téléchargement, SaaS, cloud, etc.).
Cette conception large rompt avec la précédente directive de 1985, qui se limitait aux biens corporels.
Toutefois, les logiciels open source sont exclus du champ de la directive, sauf lorsqu’ils sont exploités à des fins commerciales. Cela limite la portée de la directive aux seuls systèmes d’IA commercialisés, écartant par exemple certains grands modèles non propriétaires fournis gratuitement.
Enfin, la directive précise aussi qu’un produit qui évolue beaucoup, notamment par l’apprentissage automatique, est considéré comme un nouveau produit. Cela permet de tenir le fabricant responsable au fur et à mesure que le système change.
Le champ limité des dommages réparables causés par l’IA
La directive limite la responsabilité aux dommages subis par des personnes physiques et aux atteintes à leurs biens, sont alors couverts :
- les lésions corporelles et atteintes psychologiques médicalement constatées ;
- les dommages matériels, sauf le produit défectueux lui-même et des biens purement professionnels ;
- la corruption ou la destruction de données personnelles, à condition qu’elles ne soient pas exclusivement professionnelles.
Par contre, la directive écarte les pertes purement économiques, la perte de chance, ou encore les atteintes aux droits fondamentaux comme la vie privée ou la non-discrimination.
Ainsi, les dommages causés par des biais algorithmiques ou des hallucinations d’un agent conversationnel ne seront pas réparés sur ce fondement.
La directive ne crée donc pas un système général de responsabilité pour l’IA.
Une nouvelle définition du défaut
Le point central du régime de responsabilité repose sur la notion de « défectuosité ». Le produit est considéré comme défectueux s’il n’offre pas la sécurité à laquelle on peut légitimement s’attendre, selon l’article 7.
Ce standard est enrichi de critères spécifiques aux IA en tenant notamment compte de l’apprentissage autonome post-commercialisation, de l’interconnexion avec d’autres produits et du respect des exigences de cybersécurité.
Ces critères permettent de tenir compte des risques propres aux technologies d’IA.
La directive allège la charge de la preuve de la victime, tout en maintenant son principe. Elle prévoit notamment :
- des présomptions de défectuosité si le produit viole des normes de sécurité ou présente un dysfonctionnement manifeste ;
- une procédure de divulgation de preuves à la charge du défendeur, sous contrôle judiciaire ;
- ou encore la possibilité pour le juge de présumer la défectuosité en cas de complexité technique avérée, à condition que le demandeur établisse une difficulté probante excessive et la probabilité d’un défaut.
Ces mécanismes visent à rééquilibrer les forces entre les victimes et les producteurs. Dans un monde où les algorithmes sont opaques, il est difficile pour les victimes d’accéder aux preuves. La directive reconnaît ce problème, sans pour autant créer une responsabilité automatique.
La directive (UE) n° 2024/2853 marque donc un tournant nécessaire mais partiel dans l’adaptation du droit de la responsabilité à l’intelligence artificielle, puisque son champ d’application demeure restreint.
Sources :
- Directive (UE) 2024/2853 du 23 octobre 2024 relative à la responsabilité du fait des produits défectueux et abrogeant la directive 85/374/CEE
- Les nouvelles conditions de la responsabilité des produits défectueux à l’aune de l’IA – Julie Charpenet – Dalloz IP/IT 2025. 320.
- https://www.usine-digitale.fr/article/systemes-d-ia-et-directive-sur-la-responsabilite-du-fait-des-produits-defectueux.N2223636
- https://actu.dalloz-etudiant.fr/a-la-une/article/point-sur-la-nouvelle-directive-europeenne-ue-20242853-relative-a-la-responsabilite-du-fait-de/h/256e035c15335593d9c1bb38f7809c83.html
- Image : https://pxhere.com/fr/photo/1435307
