Les systèmes d’armes létales autonomes : avantages et problématiques

Alors que l’opinion publique s’alerte sur la question des systèmes d’armes létales autonomes (SALA) depuis quelques années, que doit-on craindre réellement ?

Les avantages de la robotisation de la guerre

Source de craintes, les robots autonomes, conçus pour rester avant tout un outil au service des militaires, pourraient permettre de réelles améliorations.

La protection de la vie des soldats

Le premier avantage tient à la protection de la vie de nos soldats sur les missions particulièrement dangereuses. Ainsi, les militaires pourront se placer à distance du danger tout en surveillant les manœuvres et l’évolution de la situation. Les robots pourront être envoyés sur des zones contaminées, ne craignant pas les infections ni les maladies et pouvant se mouvoir dans n’importe quel lieu en dépit de la qualité de l’air. Ils pourront intervenir dans des missions de déminage ou être envoyés en reconnaissance afin de sécuriser un secteur.

Réduction des risques et quasi-permanence opérationnelle

Pour certains, les systèmes d’armement autonome pourraient réduire le risque d’effets collatéraux. La précision de la machine permettrait d’effectuer des gestes techniques, sans être influencé par l’affect, la pression, la fatigue, le bruit ou toute autre cause susceptible de déconcentrer un être humain. Ainsi, ils pourraient prendre des décisions très rapidement, traiter et ordonner une quantité d’informations que le cerveau humain mettrait plus de temps à analyser.

 

Les dangers d’une automatisation complète

Quid de la responsabilité juridique ?

Qui de l’État, du militaire, du commandant ou du programmeur sera responsable en cas de dommages collatéraux si des civils sont touchés ? La responsabilité du robot est déjà une question épineuse qui se pose avec les voitures autonomes. Car pour l’instant, le Code civil n’inclut que la responsabilité des personnes physiques et morales. L’ONG Human Rights dénonce un « vide juridique » autour de la responsabilité pénale du robot

Une potentielle violation des principes du droit des conflits armés

Le droit des conflits armés est une branche spécifique du droit international public. Il inclut le droit de la guerre issu des conventions de La Haye et le droit humanitaire issu des conventions de Genève. Une des dispositions sur laquelle s’appuient les opposants aux SALA relève du droit international humanitaire. Il s’agit du principe de distinction selon lequel un soldat doit à tout moment pouvoir distinguer les personnes civiles des biens et des personnes militaires. Si les SALA venaient à exister, le robot automatisé devrait être capable de faire la distinction entre les deux. Mais alors, comment garantir un tel niveau d’exigence face à des scénarios multiples et extrêmement divers ?

L’éthique et la morale

Il peut sembler difficile d’imaginer confier à une IA le pouvoir de tuer une personne humaine. Human Rights Watch dénonce l’absence d’émotions et de compassion des robots qui pourraient alors tuer sans foi ni loi, mais également servir de moyen de répression à des dictateurs qui pourraient les utiliser à l’encontre des citoyens.

Le point cybersécurité

Que l’on soit pour ou contre les SALA, on ne peut pas occulter la cybersécurité dont les dérives en la matière sont nombreuses et récurrentes. Par conséquent un tel système devra non seulement pouvoir démontrer que ses algorithmes sont conformes aux conventions internationales, mais également pouvoir assurer une sécurité élevée face aux risques de piratages.

Les SALA n’existent pas encore puisque actuellement l’Homme n’est pas exclu du processus décisionnel. Il ne s’agit, pour l’instant, que d’armes semi-autonomes. De plus, aucun Etat ne semble vouloir évoluer vers de telles machines. Il n’est pas dans leur intérêt de perdre la main sur les robots en leur octroyant tout pouvoir de décision. Enfin rappelons que, pour en arriver à des systèmes autonomes, il reste encore de nombreux progrès technologiques à accomplir.

 

A lire également : Entre fantasmes et réalité : quid de ceux que l’on surnomme les “robots tueurs” ? & Vers une interdiction de la course à l’armement autonome ?

A propos de Camille VAUGARNY

Construite autour de valeurs sportives, déterminée et surtout passionnée par les NTIC, je finalise actuellement mon Master 2 Droit de l’économie numérique après une spécialisation en Propriété intellectuelle en Master 1. Le monde numérique, source intarissable de challenges d’envergure, est en mise à jour constante et je me passionne à identifier, comprendre et analyser ces nouveaux défis qu'ils soient techniques, juridiques ou sociétaux.

Vous aimerez aussi...

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.