You are currently viewing Une IA devenue PDG d’une entreprise : les principaux enjeux
Image : NetDragon Websoft

À Fujian, en Chine, l’un des leaders chinois dans le domaine de la conception de jeux vidéos, NetDragon Websoft, a élu à la tête de l’entreprise un robot humanoïde virtuel.

Elle s’appelle Madame Tang Yu, elle sera chargée d’incarner “un centre de données en temps réel et d’outil analytique” (NetDragon Websoft)

Madame Tang Yu, entre acte symbolique et coup marketing 

Un robot humanoïde équipé d’une IA en tant que PDG semble être une idée quelque peu surprenante.

Son rôle ? Rationaliser les process, améliorer la qualité des tâches de travail et la vitesse d’exécution. Il s’agit là de fonctions plutôt logiques et algorithmique. En réalité, il s’agit d’une fonction presque symbolique.

En effet, le robot est programmé et contrôlé par des humains qui ont un contrôle total sur le robot. De plus, il n’est pas légalement possible de confier un mandat social à un logiciel. Néanmoins, en plus d’être une prouesse technologique, l’enjeu de l’entreprise chinoise semble aussi incarner un enjeu marketing. En démontrant que la responsabilité de leur entreprise repose entre les mains humanoïdes de Tang Yu, ils démontrent toute la confiance que NetDagon Websoft attribue en ses propres compétences.

En somme, Madame Tang Yu est un coup marketing facilement rentable : c’est la seule PDG au monde à travailler 24 heures sur 24, et ce gratuitement !

L’IA : quels enjeux pour les postes à grande responsabilité ? 

Le cas d’un PDG-robot permet de mettre en lumière les difficultés juridiques qui gravitent autour d’un tel phénomène. En effet, bien qu’un logiciel se doit d’être logique, il n’est pas à l’abri d’incidents, et encore moins de litiges. Dans ce cas, qui est responsable ? Une IA peut-elle prétendre à une personnalité juridique pour se défendre ?

En droit français, la personnalité juridique est communément reconnue comme étant la capacité à être sujet de droits. Elle peut être portée par un humain né et viable (réalité matérielle), ou par une entité (sociétés, associations…). L’intérêt de la personnalité juridique réside dans le fait de pouvoir se voir attribuer des droits et des devoirs. Or, pour le moment, une personnalité fictive matériellement ne peut prétendre à cette qualification.

Ce rejet de qualification a été débattu à plusieurs reprises par le Parlement européen qui, dans un premier temps, a mis sur la table l’éventualité de créer une « personnalité juridique spécifique aux robots », qui a été écartée plus tard par la Commission, qui estime « qu’il n’est pas nécessaire de conférer la personnalité juridique aux systèmes d’IA ».

Dès lors, en cas de litige opposant une IA, aucune réglementation spécifique ne sera applicable aux dommages qu’elle aurait causés. Dans ce cas, on peut se poser la question d’une éventuelle porte de sortie pour le dirigeant qui serait amené, pour s’exonérer de toute responsabilité, à apporter la preuve qu’il n’a pas influencé négativement le comportement de l’IA en question.

L’IA : un outil contre les décisions discriminatoires du monde du travail ? 

L’intelligence artificielle ouvre la porte à de nombreuses possibilités, y compris en matière de prises de décision. On pourrait penser que, grâce à son aspect logique, elle serait exemptée de toute capacité de reproduction de schémas discriminatoires.

Or, l’intelligence artificielle, ainsi que la machine learning, sont actuellement touchées par un problème particulièrement grave : les biais discriminatoires.

Les biais de l’intelligence artificielle se sont révélés lors du projet Gender Shades, où ont été testés les technologies de reconnaissance faciale. Il s’est avéré que les technologies liées étaient plus performantes sur les visages à la peau blanche que sur les visages à la peau plus sombre.

De même pour le genre, les technologies liées au projet se sont avérées moins performants sur les femmes que sur les hommes.

Que ce soit par les biais algorithmiques (où l’IA a été entraînée sur des données biaisées), ou par les biais sociétaux (où l’IA est biaisée par des préjugés et des stéréotypes inconscients), les biais de l’IA révèlent un système discriminatoire à combattre. Bien qu’il existe des outils créés pour lutter contre les biais de l’IA, il est nécessaire que les entreprises ne concèdent pas la capacité entière de prendre des décisions aux machines, au risque d’y voir des conséquences désastreuses en termes de discrimination.

Source : https://datascientest.com/intelligence-artificielle-biais-ia