L’IA, entre fantasmes et réalité
« L’engouement de ces dernières années pour les technologies dites d’intelligence artificielle nourrit les fantasmes de l’algorithme omniprésent et autonome qui prend des décisions de manière indépendante et souvent obscure. ». Pour pallier cette idée fantasmée de l’algorithme, il est opportun d’expliquer de quoi il s’agit. Il existe plusieurs types d’algorithmes. Celui le plus répandu est l’algorithme « classique ». C’est un algorithme dont le résultat final dépend du code source et des données d’entrée, il n’y a aucune influence de données extérieures. Le deuxième type d’algorithme est celui qui apprend sur la base du « Machine Learning » où l’intelligence artificielle se base sur des données extérieures. On qualifie ces données extérieures de données d’entraînement, et ces données correspondent aux données présentes au sein du Big Data. Le dernier type d’algorithme est celui qui établit une intelligence artificielle forte, c’est ce type d’intelligence artificielle qui domine dans l’imaginaire collectif. Il faut noter que ce type d’intelligence artificielle reste purement théorique, il n’existe pas encore d’intelligence artificielle complètement auto-apprenant.
La création de l’intelligence artificielle repose donc sur un algorithme,un algorithme qui est figé lors de sa configuration initiale et qui ne fait qu’être appliqué, ce qui rend son contrôle plus facile. Quand cet algorithme donne naissance à une intelligence artificielle évolutive, la tâche devient plus ardue. Cette dernière va déterminer ses propres critères de sélection en fonction des données dont elle dispose et des liens de corrélations statistiques qu’elle constate. Ainsi, une intelligence artificielle dont l’algorithme est conforme peut, du fait de son apprentissage, devenir discriminatoire. Les intelligences artificielles peuvent être aussi configurées pour reproduire un schéma donné. Cette reproduction peut entraîner des discriminations sexistes racistes, du fait d’une configuration biaisée. Le programmeur de l’algorithme peut être au courant de la présence de biais qui entraînent des discriminations et se sentir obligé de dévoiler l’algorithme litigieux. Ce programmateur pourrait devenir le salarié voulant divulguer cet algorithme litigieux. C’est donc ce programmateur qui pourra être confronté à un voile d’incertitudes.
L’affaire Tinder
L’affaire Tinder est une bonne illustration des problèmes que peuvent créer les algorithmes. Ici nous sommes en présence d’un algorithme utilisé pour mettre en relation des personnes en quête d’un ou d’une partenaire, peu importe la durée. Cet algorithme était imprégné de stéréotypes sexistes, racistes et sociaux. Il établissait un score de désirabilité. Les concepteurs de l’algorithme l’ont créé sur la base d’une compétition entre tous les profils. Ce classement est ensuite pondéré par l’algorithme, au regard du profil de l’utilisateur, pour parfois simuler le hasard et faire alors croire à l’utilisateur qu’il était destiné à rencontrer quelqu’un avec la même date d’anniversaire, les mêmes hobbies. On peut retranscrire cet algorithme dans une relation de recrutement par l’employeur qui a des besoins en termes de compétences.
Sous ses allures futuristes, l’intelligence artificielle n’est ni magique ni infaillible : elle est façonnée par des lignes de code, des données et, inévitablement, par les biais humains. Derrière chaque recommandation, chaque match et chaque sélection, se cache un mécanisme qui peut, volontairement ou non, orienter nos décisions. L’affaire Tinder en est la preuve : un algorithme peut séduire, discriminer ou manipuler, tout en donnant l’illusion du hasard. Dans un monde où ces systèmes s’immiscent partout, du recrutement à nos relations personnelles, la question n’est plus de savoir si l’IA influence nos vies, mais comment nous choisissons d’encadrer ce pouvoir.
Sources :
https://lejournal.cnrs.fr/articles/peut-faire-confiance-a-lintelligence-artificielle
https://www.anisayari.com/blog/l-ia-va-apprendre-et-s-ameliorer-tout-seul-mythe-et-realites
Fischman et B. Gomes « Intelligences artificielles et droit du travail contribution à l’étude du fonctionnement des plateformes numériques. » in P. Adam et al. (dir.), intelligence artificielle, gestion du personnel et droit du travail, Dalloz,2020, p.38.
