L’intelligence artificielle (IA), facteur de discrimination

L’intelligence artificielle (IA) connait de nombreux usages, plusieurs domaines ont pu progresser par son action. Toutefois, elle connait aussi des failles qui sont majoritairement dues à son processus d’apprentissage. Des faits ont montré que certains de ses usages se sont avérés discriminatoires.

L’IA, un immense potentiel d’usages

L’IA se définit comme « l’ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine ». De la reconnaissance d’image automatisée à l’exécution de tâches complexes, ses usages sont multiples tels que déceler des symptômes par imagerie médicale ou proposer des contenus personnalisés en fonction des centres d’intérêts de la personne. Toutefois, ils ne sont pas exempts de reproches. Certaines failles ont mené à des situations discriminantes, traitant de manière défavorable un groupe d’individus par rapport à d’autres.

Des cas de discriminations constatées

Plusieurs faits ont pu mettre en évidence ces pratiques contestables. Des actes ont été considérés comme racistes lorsqu’en 2015, un logiciel de reconnaissance faciale de Google a suscité une forte polémique en catégorisant de « gorille » une photo d’un couple d’afro-américain. De même qu’en 2016, il est révélé qu’Amazon excluait de son service de « livraison gratuite en un jour » des quartiers peuplés majoritairement de personnes défavorisées mais qui étaient aussi majoritairement noires, alors que d’autres quartiers de la même ville en bénéficiaient.

Des discriminations de genre sont également constatées. Des chercheurs de l’Université de Carnegie ont démontré que la plateforme publicitaire de Google, « Adsense » contribuait à des inégalités entre les hommes et les femmes. Ces dernières se voyaient proposer des offres d’emploi moins rémunératrices que les hommes, à niveau de qualification et d’expérience similaires.

L’origine du problème

Bien que ces faits puissent faire l’objet d’actes volontaires émanant de personnes mal intentionnées ou involontaires, le cœur du problème réside dans les bases de données utilisées pour entraîner les algorithmes de l’IA. Cette dernière a besoin d’être alimentée en données pour se développer et s’améliorer dans ses prises de décisions. A titre d’exemple, en reconnaissance faciale, l’IA s’entraîne avec des données faciales conséquentes afin de reconnaître le genre, l’âge ou l’ethnie d’une personne.

Or, si la base de données n’est pas assez diversifié, l’IA sera mal entraîné et commettra des erreurs, tel que le cas du couple catégorisé de gorille. l’IA a sûrement reçu peu de données concernant les personnes noires.

Ces actes, de nature inconsciente, sont parfois lourdes de conséquences, d’autant plus que l’IA tend à se généraliser dans les pratiques du quotidien. Ainsi, un point de vigilance est de mise.

 

A propos de Nicolas Guillon

Etudiant en M2 Droit de l'économie numérique et de nature curieuse, j'aime m'intéresser à des sujets divers et passionnant. Je perçois le numérique comme un domaine ouvrant les portes à une multitude de possibilités. Le choix de ce master a été principalement motivée par son côté pluridisciplinaire. Je suis un juriste en droit du numérique, mais pas que !

Vous aimerez aussi...

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.