Suite à l’affaire de l’algorithme de recrutement d’Amazon, des questions se multiplient sur les biais de l’intelligence artificielle. 
Dans une interview à Libération, Cathy O’Neil, mathématicienne et lanceuse d’alerte, dénonce un fait global et presque invisible : la toxicité des systèmes informatiques sur notre quotidien. Elle rappelle d’ailleurs que les algorithmes sont des opinions intégrés à un code. Il est donc nécessaire de se demander si les conditions imposées par celui à qui appartient l’algorithme ont la même définition que les conditions de la cible de l’algorithme. Ces algorithmes basés sur l’intelligence artificielle et de grandes quantités de données sont de véritables boites noires. 
Un rapport de l’organisation à but non lucratif Upturn, intitulé « Help Wanted – An Examination of Hiring Algorithms, Equity and Bias » et publié en décembre 2018, se concentre sur les intelligences artificielles de recrutement. Ils ont analysé les algorithmes de recrutement les plus remarquables sur le marché, notamment Hilton, Cisco, PepsiCo, Amazon et Ikea, et ont pu trouver que, par défaut, ces derniers sont biaisés. 
Les algorithmes ont permis d’automatiser les 4 principaux stades du processus de recrutement : les sources, la présélection, l’entretien et la sélection. Alors que les intelligences artificielles ne sont pas réellement utilisées pour prendre la décision finale, elles sont toutefois utilisées pour trier et rejeter certains candidats durant les différentes étapes du processus. 
Or, les données injectées dans l’algorithme ne sont pas forcément claires de toute discrimination et ne permettent pas de représenter objectivement toute une population, ce qui créera forcément des biais dans l’algorithme. C’est ce qui s’est passé avec l’algorithme de recrutement d’Amazon.  
Le rapport précise également que ce n’est pas en enlevant les données relatives au genre ou à la race qu’il n’y aura pas de biais dans l’algorithme. 
L’étude porte également sur le cadre juridique des intelligences artificielles. Il semblerait qu’il ne soit pas suffisant pour résoudre les problèmes liés aux intelligences artificielles discriminantes. Il sera donc nécessaire dans un futur proche de mettre en place des lois permettant d’encadrer et réguler les intelligences artificielles de recrutement. 
Le rapport propose des solutions pour mettre fin aux intelligences artificielles de recrutement biaisés, ou du moins, réduire l’apparition des biais : 

  • permettre à un audit indépendant des employeurs et des vendeurs de software 
  • avoir un cadre juridique régulièrement mis à jour concernant les algorithmes de recrutement
  • examiner en détails les offres et les plateformes d’emploi pour comprendre les tendances du marché 

Il ne faut toutefois pas sous-estimer et laisser de côté les algorithmes de recrutement. Ils seront un outil nécessaire dans un futur proche. 
Il est fondamental de défendre nos libertés et nos droits face à une discrimination, mais il est également fondamental de permettre à une société de se tromper. Les erreurs actuelles des algorithmes doivent profiter à tous pour permettre aux acteurs de la technologie mais aussi du social d’évoluer de façon positive. 
Espérons que, prochainement, les algorithmes de recrutement seront clairs de tous biais, tant leur place deviendra importante. 
 

A propos de Cecilia DI PIETRO