Les algorithmes prédictifs: un obstacle au recrutement
Les algorithmes de recrutement ont connu une forte croissance depuis la crise sanitaire de 2020. En matière de recrutement, elles ont la cote. Ces algorithmes présentent l’avantage de faciliter la vie des recruteurs. Cependant, ils présentent aussi des biais non négligeables.
La montée en puissance des algorithmes de recrutement
Nombreux sont les secteurs qui ont tiré profit de la crise sanitaire. Celui du recrutement a surtout eu recours à l’innovation par l’utilisation de l’intelligence artificielle lors du processus de sélection des candidats. En 2016, 10% des managers des Ressources humaines utilisaient les algorithmes de recrutement pour trouver le candidat idéal. En 2020, ce pourcentage a augmenté de 29%. Cet intérêt grandissant pour les algorithmes prédictifs s’explique par le fait que les envois de CV pour des demandes d’emploi ont explosé pendant le confinement. En effet, à cause des restrictions sanitaires imposées par le gouvernement, les recherches d’emploi se faisaient majoritairement en ligne. Face à cette masse de CV, les recruteurs se sont vus confrontés à un problème de temps et de main-d’œuvre. La meilleure solution était de recourir à l’intelligence artificielle pour prendre des décisions en un temps record.
Les biais algorithmiques
Selon l’Institut Montaigne, un biais algorithmique est l’écart qui se produit entre la réalité et les prévisions de l’algorithme. En effet, l’intelligence artificielle génère souvent des discriminations liées au genre, à la couleur de peau, encore appelées biais. Dans le cadre d’un recrutement, ces biais peuvent être source d’inégalités dès la première phase de sélection des candidats. A titre d’exemple, un algorithme aura tendance à privilégier les candidatures des personnes de sexe masculin pour un métier de la construction parce qu’il est en majeure partie occupé par des hommes alors qu’une femme pourrait bien avoir les mêmes compétences et même plus de compétences que l’homme en question. Sans qu’on s’en rende compte, ce sont surtout des critères subjectifs qui sont source de biais.
Des algorithmes inclusifs pour lutter contre les discriminations
Face aux inconvénients présentés par la plupart des algorithmes, la CNIL et l’Institut Montaigne sont montés au créneau pour proposer des pistes de solution. Ils préconisent surtout l’utilisation d’algorithmes inclusifs qui prennent en compte la diversité des profils. Parmi les solutions proposées, en voici quelques-unes:
- Former les ingénieurs et les développeurs sur les risques de défaillance des algorithmes pour qu’ils tiennent compte de la diversité des profils dès la conception de l’algorithme et des applications;
- Mettre en place des labels d’algorithme inclusifs;
- Pratiquer des tests sur le degré d’inclusion des algorithmes avant de les utiliser à grande échelle.
Toutefois, ces principes ne revêtent aucun caractère obligatoire pour l’instant. Ils sont de simples recommandations. Il convient de continuer à sensibiliser la population sur les problèmes causés par les biais algorithmiques pour que les gens puissent les identifier quand ils y font face et les faire remonter aux institutions concernées. Dès lors, l’égalité des chances dans le monde du travail deviendra bel et bien une réalité.
Webographie
- https://blog.adatechschool.fr/les-biais-algorithmiques-ou-comment-le-code-est-injuste-et-discriminant/
- https://www.ladn.eu/tech-a-suivre/ia-machine-learning-iot/algorithmes-recrutent-masse/