L’intelligence artificielle (IA) bouleverse le monde du travail et transforme les pratiques de recrutement du fait de l’usage des algorithmes. En effet en 2023, 50% des recruteurs déclarent avoir utiliser au moins un outil associé à l’IA au cours des étapes de recrutement. Mais y a-t-il des risques de discrimination ?
L’IA au service du recrutement
Aujourd’hui, les entreprises se trouvent confrontées à une massification des candidatures et il devient alors nécessaire d’optimiser leurs processus de sélection en se tournant vers des solutions technologiques toujours plus performantes. Véritable atout pour les recruteurs, l’IA promet gain de temps, réduction des coûts et traitement massif des candidatures.
Logiciels de tri automatique de curriculum vitae (CV), chatbots de présélection, outils de scoring, … Autant de façon d’intégrer l’IA dans le recrutement des entreprises. Ces outils reposent sur des algorithmes capables d’analyser des données multiples pour les comparer à un modèle de « candidat idéal ».
Les programmes de machine learning ou programmes d’autoapprentissage intelligents permettent d’analyser une vaste quantité de données issues de candidatures et plus ces algorithmes pourront analyser un grand nombre de données, plus ils deviendront précis dans leurs évaluations. Mais on constate que ces machines finissent par développer des biais et des réflexes de discrimination.
Une technologie (faussement) neutre : des dérives discriminatoires
Selon la configuration établi de l’IA dans l’algorithme de recrutement, elle pourra filtrer des candidats en raison de facteurs comme des lacunes dans le parcours professionnel, l’absence de diplôme universitaire, etc. Mais la neutralité de ces logiciels n’est qu’une apparence.
Ainsi, par des programmes de machine learning spécifiques à chaque entreprise, le système apprend à partir des données et notamment des biais de conception qui lui sont donnés, intervenant avec des variables choisies comme l’âge, le parcours universitaires, etc. Donc si les données reflètent des déséquilibres comme une sous-représentation des femmes à certains postes, l’algorithme reproduira mécaniquement ces inégalités.
Encadrement juridique et régulation de l’IA à haut risque
Sur le plan juridique, ces pratiques posent des difficultés. Les systèmes de recrutement incluant de l’IA sont considérés, par l’Artificial Intelligence Act (AI Act), comme des systèmes d’IA (SIA) à haut risque et pouvant porter atteinte aux droits fondamentaux des personnes. L’AI Act impose donc un cadre stricte afin d’assurer la conformité de ces SIA à haut risque ainsi que des obligations spécifiques pour les opérateurs impliqués.
L’AI Act impose ainsi aux entreprises des obligations de transparence en informant les candidats sur l’usage d’un algorithme, des obligations de gestion des risques, de gouvernance des données mais aussi une supervision humaine à chaque étape du processus de recrutement. Aussi, le Règlement général sur la protection des données (RGPD), notamment l’article 22 relatif aux décisions automatisées pose le droit pour la personne concernée de ne pas fait l’objet d’une décision fondée exclusivement sur un traitement automatisé.
Cependant, une question reste en suspens sur l’imputabilité de la faute : qui sera responsable du biais discriminatoire. Cette incertitude complique la mise en œuvre des sanctions et requiert un encadrement juridique spécifique.
Au-delà de la réglementation, les entreprises doivent adopter une véritable éthique de la donnée impliquant notamment la constitution de bases de données équilibrées et représentatives ou encore la supervision humaine systématique des décisions automatisées afin d’éviter toutes éventuelles discriminations envers des candidats.
L’échec du logiciel de recrutement de Amazon
Amazon, leader du commerce électronique, a ainsi tenté d’adopter la technologie des biais algorithmiques pour l’embauche. Cependant, en analysant les CV, le logiciel a fini par déduire que les candidats masculins étaient à privilégier entraînant le rejet des candidatures féminines.
En principe, ce logiciel devait examiner les CV dans l’optique d’automatiser le processus de recrutement en attribuant une notre d’une à cinq étoiles selon les profils pour divers postes. Celui-ci s’appuyait sur l’historique d’Amazon qui recevait presque uniquement des candidatures masculines depuis plus de 10 ans et l’IA a fini par déduire que les candidatures masculines étaient les plus aptes à correspondre aux profils recherchés.
Amazon a ainsi modifié son programme afin qu’il ne prenne plus en compte ces références, mais sans garantir que le système devienne impartial, or le projet a par la suite été abandonné. Amazon a toutefois précisé que les recommandations du logiciel n’ont jamais étaient mise en application pour les recrutements.
L’échec du géant du commerce en ligne témoigne tout de même des limites de l’IA. Ces algorithmes de présélection et de recrutement ne sont pas des outils neutres puisqu’ils reflètent et reproduisent les biais de toutes les données qui les alimentent. La lutte contre ces dérives nécessite une double vigilance : le droit doit encadrer l’usage de ces systèmes et préserver un certain contrôle humain tout en instaurant une culture de la responsabilité numérique.
L’IA peut donc être un atout dans le recrutement, à condition qu’elle soit pensée comme un outil d’aide à la décision, et non comme un substitut au jugement humain et si les algorithmes peuvent trier les CV, seul l’humain peut reconnaître le potentiel d’un candidat.
Sources :
- https://www.lesechos.fr/industrie-services/conso-distribution/quand-le-logiciel-de-recrutement-damazon-discrimine-les-femmes
- https://www.lefigaro.fr/social/-le-logiciel-de-recrutement-d-amazon-n-aimait-pas-les-femmes.php
- https://ici.radio-canada.ca/nouvelle/1949452/outil-recrutement-intelligence-artificielle-prejuges-embauche
- https://www.ddg.fr/actualite/recrutement-algorithmes-et-ia-entre-le-code-du-travail-le-rgpd-et-prochainement-le-ria
- https://dares.travail-emploi.gouv.fr/evenement/comment-lintelligence-artificielle-transforme-les-pratiques-de-recrutement
- https://www.lemonde.fr/emploi/article/2023/11/29/manager-avec-l-intelligence-artificielle-les-biais-des-recruteurs.html
- https://www.lemonde.fr/pixels/article/2016/05/27/quand-les-ordinateurs-recrutent.html
- https://online.edhec.edu/fr/blog/biais-du-recrutement-par-algorithme/
- https://www.ilo.org/fr/publications/intelligence-artificielle-generative-et-emploi-revision-2025
- https://aumans-avocats.com/ia-act-systemes-dia-a-haut-risque-quels-enjeux-et-quelles-obligations/
