Juste par conception : Construire des processus de recrutement via l’IA résistants aux biais
Temps de lecture : 8 minNote : Original en anglais.
L’intelligence artificielle a profondément transformé la manière dont les entreprises identifient et sélectionnent les talents. De l’automatisation du tri des CV à la prédiction du succès professionnel, les outils basés sur l’IA promettent des recrutements plus rapides et plus intelligents. Mais une inquiétude grandit : ces mêmes outils pourraient également amplifier les biais existants. À mesure que de nouvelles régulations entrent en vigueur — comme le AI Act de l’Union européenne ou des lois locales à New York et en Californie — les entreprises font face à une pression croissante pour démontrer l’équité de leurs décisions automatisées.
Le défi ne se limite pas à une question de conformité légale. Il s’agit avant tout de confiance. Des études montrent que même lorsque les systèmes d’IA sont ajustés pour corriger les biais dans les présélections, les résultats finaux peuvent encore être biaisés si l’algorithme reproduit les préférences des responsables du recrutement. Sans contrôle, l’IA risque de renforcer les inégalités qu’elle est censée combattre.
Aujourd’hui plus que jamais, garantir l’équité dans les algorithmes de recrutement n’est plus une option. C’est une nécessité stratégique pour les entreprises.
Quand l’IA aide — et quand elle nuit
Utilisée correctement, l’IA peut devenir un outil puissant dans le processus de recrutement. Elle réduit le délai d’embauche, permet de gérer un volume important de candidatures et améliore la cohérence dans les étapes initiales de sélection. Les modèles de notation structurés et les évaluations automatisées peuvent contribuer à limiter les jugements subjectifs souvent présents lors de la lecture de CV.
Mais toutes les solutions d’IA appliquées au recrutement ne se valent pas. Les problèmes surviennent lorsque ces systèmes sont développés sans transparence ni supervision. Les algorithmes « boîtes noires », qui prennent des décisions sans logique explicable, peuvent perpétuer des biais s’ils sont formés à partir de données historiques de recrutement entachées de discriminations. Par exemple, un article publié en 2019 dans la Harvard Business Review montre comment certains algorithmes de recrutement peuvent favoriser involontairement certains groupes démographiques, mettant ainsi en lumière les dangers liés à des données biaisées.
Les boucles de rétroaction aggravent encore la situation. Si un algorithme privilégie systématiquement des profils semblables à ceux qui ont déjà été engagés, le vivier de candidats se réduit progressivement. Cette homogénéisation des profils peut se faire discrètement, en particulier dans les équipes qui manquent déjà de diversité. Au lieu d’élargir les opportunités, l’IA finit par reproduire des schémas du passé, qui ne sont pas forcément alignés avec les besoins futurs.
L’IA ne doit pas nuire au recrutement. Mais elle doit être mise en œuvre avec rigueur, transparence et des contrôles réguliers.
Concevoir l’équité dès le départ
La base d’un système de recrutement équitable reposant sur l’IA se joue dès sa conception. Si l’équité n’est pas prise en compte dès le début, il devient difficile de corriger les biais par la suite. Une méthode efficace consiste à dissocier les critères du poste des préférences passées. Plutôt que d’utiliser des données reflétant ce que les responsables du recrutement ont apprécié auparavant, les équipes définissent les compétences et qualités réellement nécessaires pour le poste.
Cette approche permet d’éviter que les algorithmes ne reproduisent simplement des habitudes anciennes. Par exemple, certaines entreprises ont utilisé l’IA pour générer des présélections diversifiées, mais n’ont observé que peu de progrès en matière d’équilibre entre les sexes, car le modèle sous-jacent continuait à privilégier les mêmes caractéristiques que les responsables avaient valorisées par le passé. Lorsque ces caractéristiques correspondaient à un profil de candidat restreint, la présélection pouvait paraître différente sur le papier, tout en restant semblable dans les faits.
Les résultats se sont améliorés lorsque la logique de sélection est devenue visible, et que les attributs pertinents pour le poste ont été définis clairement, sans être influencés par les schémas de recrutement antérieurs. Certaines entreprises exigent désormais un certain niveau de diversité dans chaque présélection, en se basant sur des critères directement liés au poste. Ces systèmes ne fonctionnent que lorsque les critères de sélection ne sont pas influencés par des préférences subjectives du passé.
La transparence joue également un rôle clé. Lorsqu’un recruteur peut expliquer pourquoi un·e candidat·e a été sélectionné·e ou non, la confiance s’en trouve renforcée. Les candidat·e·s ont le sentiment d’être évalué·e·s de manière équitable, et les équipes de recrutement comprennent mieux où et comment améliorer le processus. Un article de blog publié par Hirebee souligne que la transparence dans les systèmes d’IA favorise la confiance et aide les recruteurs à prendre des décisions éclairées.
Concevoir des systèmes équitables ne consiste pas à ajouter des couches de contrôle après coup. Cela commence par des critères clairs, impartiaux, et une logique de sélection compréhensible par toutes les parties prenantes.
Audits, supervision et indicateurs d’inclusion
Même lorsqu’ils sont bien conçus, les outils de recrutement basés sur l’IA nécessitent des vérifications régulières. Les audits sont essentiels pour détecter les biais qui pourraient passer inaperçus. Ces vérifications ne doivent pas nécessairement être complexes. Des cadres simples permettent déjà d’identifier certains schémas problématiques, comme les groupes qui progressent dans le processus, obtiennent des entretiens ou, à l’inverse, sont engagés moins souvent.
Le cadre de responsabilité de l’IA de la GAO (Government Accountability Office) propose une méthode structurée incluant des évaluations des risques et la détection des biais, que les entreprises peuvent adapter à leurs besoins. Un bon audit ne se limite pas à l’embauche finale. En suivant les indicateurs à chaque étape — présélection, entretiens, décisions finales — on peut identifier précisément où l’exclusion se produit.
Les indicateurs d’inclusion permettent également d’améliorer la prise de décision. Plutôt que de mesurer le succès uniquement en nombre d’embauches, certaines entreprises suivent l’expérience des candidat·e·s et les taux d’acceptation des offres selon les caractéristiques démographiques. Un article publié en 2021 par Brookings insiste sur l’importance d’auditer les algorithmes de recrutement pour s’assurer qu’ils ne discriminent pas involontairement, en mettant en avant l’importance des données diversifiées et d’un encadrement approprié.
L’essentiel est d’intégrer l’inclusion à la performance, plutôt que de les opposer. Les entreprises qui s’engagent sur ces deux fronts constatent de meilleurs taux de rétention et des viviers de talents plus larges. Un recrutement équitable ne signifie pas baisser les exigences. Cela implique d’identifier honnêtement les biais existants et de les corriger avant qu’ils ne deviennent coûteux — tant sur le plan juridique que culturel.
Responsabiliser les recruteurs et les responsables du recrutement
Aucun algorithme ne peut remplacer le jugement humain. Mais lorsque les recruteurs comprennent comment fonctionne l’IA, ils prennent de meilleures décisions et détectent les problèmes plus tôt. Une formation en littératie algorithmique permet aux équipes d’identifier les points d’entrée des biais et de poser les bonnes questions. Le guide de recrutement par IA de Phenom rappelle que l’IA vient compléter les tâches humaines, et que pour qu’elle soit efficace, les recruteurs doivent comprendre comment l’utiliser.
Certaines entreprises passent de processus entièrement manuels à des modèles augmentés par l’IA, où les machines aident à filtrer et classer, mais où les décisions finales restent humaines. Dans ces systèmes, les responsables du recrutement disposent d’analyses plus claires sur les points forts des candidat·e·s, basées sur des données structurées — plutôt que sur des intuitions ou la mise en page d’un CV.
Dans un cas concret, une entreprise est passée à une présélection assistée par IA. Au départ, les recruteurs craignaient de perdre le contrôle du processus. Mais après formation, ils ont appris à ajuster les pondérations et à valider les résultats. Résultat : un processus de recrutement plus cohérent et une diversité accrue sur plusieurs postes.
Responsabiliser, c’est fournir les bons outils, mais aussi le savoir pour les utiliser avec discernement. Lorsqu’ils comprennent le fonctionnement de la technologie, les recruteurs se sentent plus confiants et plus responsables. Ils offrent également une meilleure expérience aux candidat·e·s en étant capables d’expliquer les décisions prises.
Pourquoi cela compte pour les candidat·e·s
Les personnes en recherche d’emploi savent de plus en plus que l’IA fait partie du processus de recrutement, même si cela n’est pas toujours visible. Comprendre comment les entreprises utilisent l’IA peut les aider à aborder les entretiens avec plus d’assurance. Cela leur permet aussi d’évaluer les employeurs selon des critères d’équité, et pas uniquement en fonction des avantages ou du salaire.
Les candidat·e·s devraient rechercher des signes que l’entreprise prend l’éthique de l’IA au sérieux. Poser des questions telles que « Comment vos outils de recrutement sont-ils évalués pour détecter les biais ? » ou « Qui vérifie les décisions prises par l’IA ? » démontre une prise de conscience et impressionne souvent les recruteurs. Ce ne sont pas que de bonnes questions : ce sont des stratégies. Elles révèlent si l’entreprise cherche réellement à recruter de manière inclusive ou si elle se contente d’automatiser de vieilles habitudes.
Parler clairement de la manière dont on interagit avec les évaluations automatisées permet également de se démarquer. Par exemple, un·e candidat·e à un poste dans la tech pourrait expliquer comment il ou elle s’est préparé·e à des tests automatisés ou pourquoi il ou elle attache de l’importance à la transparence dans les évaluations. Cela témoigne d’une capacité d’adaptation et d’une bonne compréhension des réalités actuelles du recrutement.
Dans un marché de l’emploi compétitif, celles et ceux qui comprennent les systèmes qui régissent le processus ont souvent une longueur d’avance.
Conclusion et points à retenir
Un recrutement équitable ne se fait pas par hasard. Il exige une intention claire, une conception réfléchie et une responsabilisation à chaque étape. L’IA peut soutenir de meilleures décisions — mais seulement si elle est conçue et utilisée dans un souci d’équité. Les entreprises qui abordent l’équité comme un système, et non comme une simple case à cocher, obtiennent de meilleurs résultats : des embauches plus pertinentes, une confiance accrue et des équipes plus inclusives.
Pour les responsables du recrutement, cela signifie investir dans des outils transparents, mettre en place des audits réguliers et former les décideurs. Pour les candidat·e·s, cela implique de poser des questions pertinentes et de comprendre les mécanismes qui influencent leurs chances. Une IA résistante aux biais ne relève pas seulement de l’éthique. C’est une stratégie gagnante en matière de recrutement.