L’essor des candidats fictifs assistés par l’IA : ce que les RH doivent savoir

Temps de lecture : 10 min

Note : Original en anglais. Les recruteurs et responsables RH à travers le monde font face à un défi émergent et préoccupant : les candidats fictifs assistés par l’intelligence artificielle. Il ne s’agit plus seulement de CV enjolivés. Certains profils sont désormais des identités entièrement synthétiques, créées à l’aide de photos générées par IA, de vidéos deepfake et de voix clonées. D’autres concernent de vrais postulants qui s’appuient massivement sur des outils génératifs pour produire des CV très aboutis, voire pour répondre en direct lors d’entretiens.

Cette tendance s’accélère pour deux raisons principales. Premièrement, le télétravail et les modèles hybrides ont généralisé les entretiens en ligne et les processus de présélection numérique, ouvrant davantage d’opportunités aux fraudeurs. Deuxièmement, les outils d’IA générative sont devenus bon marché et faciles à utiliser, ce qui abaisse considérablement la barrière à l’entrée pour créer de fausses identités crédibles. Dès 2022 déjà, des équipes de sécurité signalaient des entretiens deepfake où des décalages de synchronisation labiale et des voix clonées suscitaient des soupçons. Aujourd’hui, les cas rapportés sont beaucoup plus fréquents.

Les projections confirment une aggravation du phénomène. Gartner estime que d’ici 2028, un candidat sur quatre pourrait être faux. Les responsables RH signalent déjà des CV frauduleux, des diplômes falsifiés et des fraudes aux entretiens assistées par IA dans leurs processus (HR Dive).

Ce défi s’ajoute à une autre grande tendance RH : la pénurie mondiale de véritables talents en IA. Alors que les entreprises rivalisent pour recruter des spécialistes qualifiés, elles doivent en parallèle se protéger contre l’entrée de candidats frauduleux dans leurs pipelines. Pour en savoir plus sur la pénurie de talents en IA et la course au recrutement, consultez La course aux talents en IA en Europe : défis de recrutement et d’embauche.

Cet article examine ce que sont les candidats fictifs assistés par IA, pourquoi ils se multiplient, les risques qu’ils engendrent, les méthodes des fraudeurs, ainsi que les réponses apportées par les équipes RH et de recrutement à travers le monde.

Portée et preuves

Portée et preuves

L’essor des candidats fictifs assistés par IA n’est pas une simple hypothèse. Les données issues de recherches, de rapports sectoriels et de cas réels montrent que le phénomène s’amplifie rapidement.

Données et projections

  • Ampleur du problème : Gartner prévoit que d’ici 2028, jusqu’à 25 % des postulants dans le monde pourraient être fictifs, créés entièrement par IA ou fortement assistés par elle (HR Dive).
  • Expérience des recruteurs : Plusieurs enquêtes et articles confirment que les équipes RH rencontrent déjà davantage de candidatures frauduleuses, allant de CV falsifiés à des entretiens vidéo deepfake.
  • Opérations organisées : Des rapports décrivent des « fermes de candidats » ou centres d’appels où de multiples profils fictifs sont gérés à grande échelle. Ces opérations injectent des dizaines, voire des centaines de candidatures dans les pipelines, parfois dans le but de cumuler plusieurs emplois à distance et d’en percevoir les salaires simultanément.

Exemples concrets

  • Entretiens deepfake : Des analystes ont documenté des entretiens en direct où les mouvements de lèvres du candidat ne correspondaient pas à sa voix, ou où l’image présentait des signes de manipulation par IA. Certaines organisations n’ont découvert la fraude qu’après avoir fait une offre d’embauche (HR Dive).
  • CV synthétiques : L’IA générative peut désormais créer des CV calqués sur les exigences exactes d’une offre d’emploi, produisant des documents si bien réalisés que les systèmes de présélection les jugent crédibles. Dans certains cas, la fraude n’a été révélée qu’au moment des vérifications de références ou de diplômes.
  • Compétences fictives : Plusieurs entreprises signalent des candidats semblant crédibles sur le papier mais échouant totalement lors d’évaluations techniques, révélant des compétences exagérées ou inventées.

Les preuves indiquent qu’il ne s’agit pas de cas isolés. L’IA a réduit le coût de fabrication de faux candidats, tandis que le travail à distance mondial en a augmenté le potentiel de gains. Résultat : une hausse mesurable des fraudes au recrutement.

Motivations et menaces

Motivations et menaces

Pourquoi certaines personnes, et parfois même des groupes organisés, créent-ils des candidats fictifs assistés par l’IA ? Les motivations sont variées, mais elles convergent toutes vers un même objectif : un gain financier ou stratégique.

Incitations financières

  • Fraude salariale directe : Dans de nombreux cas, des candidats fictifs sont embauchés dans des postes à distance ou en freelance, permettant aux fraudeurs de percevoir un salaire sans fournir de travail réel. Certaines opérations gèrent même plusieurs emplois simultanément sous de fausses identités.
  • Fraude à grande échelle : L’IA réduit les coûts de la fraude. Au lieu d’un seul CV frauduleux, les escrocs peuvent générer des centaines de profils crédibles, rendant la méthode particulièrement attractive pour des stratagèmes massifs.

Sécurité et espionnage

  • Vol de données : Les candidats fictifs peuvent obtenir un accès à des systèmes sensibles, à la propriété intellectuelle ou à des données clients une fois embauchés.
  • Infiltration étatique : Des experts avertissent que certains candidats frauduleux pourraient être liés à des opérations d’espionnage ou de cybercriminalité, notamment lorsqu’il s’agit de cibler une entreprise stratégique ou un sous-traitant gouvernemental.

Risques réputationnels et opérationnels

  • Ressources gaspillées : Les entreprises dépensent du temps et de l’argent à intégrer de faux employés, pour ensuite subir des pertes de productivité et des coûts de remplacement.
  • Atteinte à la réputation : La découverte d’employés fictifs peut ternir la marque employeur et la confiance des clients ou partenaires.
  • Exposition réglementaire : Selon le secteur, recruter des candidats frauduleux peut poser des problèmes de conformité liés aux vérifications d’antécédents, à la protection des données et aux menaces internes.

La menace est donc multiple. Elle ne se limite pas à une perte de temps pour les RH. Dans les cas les plus graves, les candidats fictifs constituent un véritable risque de cybersécurité pour les employeurs.

Comment cela fonctionne

Comment cela fonctionne

Les fraudeurs utilisent un mélange d’outils d’IA générative et de techniques d’ingénierie sociale pour créer des candidats fictifs convaincants. Ces méthodes gagnent en sophistication, rendant leur détection de plus en plus difficile pour les recruteurs.

Outils et techniques

  • CV synthétiques : Les modèles de langage avancés génèrent des CV parfaitement adaptés aux offres d’emploi. Ils incluent souvent de faux diplômes, certifications et historiques professionnels.
  • Photos générées par IA : Des portraits de type « photo de stock », créés avec des générateurs d’images, paraissent authentiques et passent les contrôles visuels basiques.
  • Vidéos et audios deepfake : Les fraudeurs utilisent des avatars, des filtres d’échange de visage ou des voix clonées pour passer des entretiens virtuels. Cela leur permet d’apparaître en temps réel comme une autre personne.
  • Assistants d’entretien IA : Certains candidats s’appuient sur des outils fournissant des réponses en direct lors d’appels vidéo, les aidant à paraître plus compétents qu’ils ne le sont réellement.

Tactiques pour éviter la détection

  • Mimétisme des annonces : Les CV frauduleux reprennent souvent les mots-clés des offres d’emploi de manière trop parfaite, signe d’une génération par IA.
  • Identités multiples : Certaines opérations de fraude maintiennent de nombreux profils à la fois, multipliant les candidatures jusqu’à ce que l’une d’entre elles aboutisse à une embauche.
  • Scripts préparés : Les fraudeurs répètent à l’avance des réponses générées par IA aux questions courantes d’entretien, ce qui les rend crédibles jusqu’à ce qu’un recruteur pousse l’interrogatoire plus loin.

La sophistication de ces méthodes explique pourquoi les recruteurs et équipes RH se font de plus en plus surprendre. Ce qui paraissait autrefois comme une fraude évidente devient aujourd’hui difficile à détecter sans dispositifs de vérification renforcés.

Comment les détecter et les prévenir

Comment les détecter et les prévenir

Les recruteurs et équipes RH s’adaptent en mettant en place de nouvelles stratégies pour distinguer les vrais candidats des profils fictifs assistés par IA. La clé réside dans une combinaison de technologie, d’adaptations de processus et de jugement humain.

Méthodes de vérification

  • Contrôles auprès des sources directes : Contacter directement les universités, organismes de certification et anciens employeurs plutôt que de se fier uniquement aux informations fournies sur le CV. Cela reste l’une des défenses les plus fiables.
  • Outils de vérification d’identité : Certaines entreprises utilisent des systèmes d’IA capables de détecter des anomalies vidéo ou vocales lors des entretiens (clignements anormaux, problèmes de synchronisation, artefacts audio).
  • Recoupement des informations : Comparer les historiques LinkedIn, les registres publics ou les bases professionnelles avec les CV soumis permet de repérer des incohérences.

Stratégies d’entretien

  • Questions situationnelles et comportementales : Les problèmes ouverts ou les questions imprévues sont plus difficiles à gérer pour l’IA en temps réel.
  • « Stress tests » vidéo : Certaines équipes RH demandent aux candidats de changer de caméra, de partager leur écran ou de se déplacer pour vérifier qu’il s’agit bien d’une personne réelle et non d’un avatar.
  • Tests de cohérence : Poser la même question de différentes manières durant un entretien peut révéler des réponses apprises ou générées par IA.

Offres d’emploi plus intelligentes

  • Exigences-test intégrées : Certains employeurs ajoutent des conditions inhabituelles ou non pertinentes dans leurs annonces. Si un CV les reprend mot pour mot, cela peut signaler qu’il a été généré par IA.
  • Accent sur les recommandations : Le recrutement via des réseaux de confiance internes rend plus difficile l’infiltration de faux candidats.

Défense en couches

Aucune méthode ne suffit seule. Les entreprises adoptent une vérification en plusieurs étapes — en combinant contrôles automatisés et analyses humaines ciblées à des moments clés du processus d’embauche. Cet équilibre permet de filtrer les fraudes tout en maintenant l’équité pour les vrais candidats.

Politiques, éthique et aspects légaux

Politiques, éthique et aspects légaux

L’essor des candidats fictifs assistés par l’IA oblige les recruteurs et responsables RH à repenser leurs politiques de recrutement. Le défi consiste à définir ce qui constitue un usage acceptable de l’IA et ce qui relève clairement de la fraude.

Questions de politique

  • Usage acceptable de l’IA : De nombreux candidats utilisent aujourd’hui l’IA pour rédiger leur CV ou préparer leurs réponses aux entretiens. Si cela peut améliorer la communication, cela soulève des questions d’équité lorsqu’on va trop loin. Certaines entreprises précisent désormais explicitement si l’assistance par IA est autorisée ou non durant le processus de candidature ou d’entretien.
  • Tolérance zéro pour la tromperie : Lorsque l’IA est utilisée pour falsifier des diplômes, créer de fausses identités ou usurper quelqu’un lors d’un entretien, cela relève de la fraude et doit mener à une disqualification immédiate.

Responsabilités éthiques

  • Transparence : Les employeurs doivent communiquer clairement sur les contrôles en place, qu’il s’agisse de vérifications d’identité ou de validations de parcours.
  • Traitement équitable : Tout en se protégeant contre la fraude, les équipes de recrutement doivent éviter d’imposer aux vrais candidats un processus trop lourd. Trouver le bon équilibre entre confiance et sécurité est essentiel.

Paysage légal et réglementaire

  • Protection des données : Des réglementations comme le RGPD en Europe, ainsi que d’autres lois internationales, exigent une gestion rigoureuse des données des candidats lors des vérifications.
  • Lois sur la fraude et la falsification : Fournir de faux documents ou usurper une identité est illégal dans de nombreuses juridictions, et les entreprises doivent parfois transmettre les cas aux autorités.
  • Réglementations futures : Les législateurs commencent à envisager des règles encadrant l’usage éthique de l’IA dans le recrutement, incluant des obligations de transparence et des garde-fous contre la fraude.

Les responsables du recrutement doivent donc se préparer à un environnement réglementaire plus strict. Des politiques internes claires et des pratiques d’embauche axées sur la conformité deviendront une nécessité, et non plus une option.

Recommandations et meilleures pratiques

Recommandations et meilleures pratiques

Les recruteurs et équipes RH peuvent agir dès maintenant pour réduire le risque de candidats fictifs assistés par IA, tout en gardant leurs processus de recrutement efficaces et équitables.

Renforcer les processus internes

  • Vérification en plusieurs étapes : Combiner des outils automatisés avec des contrôles manuels à des moments clés, notamment avant de formuler une offre.
  • Audits réguliers : Examiner périodiquement les récentes embauches pour identifier d’éventuelles anomalies ou indices de fraude. Cela permet d’améliorer progressivement les méthodes de filtrage.
  • Développer les compétences RH : Former les recruteurs à repérer les signes d’implication de l’IA, qu’il s’agisse de CV trop parfaits ou de comportements suspects en entretien.

Stratégie vis-à-vis des fournisseurs et de la technologie

  • Choisir les outils avec soin : Lors de l’utilisation de systèmes de suivi des candidatures (ATS) ou de plateformes d’entretien vidéo, vérifier qu’ils intègrent des fonctions de détection de fraude.
  • Déployer l’IA en défense : La même technologie qui sert à créer de faux candidats peut aider à les détecter. Les entreprises investissent de plus en plus dans des outils de vérification basés sur l’IA.
  • Fixer des attentes contractuelles : Pour les agences de placement et recruteurs externes, inclure des clauses exigeant des contrôles approfondis des diplômes et de l’identité.

Communication avec les candidats

  • Clarifier les attentes : Être transparent sur les usages de l’IA acceptables durant le processus de candidature. Par exemple, utiliser l’IA pour corriger la grammaire peut être toléré, mais pas pour générer un CV complet ou des réponses d’entretien.
  • Expliquer les contrôles : Informer les candidats que des étapes de vérification existent. Cela renforce la confiance des postulants authentiques et dissuade les fraudeurs.

Équilibrer rapidité et sécurité

Le recrutement à grande échelle pousse souvent les entreprises à automatiser. Mais une automatisation excessive crée des failles exploitables par la fraude. Un modèle hybride — automatisation pour l’efficacité et contrôles humains ciblés pour la sécurité — offre le meilleur équilibre.

En combinant politiques renforcées, technologies intelligentes et communication claire, les équipes RH peuvent réduire les risques de fraude tout en protégeant l’expérience candidat.


Pour les recruteurs cherchant un avantage concurrentiel et un accès à un vivier de talents pré-qualifiés, TieTalent offre trois solutions distinctes : On Demand, une solution par abonnement, et des Job AdsInscrivez-vous gratuitement et découvrez notre gamme complète de fonctionnalités. Découvrez comment nous rendons l'acquisition de talents simple et sans risque – si cela ne répond pas à vos besoins, c'est gratuit !