Der Aufstieg von KI-gestützten Fake-Kandidaten: Was HR wissen muss
Lesezeit 10minHinweis: Original auf Englisch. Recruiter und HR-Fachleute weltweit stehen vor einer neuen, schnell wachsenden Herausforderung: KI-gestützte Fake-Kandidaten. Dabei handelt es sich nicht nur um geschönte Lebensläufe. Manche dieser Profile sind vollständig synthetisch, erstellt mit KI-generierten Fotos, Deepfake-Videos und geklonten Stimmen. Andere wiederum basieren auf realen Bewerbenden, die stark auf generative Tools setzen, um polierte CVs oder sogar Antworten in Live-Interviews zu liefern.
Dieser Trend nimmt aus zwei Gründen Fahrt auf. Erstens hat die Zunahme von Remote- und Hybrid-Arbeit die Nutzung von Online-Screenings und Videointerviews ausgeweitet und so Betrügern neue Möglichkeiten eröffnet. Zweitens sind generative KI-Tools günstig und leicht zugänglich geworden, was die Hürden für realistische Fälschungen massiv senkt. Bereits im Jahr 2022 berichteten Sicherheitsteams von Deepfake-Bewerbungsgesprächen, bei denen asynchrone Lippenbewegungen und Stimmklone Alarm auslösten. Heute häufen sich solche Fälle deutlich stärker.
Prognosen deuten darauf hin, dass das Problem weiterwächst. Gartner schätzt, dass bis 2028 jedes vierte Kandidatenprofil gefälscht sein könnte. HR-Verantwortliche berichten schon heute von betrügerischen Lebensläufen, unpassenden Referenzen und KI-gestütztem Interview-Betrug in ihren Recruiting-Pipelines (HR Dive).
Diese Entwicklung ergänzt einen weiteren grossen HR-Trend: den weltweiten Mangel an echten KI-Fachkräften. Während Unternehmen alles daransetzen, qualifizierte KI-Talente zu gewinnen, müssen sie gleichzeitig verhindern, dass Betrüger ihre Prozesse unterwandern. Mehr dazu finden Sie im Beitrag Das Rennen um KI-Talente in Europa: Herausforderungen bei Einstellung & Rekrutierung.
Dieser Artikel beleuchtet, was KI-gestützte Fake-Kandidaten sind, warum sie sich verbreiten, welche Risiken sie schaffen, wie Betrüger vorgehen und wie HR- und Recruiting-Teams weltweit darauf reagieren.
Umfang & Belege
Der Aufstieg von KI-gestützten Fake-Kandidaten ist kein theoretisches Risiko. Forschung, Branchenberichte und reale Fälle zeigen, dass dieses Problem rasant zunimmt.
Daten und Prognosen
- Ausmass des Problems: Gartner prognostiziert, dass bis 2028 weltweit bis zu 25 % der Bewerbungen gefälscht sein könnten – entweder vollständig von KI erstellt oder stark durch sie unterstützt. (HR Dive).
- Erfahrungen von Recruitern: Verschiedene Umfragen und Medienberichte bestätigen, dass HR-Teams bereits heute häufiger mit gefälschten Bewerbungen konfrontiert sind – von manipulierten CVs bis hin zu Deepfake-Videointerviews.
- Organisierte Strukturen: Berichte sprechen von sogenannten „Candidate Farms“ oder Callcentern, in denen dutzende bis hunderte Fake-Profile gleichzeitig gemanagt werden. Ziel ist oft, mehrere Remote-Jobs parallel zu erschleichen und Einkommen zu kassieren.
Reale Beispiele
- Deepfake-Interviews: Analysten dokumentierten Live-Bewerbungsgespräche, bei denen die Lippenbewegungen nicht zur Stimme passten oder KI-Manipulationen im Video erkennbar waren. Manche Unternehmen bemerkten den Betrug erst nach erfolgter Zusage (HR Dive).
- Synthetische Lebensläufe: Generative KI ist in der Lage, Lebensläufe exakt an die Anforderungen einer Stellenanzeige anzupassen und so überzeugende Dokumente zu produzieren, die Screening-Systeme problemlos passieren. Manche Betrugsfälle fielen erst bei Referenzprüfungen oder Credential-Checks auf.
- Skill-Mismatches: Mehrere Unternehmen berichten von Kandidaten, die auf dem Papier überzeugten, jedoch in technischen Assessments komplett scheiterten – ein klarer Hinweis auf übertriebene oder erfundene Fähigkeiten.
Die Belege zeigen: Es handelt sich nicht um Einzelfälle. KI senkt die Kosten für täuschend echte Fake-Kandidaten drastisch, während globales Remote-Working den möglichen Nutzen für Betrüger erhöht. Das Ergebnis: ein messbarer Anstieg an Recruiting-Betrug.
Motivationen & Bedrohungen
Warum erstellen Einzelpersonen und teilweise sogar organisierte Gruppen KI-gestützte Fake-Kandidaten? Die Beweggründe sind vielfältig, doch sie haben eines gemeinsam: finanzielle und strategische Vorteile.
Finanzielle Anreize
- Direkter Gehaltsbetrug: Häufig werden Fake-Kandidaten in Remote- oder Vertragsrollen eingestellt, wodurch Kriminelle Lohn kassieren können, ohne echte Arbeit zu leisten. Manche Netzwerke führen sogar mehrere Jobs gleichzeitig unter falschen Identitäten.
- Skalierung des Betrugs: KI senkt die Kosten. Statt nur eines gefälschten CVs können Betrüger Hunderte von überzeugenden Profilen erstellen. Das macht dieses Vorgehen attraktiv für Betrug im grossen Stil.
Sicherheit und Spionage
- Datendiebstahl: Fake-Kandidaten können nach der Anstellung Zugang zu sensiblen Systemen, geistigem Eigentum oder Kundendaten erhalten.
- Staatlich gesteuerte Infiltration: Expertinnen und Experten warnen, dass einige Fake-Kandidaten Teil grösserer Spionage- oder Cybercrime-Operationen sein könnten – insbesondere, wenn es sich um hochrangige Unternehmen oder staatliche Auftragnehmer handelt.
Reputations- und Betriebsrisiken
- Verschwendete Ressourcen: Unternehmen investieren Zeit und Geld ins Onboarding betrügerischer Mitarbeitender, nur um später Produktivitätsverluste und Ersatzkosten zu tragen.
- Imageschäden: Wird Betrug aufgedeckt, kann die Existenz gefälschter Angestellter das Employer Branding sowie das Vertrauen von Kundschaft und Partnern massiv beeinträchtigen.
- Regulatorische Risiken: Je nach Branche kann die Anstellung betrügerischer Kandidaten zu Compliance-Problemen führen – etwa bei Background-Checks, im Datenschutz oder bei Insider-Bedrohungen.
Die Bedrohung ist mehrschichtig. Es geht nicht nur darum, HR-Zeit zu verschwenden. Im schlimmsten Fall stellen Fake-Kandidaten ein ernsthaftes Cybersecurity-Risiko für Arbeitgeber dar.
Wie es funktioniert
Betrüger nutzen eine Kombination aus generativen KI-Tools und Social-Engineering-Taktiken, um überzeugende Fake-Kandidaten zu erstellen. Diese Methoden werden immer raffinierter, was die Erkennung für Recruiter erschwert.
Tools und Techniken
- Synthetische Lebensläufe: Sprachmodelle generieren CVs, die perfekt zu Stellenbeschreibungen passen. Oft beinhalten sie gefälschte Abschlüsse, Zertifikate und Berufserfahrungen.
- KI-generierte Fotos: Porträtähnliche Bilder aus Bildgeneratoren wirken authentisch und überstehen einfache visuelle Prüfungen.
- Deepfake-Video und -Audio: Betrüger setzen Avatare, Face-Swapping-Filter oder geklonte Stimmen ein, um an virtuellen Interviews teilzunehmen – und so in Echtzeit als jemand anderes aufzutreten.
- KI-Interview-Assistenten: Manche Bewerbende nutzen Tools, die ihnen während Videocalls in Echtzeit Antworten liefern und sie dadurch kompetenter wirken lassen, als sie tatsächlich sind.
Taktiken zur Umgehung von Erkennung
- Spiegeln von Stellenanzeigen: Gefälschte Lebensläufe wiederholen Schlüsselbegriffe aus Job-Postings oft zu perfekt – ein Hinweis auf KI-Generierung.
- Mehrere Identitäten: Manche Betrugsnetzwerke betreiben gleichzeitig viele Profile und bewerben sich breit gestreut, bis eine Anstellung gelingt.
- Vorbereitete Skripte: Betrüger üben KI-generierte Antworten auf typische Interviewfragen, sodass sie zunächst glaubwürdig klingen – bis detailliertere Rückfragen gestellt werden.
Die zunehmende Raffinesse dieser Methoden erklärt, warum Recruiter und HR-Teams immer häufiger überrascht werden. Was früher leicht als Betrug erkennbar war, ist heute ohne stärkere Verifikationsprozesse schwer zu durchschauen.
Erkennen & Vorbeugen
Recruiter und HR-Teams entwickeln neue Strategien, um echte Bewerbende von KI-gestützten Fakes zu unterscheiden. Der Schlüssel liegt in der Kombination von Technologie, angepassten Prozessen und menschlichem Urteilsvermögen.
Verifikationsmethoden
- Direkte Quellenprüfung: Kontaktieren Sie Universitäten, Zertifizierungsstellen und frühere Arbeitgeber anstatt sich ausschliesslich auf Angaben im CV zu verlassen. Dies bleibt eine der zuverlässigsten Verteidigungsmassnahmen.
- Identitätsprüfungstools: Manche Unternehmen setzen KI-Systeme ein, die Deepfake-Video- oder Sprachmanipulationen erkennen. Sie achten etwa auf unnatürliches Blinzeln, Synchronisationsfehler oder Audio-Artefakte.
- Cross-Checks von Referenzen: Der Abgleich von LinkedIn-Profilen, öffentlichen Registern oder Fachdatenbanken mit eingereichten Lebensläufen kann Unstimmigkeiten sichtbar machen.
Interviewstrategien
- Situative und verhaltensbezogene Fragen: Offene Problemstellungen oder unerwartete Nachfragen sind für KI schwieriger in Echtzeit überzeugend zu beantworten.
- Video-„Stresstests“: Manche HR-Teams fordern Bewerbende auf, die Kamera zu wechseln, den Bildschirm zu teilen oder sich zu bewegen, um zu überprüfen, dass es sich um reale Personen handelt.
- Konsistenzprüfungen: Wird dieselbe Frage auf verschiedene Weisen gestellt, können einstudierte oder KI-generierte Antworten leichter entlarvt werden.
Smartere Stellenanzeigen
- Versteckte Testanforderungen: Manche Arbeitgeber bauen ungewöhnliche oder irrelevante Anforderungen in Stelleninserate ein. Wenn ein CV diese exakt wiedergibt, ist das ein Warnsignal für KI-Generierung.
- Fokus auf Empfehlungen: Recruiting über vertrauenswürdige Mitarbeitenden-Netzwerke erschwert es Fake-Kandidaten, in den Prozess einzudringen.
Mehrschichtige Verteidigung
Keine Methode allein ist ausreichend. Unternehmen setzen zunehmend auf mehrschichtige Prüfungen – eine Kombination aus automatisierten Checks und gezielten menschlichen Überprüfungen an entscheidenden Punkten im Bewerbungsprozess. Dieses Gleichgewicht filtert Betrug heraus und bleibt gleichzeitig fair für echte Kandidaten.
Richtlinien, Ethik & Rechtliche Überlegungen
Der Aufstieg von KI-gestützten Fake-Kandidaten zwingt Recruiter und HR-Verantwortliche dazu, ihre Einstellungspolitik neu zu denken. Die Herausforderung liegt darin, festzulegen, was als akzeptabler KI-Einsatz gilt – und wo Betrug beginnt.
Richtlinienfragen
- Akzeptabler KI-Einsatz: Viele Bewerbende nutzen heute KI, um Lebensläufe zu verfassen oder sich auf Interviews vorzubereiten. Das kann die Kommunikation verbessern, wirft aber Fragen nach Fairness auf, wenn es übertrieben wird. Einige Unternehmen legen inzwischen ausdrücklich fest, ob KI-Unterstützung bei Bewerbungen oder Interviews erlaubt ist.
- Nulltoleranz bei Täuschung: Wenn KI eingesetzt wird, um Referenzen zu fälschen, Identitäten zu erfinden oder in Interviews jemand anderen vorzutäuschen, überschreitet dies die Grenze zum Betrug und führt zur Disqualifikation.
Ethische Verantwortung
- Transparenz: Arbeitgeber sollten klar kommunizieren, welche Überprüfungen stattfinden – von Identitäts-Checks bis hin zu Background-Validierungen.
- Faire Behandlung: Während sie sich vor Betrug schützen, dürfen HR-Teams echte Bewerbende nicht mit übermässigen Prüfungen belasten. Ein ausgewogenes Verhältnis von Vertrauen und Sicherheit ist entscheidend.
Rechtliche und regulatorische Rahmenbedingungen
- Datenschutz: Verordnungen wie die DSGVO in Europa und ähnliche Gesetze weltweit verlangen einen sorgfältigen Umgang mit Kandidatendaten während der Verifikation.
- Gesetze zu Betrug und Täuschung: Das Einreichen falscher Dokumente oder die Vorspiegelung einer anderen Identität ist in vielen Rechtsordnungen strafbar; Unternehmen müssen solche Fälle möglicherweise an die Behörden weiterleiten.
- Zukünftige Regulierung: Gesetzgeber beginnen, Regeln für den ethischen KI-Einsatz im Recruiting zu prüfen – inklusive Pflichten zu Transparenz und Anti-Betrugs-Massnahmen.
Recruiting-Verantwortliche müssen sich auf ein strengeres regulatorisches Umfeld einstellen. Klare interne Richtlinien und compliance-orientierte Einstellungspraktiken werden zur Notwendigkeit, nicht zur Option.
Empfehlungen & Best Practices
Recruiter und HR-Teams können bereits heute Massnahmen ergreifen, um das Risiko KI-gestützter Fake-Kandidaten zu verringern – und gleichzeitig effiziente, faire Prozesse sicherzustellen.
Interne Prozesse stärken
- Mehrschichtige Verifikation: Kombinieren Sie automatisierte Tools mit manuellen Prüfungen an entscheidenden Stellen, etwa vor der Vertragsofferte.
- Regelmässige Audits: Überprüfen Sie Neueinstellungen regelmässig auf Auffälligkeiten oder Betrugsindikatoren. So lassen sich Screening-Prozesse laufend verbessern.
- HR-Teams weiterbilden: Schulen Sie Recruiter darin, Anzeichen für KI-Einsatz zu erkennen – von übermässig polierten CVs bis zu auffälligem Interviewverhalten.
Vendor- und Technologie-Strategie
- Tools sorgfältig auswählen: Prüfen Sie bei Applicant Tracking Systems (ATS) oder Videointerview-Plattformen, ob sie über Betrugserkennung verfügen.
- KI defensiv einsetzen: Dieselbe Technologie, mit der Fake-Kandidaten entstehen, kann auch zu deren Erkennung dienen. Immer mehr Unternehmen investieren in KI-gestützte Verifikationstools.
- Klare Vertragsvorgaben: Verankern Sie bei Personalagenturen und Drittanbietern die Pflicht zu gründlichen Referenz- und Identitätsprüfungen.
Kommunikation mit Kandidaten
- Erwartungen klarstellen: Machen Sie transparent, welche Arten von KI-Nutzung im Bewerbungsprozess akzeptabel sind. Beispielsweise kann die sprachliche Optimierung erlaubt sein, nicht aber das Generieren kompletter CVs oder Interviewantworten.
- Über Prüfungen informieren: Weisen Sie Bewerbende darauf hin, dass Verifikationsschritte stattfinden. Das stärkt das Vertrauen echter Kandidaten und schreckt Betrüger ab.
Geschwindigkeit mit Sicherheit ausbalancieren
Masseneinstellungen führen oft zu Automatisierung. Doch zu viel Automatisierung schafft Schlupflöcher für Betrug. Ein hybrides Modell – Automatisierung für Effizienz kombiniert mit gezielten manuellen Prüfungen – bietet die beste Balance.
Durch eine Kombination aus klaren Richtlinien, smarter Technologie und transparenter Kommunikation können HR-Teams das Betrugsrisiko senken und gleichzeitig eine positive Candidate Experience gewährleisten.