Deepfakes im Bewerbungsgespräch: Darauf müssen Unternehmen bei Remote-Einstellungen achten

Deepfakes im Bewerbungsgespräch: Darauf müssen Unternehmen bei Remote-Einstellungen achten

Deepfakes unterwandern den Bewerbungsprozess. Ein betroffenes Unternehmen verrät, wie Betrüger mithilfe von KI-Filtern in Videointerviews fiktive Identitäten vorgaukeln - und welche Maßnahmen bei der Prävention helfen. Der Fall könnte Teil eines politisch unterstützten Systems sein.

Ein Security-Start-up wäre beinahe einem ausgeklügelten Betrug zum Opfer gefallen – und das gleich zweimal. Die Betrüger nutzten fortschrittliche KI-Filter, um während Videointerviews eine falsche Identität vorzutäuschen und sich als qualifizierte Bewerber auszugeben. Mit gefälschten Lebensläufen, Linkedin-Profilen und überzeugenden technischen Fähigkeiten schafften sie es bis in die finale Runde des Einstellungsprozesses. Erst dort entlarvten kleine Unstimmigkeiten und wachsame Interviewer den Deepfake.


Für Unternehmen, die auf Fernrekrutierung setzen, stellt der Fall eine beunruhigende neue Bedrohung dar, die Teil einer größeren, möglicherweise staatlich unterstützten Operation sein und in Zukunft häufiger auftreten könnte. Es gibt jedoch Maßnahmen, mit denen die Risiken für Unternehmen, die sich im Rekrutierungsprozess befinden, zumindest vorerst reduziert werden können.

Wie ein vermeintlicher Spitzenkandidat fast eingestellt wurde

Das IT-Sicherheits-Start-up Vidoc Security der Founder Klaudia Kloc und Dawid Moczadło hat kürzlich nach einem erfolgreichen Funding von 2,5 Millionen Dollar die Recruitingbemühungen verstärkt. Ein Bewerber namens Makary Krol präsentierte einen beeindruckenden Lebenslauf und absolvierte souverän mehrere Interviewrunden. Sogar das technische Interview meisterte er mit Bravour. Er war der erste Kandidat, der alle Coding-Aufgaben in der vorgegebenen Zeit löste.


Erst im finalen Gespräch mit der Mitgründerin schöpfte das Team Verdacht. Trotz eines angeblich polnischen Hintergrunds sprach der Kandidat kein Polnisch. Zudem wirkten seine Gesichtsbewegungen und sein Erscheinungsbild auf dem Bildschirm unnatürlich. Das Team beendete den Prozess, konnte aber nichts beweisen – bis ein ähnlicher Fall zwei Monate später auftrat.

Der Aufforderung, die Hand vor das Gesicht zu halten, wollte der Kandidat nicht nachkommen. (Gif: Vidoc Security)

Beim zweiten Mal vorbereitet

Als ein weiterer vielversprechender Kandidat namens Bratislav Rakočević ähnliche Auffälligkeiten zeigte – ein serbischer Bewerber ohne Serbisch-Kenntnisse – war das Team vorbereitet. Moczadło zeichnete das Interview auf und forderte den Kandidaten auf, seine Hand vor das Gesicht zu halten – eine Situation, die für aktuelle KI-Filter eine massive Hürde darstellt und als Entlarvungstechnik eingesetzt werden kann. Der Bewerber weigerte sich. Die Tarnung flog auf. Das aufgezeichnete Video zeigt deutlich, wie der Kandidat ausweicht und das Gespräch schnell beendet wird.


Besonders beunruhigend: Das Team vermutet, dass beide Betrüger dieselbe Person waren. Die Stimmen klangen nahezu identisch, und der zweite Kandidat beantwortete Fragen mit überraschender Selbstsicherheit, als hätte er sie schon einmal gehört.

Workshops zu IT-Sicherheit:

Ein systematisches Problem?

Was zunächst wie Einzelfälle wirkte, könnte Teil einer größeren Operation sein. Google hat bereits vor Hunderten von US-Unternehmen gewarnt, die nordkoreanischen Arbeitern mit falschen Identitäten technische Rollen anvertraut haben. Der Aufwand hinter solchen Betrügereien deutet möglicherweise auf staatlich unterstützte Aktionen hin.

Bemerkenswert ist, dass selbst kleine Start-ups wie Vidoc Security bereits im Februar 2023 – als sie noch keine Finanzierung erhalten hatten – ins Visier genommen wurden. Der erste gefälschte Bewerber kontaktierte sie unaufgefordert über Linkedin mit der Frage nach offenen Stellen.


Nordkoreanische IT-Arbeiter operieren häufig von Standorten in China und Russland und nutzen diese als Basis, um sich als Freelancer oder Remote-Mitarbeiter zu verkaufen. Die Hauptziele der Operationen sind die Umgehung internationaler Sanktionen, die Generierung von Einnahmen für den nordkoreanischen Staat sowie Zugang zu Unternehmensdaten.


Deepfakes und andere Formen der digitalen Manipulation werden mit dem Aufkommen generativer KI und der zunehmenden Verfügbarkeit von Crime-as-a-Service-Netzwerken (CaaS) immer unaufwendiger und professioneller. Das Spektrum der Akteure ist breit und reicht von staatlichen und nichtstaatlichen Gruppen bis zu Einzeltätern, die Betrug, Erpressung und Desinformation zum Ziel haben. Als Täuschungsinstrument gegen Personen und auch Systeme werden Deepfakes in ihrer Vielfalt in Cybersicherheitskreisen als besonders gefährlich wahrgenommen. Ohne offizielle Verifizierungssysteme wird es in Zukunft schwierig sein, generierte audiovisuelle Aufzeichnungen von authentischen zu unterscheiden.

Schutzmaßnahmen für Unternehmen

Um sich vor KI-maskierten Bewerbern zu schützen, haben Vidoc Security und andere betroffene Unternehmen wie KnowBe4 folgende Strategien entwickelt:


  • Die Bedrohung ernst nehmen: Kein Unternehmen ist zu klein, um Ziel zu werden - wie das Beispiel zeigt, sind auch kleine, unfinanzierte Start-ups betroffen.

  • Video-Interviews aufzeichnen: Um eine spätere Analyse von zweifelhaften Fällen zu ermöglichen, kann eine Aufzeichnung mit dem Einverständnis des Bewerbers aufschlussreich sein.

  • Kandidaten auffordern, Filter auszuschalten: Bewerber sollten gebeten werden, sowohl Gesichts- als auch Hintergrundfilter während des gesamten Gesprächs zu deaktivieren. Unstimmigkeiten in der Darstellung können ein Warnsignal sein.

  • Einfache physische Tests einbauen: KI-Filter haben Schwächen bei dynamischen Bewegungen. Eine Hand vor das Gesicht halten, den Kopf leicht drehen oder einen Schritt zurücktreten kann helfen, Manipulationen zu entlarven.

  • Identitätsprüfung ernst nehmen: Unternehmen sollten offizielle Dokumente anfordern und deren Echtheit überprüfen. Google empfiehlt bei sensiblen Positionen eine notarielle Beglaubigung oder eine Bestätigung durch eine unabhängige Institution.

  • Digitale Spuren analysieren: Bewerber ohne nachweisbare Online-Präsenz – sei es über frühere Projekte, akademische Arbeiten oder Branchennetzwerke – sollten mit erhöhter Vorsicht geprüft werden.

  • Referenzen persönlich verifizieren: Eine schriftliche Empfehlung kann leicht gefälscht sein. Unternehmen sollten deshalb telefonische oder per Video geführte Referenzgespräche führen, um die Angaben zu bestätigen.

  • Telefonnummern überprüfen: VoIP-Nummern lassen sich leicht anonym erstellen und können auf Betrugsversuche hinweisen. Unternehmen sollten daher prüfen, ob eine Nummer mit einem Mobilfunkanbieter verknüpft ist.

  • Kulturelle Fragen stellen: Falls Zweifel an der Herkunft eines Bewerbers bestehen, können unauffällige Fragen nach regionalen Eigenheiten helfen, Unstimmigkeiten zu erkennen. Beispielsweise: „Welches ist Ihr Lieblingsrestaurant in Ihrer Stadt?“

  • Lieferadresse für Arbeitsgeräte abgleichen: Falls ein Bewerber möchte, dass sein Arbeitslaptop an eine andere Adresse als die offizielle Wohnadresse geschickt wird, kann das ein Warnsignal sein – insbesondere in Kombination mit anderen Verdachtsmomenten.

Remote-Recruiting muss sich anpassen

Die Vorfälle werfen die Frage auf, ob Remote-Rekrutierungsverfahren generell überdacht werden sollten. Das geht in einigen Fällen mit der allgemeinen Rückkehr ins Büro einher. Während einige Unternehmen zu persönlichen Abschlussgesprächen zurückkehren könnten, wäre es verfrüht, die Vorteile der Remote-Arbeit aufzugeben. Schließlich hat das Konzept in den vergangenen Jahren Flexibilitätsvorteile für Arbeitnehmer und Arbeitgeber gebracht und den Talentpool weltweit geöffnet. Diese Errungenschaften sollten nicht leichtfertig aufgegeben werden und werden nicht ohne Grund mit großem Engagement (Paywall) gegen die Rückkehr ins Büro verteidigt.


Die Herausforderung besteht vielmehr darin, Sicherheitsmaßnahmen zu entwickeln, die mit der technologischen Entwicklung Schritt halten. Während KI-Filter immer ausgefeilter werden, müssen auch die Methoden zu deren Erkennung weiterentwickelt werden.


Unternehmen sollten erwägen, stärker in Identitätsüberprüfungen zu investieren, beispielsweise durch sichere digitale Identitätsnachweise oder biometrische Verfahren, die schwieriger zu fälschen sind. Gleichzeitig müssen sie die Balance zwischen Sicherheit und Vertrauen wahren – schließlich sollten legitime Bewerber nicht das Gefühl haben, unter Generalverdacht zu stehen.


Für die Zukunft des Remote-Recruitings bedeutet das: mehr Wachsamkeit, bessere Überprüfungsverfahren und eine kontinuierliche Anpassung an neue Bedrohungen. Die Erfahrungen von Vidoc Security dienen als wichtiger Weckruf, der letztlich dazu beitragen kann, Remote-Einstellungsverfahren sicherer und zuverlässiger zu gestalten.


Bild: Freepik.com

Bleibt mit unserem kostenlosen Newsletter auf dem Laufenden und erhaltet

10 Prozent Rabatt auf eure erste Bestellung in der Golem Karrierewelt:

Themenrelevante Artikel:

Newsletter abonnieren

Melde dich für unseren Newsletter an und erhalte die neuesten Informationen zu Themen rund um deine IT-Karriere.

Alles für deine IT-Karriere

Alles für deine IT-Karriere

Entdecke unser vielfältiges Angebot für deine persönliche und fachliche Weiterentwicklung in der IT. Fachtrainings, E-Learningkurse oder Coachings zu den wichtigsten IT-Themen und Trends in der Golem Karrierewelt.

Jetzt entdecken!
IT-Weiterbildungen für Unternehmen

IT-Weiterbildungen für Unternehmen

Seit Jahren unterstützen wir erfolgreich kleine, mittlere und große Unternehmen bei der Konzeption und Umsetzung von Weiterbildungen für IT-Professionelle. Jetzt über die Angebote für Unternehmen informieren.

Weitere Informationen
IT-Karrieretipps und Services

IT-Karrieretipps und Services

Ob Jobsuche, Sprachen lernen, IT-Fernstudium oder Gehaltsvergleich: Bei uns findest du alles für deine IT-Karriere. Erkunde unseren Karriere-Ratgeber oder nutze das Karriere-Lexikon zu allen relevanten Themen und Begriffen.

Zum IT-Karriere-Ratgeber