Direkt zum Inhalt
online seit 27.10.2025

#5TageGegenDeepfakes: Auftrag von ganz oben? Wenn sich statt der Chefetage ein Deepfake meldet

Hierarchie, Zeitdruck und Vertraulichkeit: Aus diesen drei Zutaten mixen Kriminelle einen gefährlichen Betrugscocktail. Beim sogenannten CEO-Fraud geben sich Kriminelle als Führungskraft aus und drängen ihre Opfer dazu, so rasch wie möglich eine Überweisung durchzuführen. Mithilfe von Deepfakes kommt nun eine weitere machtvolle Zutat hinzu – Täuschung.

Beispielbild wie Kriminelle die Stimme einer Führungskraft künstlich erzeugt haben.

Typischerweise wird ein CEO-Betrug durch eine Nachricht der vermeintlichen Führungsperson eingeleitet. In der Nachricht wird dem Opfer z. B. eine geplante Unternehmensübernahme vorgespielt. Damit eine rasche Überweisung erfolgt, erzeugen die Betrüger Zeitdruck, z. B. indem die Dringlichkeit rechtlicher Fristen betont wird. Um Gespräche mit Kolleg:innen zu verhindern, wird strikte Vertraulichkeit eingefordert.

Mithilfe von Deepfakes erhält diese Betrugsmasche eine neue Dimension: Betrüger:innen können Stimmen und Gesichter täuschend echt imitieren und so die Autorität und Glaubwürdigkeit ihrer falschen Identität noch überzeugender inszenieren – etwa in einem Video-Call oder Telefonat. Das erhöht das Vertrauen in die Anweisung und damit auch die Bereitschaft zur sofortigen Ausführung.

Ein Mitarbeiter erhält eine E-Mail der Geschäftsführung mit einem Link zu einer kurzfristig anberaumten Video-Konferenz. Das Anliegen klingt wichtig, die Sprache verbindlich:

„Guten Tag, ich wende mich direkt an Sie – wir stehen kurz vor einer wichtigen Übernahme und brauchen Ihre Unterstützung bei der Zahlungsabwicklung. Die Details werden später im Video-Call erläutert, an dem Sie bitte teilnehmen. Behandeln Sie das Projekt streng vertraulich, solange das Geschäft noch nicht unter Dach und Fach ist."

In der Video-Konferenz erscheint die vermeintliche Chef­etage in einer professionellen Besprechungssituation – die Gesichter sind vertraut, die Umgebungen im Hintergrund stimmig und die Tonalität ist bestimmt. Die Führungskraft spricht mit Nachdruck von einer „strategisch wichtigen Übernahme“, nennt konkrete Beträge und weist das Opfer zu einer raschen Überweisung auf ein separates Firmenkonto an – alles in Echtzeit.

Hinter dem Live-Video verbirgt sich allerdings ein mittels KI erzeugter Deepfake. Durch Stimmimitation und die Übertragung von Gesichtern entsteht eine täuschend echte Imitation, die immer weniger als Fälschung erkennbar ist.

Info Icon

Deepfakes sind mit Künstlicher Intelligenz (KI) erzeugte oder manipulierte Bilder, Videos oder Audios. Sie wirken täuschend echt und zeigen Ereignisse oder Aussagen, die in der Realität so nicht stattgefunden haben. Oft ähneln die Inhalte realen Personen, Orten oder Dingen.

Wie konnte die Stimme der Führungskraft nachgestellt werden?

Zuvor hatten Kriminelle öffentlich zugängliche Sprachaufnahmen von Herrn Schuhmanns Führungskraft gesammelt, beispielsweise aus Interviews, Podcasts oder Firmenvideos. Solche Quellen sind bei Vorgesetzten besonders leicht auffindbar, da sie häufig in der Öffentlichkeit stehen.

Mit diesen Audiodaten trainierten die Kriminellen ein KI-Modell, das Stimmen täuschend echt imitieren kann. Das Ergebnis war eine künstlich erzeugte Stimme, die für Herrn Schuhmann nicht von der seiner Führungskraft zu unterscheiden war.

Welche Gefahren gibt es außerdem?

Dass Kriminelle inzwischen ganze Videokonferenzen manipulieren können, zeigt ein aufsehenerregender Fall aus Hongkong im Jahr 2024. Ein Mitarbeiter eines internationalen Unternehmens glaubte, an einer virtuellen Besprechung mit seinem Vorgesetzten teilzunehmen. Während des Gesprächs erhielt er die Anweisung, eine hohe Summe zu überweisen. Rund 24 Millionen Euro landeten auf den Konten der Kriminellen, welche die Videokonferenz täuschend echt inszeniert hatten.

Doch nicht immer sind es vermeintliche Vorgesetzte, die in Deepfake-Angriffen nachgeahmt werden. Auch Journalist:innen, Mitarbeitende in Partnerunternehmen und andere unternehmensrelevante Personen können Ziel solcher Manipulationen sein. Fast immer zielen die Kriminellen darauf ab, an Geld oder sensible Unternehmensdaten zu kommen.

Woran kann lassen sich Deepfakes erkennen?
  • Inhaltliche Ungereimtheiten: Ungewöhnliche Aufforderungen oder besonders eilige Zahlungsanweisungen deuten auf einen möglichen Betrugsversuch hin. Hier hilft es einen Schritt zurückzumachen, innezuhalten und keine voreiligen Entscheidungen zu treffen. Legen Sie auf, rufen Sie Ihre Führungskraft zurück und versichern Sie sich, dass der Auftrag echt ist!

  • Ungewöhnliche Kanäle: Nachrichten von privaten E-Mail-Adressen, unbekannten Telefonnummern oder über Messenger-Apps sollten kritisch geprüft werden.

  • Falsche Ansprache: Wenn Sie Ihre Führungskraft normalerweise duzen, im E-Mail-Verkehr aber plötzlich gesiezt werden oder andere Auffälligkeiten im Schreibstil auftreten, kann dies ein Hinweis auf Manipulation sein.

  • Unnatürliche Lippenbewegungen oder Mimik: In Videos stimmen Lippenbewegungen, Augenblinzeln oder Gesichtsausdrücke oft nicht genau mit der Stimme oder dem gesprochenen Text überein.

  • Verzerrte oder künstlich klingende Stimmen: Auch realistisch klingende Telefonate oder Audioaufnahmen können kleine Verzerrungen, Wortwiederholungen oder unnatürliche Betonungen enthalten.

Mein Unternehmen ist betroffen! Was kann ich tun?
  • Bank oder Kreditinstitut informieren: Falls bereits eine Überweisung veranlasst wurde, versuchen Sie umgehend, die Zahlung zu stoppen.

  • Verdächtige E-Mails weiterleiten: Leiten Sie betrügerische Nachrichten an die IT-Abteilung oder zuständige Sicherheitsverantwortliche weiter, damit Kolleg:innen gewarnt werden können.

  • Absender prüfen: Weisen Sie Mitarbeitende (insbesondere jene die Zahlungen freigeben), darauf hin, die Absenderadresse in E-Mails genau zu prüfen. Bei Auffälligkeiten oder Ungereimtheiten sollten sie die betreffende Führungskraft über einen anderen Kommunikationsweg kontaktieren – auch wenn diese angeblich nicht erreichbar ist.

  • Mitarbeiter:innen sensibilisieren: Veranlasssen Sie regelmäßig Schulungen zu aktuellen Betrugsmaschen.

  • Polizei einschalten: Erstatten Sie Anzeige, um rechtliche Schritte einzuleiten und den Vorfall zu dokumentieren.

Mehr Informationen finden Sie unter: https://research.oiat.at/de/defame-fakes

Link kopiert