Werden nun auch Deepfake-Voicemails für CEO-Fraud verwendet?

28. Juli 2020 um 14:01
image

War das wirklich der CEO, der gerade am Telefon eine Überweisung angeordnet hat – oder eine Maschine?

Dass durch Machine-Learning-Verfahren erzeugte Stimm-Imitationen auch von Cyberkriminellen für Betrugsversuche verwendet werden könnten, wird schon seit einiger Zeit vermutet. Wie 'Motherboard' berichtet, verdichten sich nun die Anzeichen dafür, dass dies auch tatsächlich geschieht.
Im Juni erhielt laut 'Motherboard' ein Angestellter einer US-Firma aus dem Tech-Bereich eine Voicemail, die angeblich von seinem CEO stammte. Dieser bat ihn darin, ihm dabei zu helfen, einen dringlichen Business-Deal abzuschliessen. Der Angestellte stufte die Nachricht aber als verdächtig ein und der Audioclip wurde daraufhin vom Security-Unternehmen Nisos analysiert.
Dieses kam zum Schluss, dass es sich tatsächlich um eine mittels Computern erzeugte Stimmimitation handelte, einen sogenannten Audio-Deepfake. Welches Unternehmen das Opfer war und welchen Betrag die Betrüger erschleichen wollten, gab Nisos aber nicht bekannt. Via diesen Link kann man sich einen kurzen Ausschnitt der Voicemail anhören.
Schon Ende April berichtete das 'Wall Street Journal' (Paywall), dass eine britische Firma möglicherweise das Opfer eines Betrugs mittels Deepfake-Audio-Aufnahme wurde. Damals ging es um einen Betrag von 243'000 Pfund, der auch tatsächlich überwiesen wurde. Der CEO des britischen Unternehmens glaubte, am Telefon mit dem Chef seines deutschen Mutterunternehmens zu reden.
Die Ermittlungen zu diesem Fall verliefen aber im Sand, die Schuldigen wurden nicht gefunden.
Um Audio-Deepfakes herzustellen, brauchen die Betrüger eine genügende Menge an Tonaufnahmen einer Person, die sie verkörpern möchten. Im Falle von CEOs und anderen Führungspersonen von grösseren Firmen dürften solche Aufnahmen vor allem in Form von Keynotes und anderen Reden im Internet zu finden sein. Das Tonmaterial wird dann durch Machine-Learning-Algorithmen analysiert, welche schlussendlich eine Imitation der Stimme erzeugen können, die einen beliebigen Text sprechen kann.
Allerdings gibt es auch andere klassische Methoden, um Stimmen elektronisch nachzuahmen beziehungsweise zu verfälschen, vor allem wenn die Betrüger einen talentierten Simm- und Akzent-Imitator in ihren Reihen haben. Gerade im Fall aus dem April scheint es unklar, ob nicht auch eine solch traditionelle Methode eingesetzt worden sein könnte.

Loading

Mehr zum Thema

image

Cyberkriminelle stehlen schützenswerte Daten von Franz Carl Weber

Die Ransomware-Bande Black Basta behauptet, über 700 GB an Daten des Spielwaren-Händlers ergaunert zu haben. Darunter finden sich vor allem persönliche Daten von Angestellten. Das Mutterhaus bestätigt den Angriff.

publiziert am 1.3.2024 1
image

Vogt am Freitag: "Wir nehmen das ernst"

Cyberangriffe auf Unternehmen zeigen, wie fahrlässig diese mit schützenswerten Daten umgehen. Die meisten nehmen das Thema erst dann ernst, wenn es zu spät ist. Wenn überhaupt.

publiziert am 1.3.2024 1
image

Zürcher Securosys stellt Sicherheits­modul für Post-Quantum-Welt vor

Das neue Hardware-Sicherheitsmodul (HSM) unterstützt aktuelle wie auch die neuen Quanten-sicheren Algorithmen und soll sich so für den hybriden Einsatz eignen.

publiziert am 1.3.2024
image

Podcast: Sind die Bemühungen gegen Ransomware-Banden aussichtslos?

Lockbit und Alphv wurden zerschlagen – und waren Tage danach wieder aktiv und drohen mit Vergeltung. Wir diskutieren, ob die Bemühungen gegen Ransomware aussichtslos sind.

publiziert am 1.3.2024