Werden nun auch Deepfake-Voicemails für CEO-Fraud verwendet?

28. Juli 2020, 14:01
image

War das wirklich der CEO, der gerade am Telefon eine Überweisung angeordnet hat – oder eine Maschine?

Dass durch Machine-Learning-Verfahren erzeugte Stimm-Imitationen auch von Cyberkriminellen für Betrugsversuche verwendet werden könnten, wird schon seit einiger Zeit vermutet. Wie 'Motherboard' berichtet, verdichten sich nun die Anzeichen dafür, dass dies auch tatsächlich geschieht.
Im Juni erhielt laut 'Motherboard' ein Angestellter einer US-Firma aus dem Tech-Bereich eine Voicemail, die angeblich von seinem CEO stammte. Dieser bat ihn darin, ihm dabei zu helfen, einen dringlichen Business-Deal abzuschliessen. Der Angestellte stufte die Nachricht aber als verdächtig ein und der Audioclip wurde daraufhin vom Security-Unternehmen Nisos analysiert.
Dieses kam zum Schluss, dass es sich tatsächlich um eine mittels Computern erzeugte Stimmimitation handelte, einen sogenannten Audio-Deepfake. Welches Unternehmen das Opfer war und welchen Betrag die Betrüger erschleichen wollten, gab Nisos aber nicht bekannt. Via diesen Link kann man sich einen kurzen Ausschnitt der Voicemail anhören.
Schon Ende April berichtete das 'Wall Street Journal' (Paywall), dass eine britische Firma möglicherweise das Opfer eines Betrugs mittels Deepfake-Audio-Aufnahme wurde. Damals ging es um einen Betrag von 243'000 Pfund, der auch tatsächlich überwiesen wurde. Der CEO des britischen Unternehmens glaubte, am Telefon mit dem Chef seines deutschen Mutterunternehmens zu reden.
Die Ermittlungen zu diesem Fall verliefen aber im Sand, die Schuldigen wurden nicht gefunden.
Um Audio-Deepfakes herzustellen, brauchen die Betrüger eine genügende Menge an Tonaufnahmen einer Person, die sie verkörpern möchten. Im Falle von CEOs und anderen Führungspersonen von grösseren Firmen dürften solche Aufnahmen vor allem in Form von Keynotes und anderen Reden im Internet zu finden sein. Das Tonmaterial wird dann durch Machine-Learning-Algorithmen analysiert, welche schlussendlich eine Imitation der Stimme erzeugen können, die einen beliebigen Text sprechen kann.
Allerdings gibt es auch andere klassische Methoden, um Stimmen elektronisch nachzuahmen beziehungsweise zu verfälschen, vor allem wenn die Betrüger einen talentierten Simm- und Akzent-Imitator in ihren Reihen haben. Gerade im Fall aus dem April scheint es unklar, ob nicht auch eine solch traditionelle Methode eingesetzt worden sein könnte.

Loading

Mehr zum Thema

image

Cybersecurity bei EY

Mit dem Cybersecurity Team unterstützen wir bei EY unsere Kundinnen und Kunden bei der Risikominimierung von Cyberangriffen.

image

Gibt Swisscom im Glasfaserstreit nach?

Bald können private Kundinnen und Kunden bei Swisscom wieder Glasfaser-Anschlüsse bestellen – und zwar in Form einer P2P-Anbindung.

publiziert am 6.10.2022 3
image

Cyberkriminelle veröffentlichen Daten von Läderach

Einen Monat nach dem Cyberangriff auf den Schweizer Chocolatier sind mehrere Datenpakete im Darknet aufgetaucht. Läderach erklärt uns, die Situation genau zu beobachten.

publiziert am 6.10.2022
image

Kapo Zürich kauft Unterwasser-Suchroboter

Der 300'000 Franken teure Roboter soll künftig nach vermissten Personen oder Gegenständen suchen.

publiziert am 6.10.2022