Analysten des Security-Anbieters Sophos haben Darkweb- und Cybercrime-Foren untersucht, um herauszufinden, wie Hacker sich moderne KI-Tools zu Nutze machen. Die meisten Bedrohungsakteure, so das Fazit, scheinen nicht sonderlich begeistert von generativer KI zu sein.
So gebe es keine Hinweise, dass Cyberkriminelle Künstliche Intelligenz breit für die Entwicklung neuer Exploits oder Malware einsetzen. In Forumsbeiträgen sehe man sogar Kritik an Akteuren, die KI für die Erstellung von Beiträgen oder Code verwenden. Ein Bedrohungsakteur habe seine Kollegen gefragt, ob es möglich sei, "Stimmenklonen zur Erpressung von Politikern und grossen Krypto-Influencern" einzusetzen. Daraufhin habe ihn ein Nutzer beschuldigt, ein Bundesagent zu sein, beschreibt Sophos ein Beispiel.
Überhaupt sei Skepsis und Misstrauen gegenüber KI weit verbreitet, sowohl aus OpSec-Perspektive, als auch in dem Sinn, dass viele Cyberkriminelle sie für überbewertet und für ihre Zwecke ungeeignet halten, heisst es in dem Report weiter.
Die unmittelbare Gefahr bestehe viel mehr darin, dass Kriminelle legitime Tools missbrauchen, die öffentlich oder kommerziell verfügbar sind. Sophos merkt aber an, dass diese Schlussfolgerung auf den eigenen Beobachtungen in einer Auswahl von Foren beruht und nicht zwingend für die gesamte Bedrohungslandschaft gelte.
KI, um Zeit zu sparen
Eine nennenswerte Entwicklung im vergangenen Jahr ist laut dem Report aber die Einbindung generativer KI in eine handvoll Toolkits für Spamming, Massen-E-Mails, Social Engineering sowie das Durchsuchen grosser Datensätze.
Cyberkriminelle seien wahrscheinlich – wie alle anderen auch – darauf erpicht, langwierige, monotone und umfangreiche Arbeiten zu automatisieren. "Wie viele Forumsteilnehmer feststellten, scheint generative KI in ihrer jetzigen Form für diese Art von Aufgaben geeignet zu sein, nicht aber für differenziertere und komplexere Arbeiten", schliesst Sophos.