Security: Bald kommen KI-basierte Attacken

Beispiel eines halluzinierenden Bilderkennungssystems.
Machine-Learning-Systeme werden eingesetzt, um Machine-Learning-Systeme zu knacken.
 
Cyberkriminelle versuchen traditionell, neuste Technologien zu nutzen, um den Cyberverteidigern eine Nasenlänge voraus zu sein. Viele Security-Experten glauben daher, dass Machine Learning und Künstliche Intelligenz bald auch für Cyberattacken genutzt werden. Der Security-Anbieter Avast beispielsweise prophezeit in seinem "Threat Landscape Report 2018 (PDF), dass noch dieses Jahr die ersten KI-basierten Attacken erfolgen werden.
 
"Die wachsende Anzahl von Open Source Frameworks für maschinelles Lernen, in Verbindung mit sinkenden Preisen für leistungsstarke Hardware, eröffnen Cyberkriminellen neue Möglichkeiten. Sie können jetzt auch maschinelle Lerntechnologien nutzen, um die ebenfalls auf selbstlernender Software basierenden Algorithmen der Sicherheitsfirmen zu überlisten", sagt Ondrej Vlcek, CTO & EVP bei Avast. "Wir gehen davon aus, dass Internetkriminelle künstliche Intelligenz so einsetzen werden, dass sie damit nicht nur Malware-Attacken, sondern auch ausgeklügelte Phishing-Kampagnen durchführen können."
 
Beim Einsatz von maschinellem Lernen und KI durch Cyberkriminelle muss man im Prinzip zwei Varianten unterscheiden: Einerseits könnten sie die Technologie benützen, um die Effizienz von klassischen Angriffsvektoren wie Phishing-Mails, -Tweets usw. zu erhöhen. Andererseits könnten sie Machine Learning benützen, um ihrerseits gezielt Schwachstellen in Systemen zu finden, die selbst ebenfalls auf Machine Learning basieren.
 
Machine-Learning-Plattformen, so Avast, haben oft ähnliche Schwächen wie menschliche Hirne: Sie haben "blinde Flecken" – sprich Muster, die sie schlicht nicht sehen können – und sie können "halluzinieren" – also Dinge sehen, die nicht vorhanden sind.
 
Ein logisches erstes Angriffsziel wären die heutzutage immer mehr auf Machine Learning basierenden Malware-Erkennungssysteme der Security-Anbieter. Wenn Cyberkriminelle ein solches System in die Hände bekommen, so Avast, dann könnten sie es gezielt mit Malware-Mustern füttern um herauszufinden, wie hoch die Wahrscheinlichkeit ist, dass ein bestimmtes Muster erkannt wird. Darauf basierend könnten sie wiederum weitere Muster testen, um gezielt blinde Flecken zu finden.
 
Machine Learning ist auch die Methode der Wahl, um Muster zu finden, die insbesondere Bilderkennungssysteme zum Halluzinieren zu bringen können. Security-Forscher haben dies in den letzten Monaten einige Male geschafft. Avast präsentiert ein Beispiel: Das Bild eines Pandas kann mit einem ganz spezifischen, dem normalen Bildrauschen ähnelnden Muster ergänzt werden, und wird dann vom Bilderkennungssystem fast immer als Gibbon identifiziert (Siehe Illustration).
 
Eine weitere Methode um KI-Systeme anzugreifen, über die in letzter Zeit viel diskutiert wird, ist das "Vergiften" der Daten, mit denen die Systeme trainiert werden. Man könnte einem System zur Malware-Erkennung beispielsweise zuerst viele saubere Files präsentieren, um es zu trainieren, diese als harmlos zu identifizieren. Danach wird es mit nur ganz leicht abgeänderten, aber nun bösartigen Files gefüttert, so dass auch diese als gutartig eingestuft werden. Avast glaubt, dass auch diese Methode des "Vergiftens" von KI-Systemen von Kriminellen schon dieses Jahr angewandt werden wird. (hjm)