Forscher warnen vor grossen und neuartigen Risiken durch KI

KI kann erfolgreich gegen IT-Security, Menschen und Staaten eingesetzt werden, so 26 Experten. Sie haben vier Empfehlungen.

Reichen diese vier Prognosen, um sich vor Künstlicher Intelligenz (KI) zu fürchten und um nach Massnahmen zu rufen?
  • Prognose 1: KI bringt ungeahnte Möglichkeiten, um automatisiert Schwachstellen in Programmiercode zu finden.
  • Prognose 2: Wir dürften automatisierte Social-Engineering-Attacken sehen, bei welcher sich Hacker durch manipulierte Sprach- oder Gesichtserkennung als Zielperson ausgeben.
  • Prognose 3: Ein IT-Laie könnte als Attentäter Drohnenschwärme mit Gesichtserkennungs-Software auf eine bestimmte Zielperson hin trainieren.
  • Prognose 4: Mit "Fake-Videos", die Regierungsvertreter zeigen sollen, werden automatisierte Desinformationskampagnen durchgeführt.
Bei allen positiven Resultaten von KI solle man nun auch die Risiken der Technologie debattieren, denn KI sei eine "Dual-Use-Technologie", schreiben die Autoren des Berichts "The Malicious Use of Artificial Intelligence", der soeben publiziert worden ist. Die 26 Verfasser sind weder Esoteriker noch Ewiggestrige, sondern Risikoforscher an der Universität Cambridge, Zukunftsforscher in Oxford, gehören zur von Microsoft, AWS und Elon Musk gesponserten Forschungsvereinigung OpenAI, den digitalen Bürgerrechtlern der Electronic Frontier Foundation oder zum Security-Think-Tank New American Security.
 
"Eine immer komplexere künstliche Intelligenz wird eine Welt schaffen, die seltsam und anders ist als diejenige, die wir gewohnt sind, und es gibt ernsthafte Risiken, wenn diese Technologie für die falschen Zwecke verwendet wird", so leiten die Autoren ihren 100-seitigen Bericht ein. Diese Risken beträfen nicht nur die Cyber-Security, sondern auch die physische und die politische Sicherheit.
 
Dabei würden sich nicht nur bekannte Bedrohungen ausweiten, sondern es kämen neue Bedrohungen hinzu. Und "last but not least" werde sich der Charakter von Bedrohungen komplett ändern: "Wir glauben, dass es Grund zu der Annahme gibt, dass Angriffe, die erst durch den Einsatz von KI möglich werden, besonders effektiv, zielgerichtet und schwer zuzuordnen sind; und sie werden wahrscheinlich Schwachstellen in andern KI-Systemen ausnutzen".
 
Cyber-Security kommt zuerst ins Visier
Die Autoren merken an, dass KI einzelne Fähigkeiten von Menschen übertreffe, weisen gleichzeitig auch darauf hin, dass KI-Systeme diverse Schwächen zeigen und auf ganz andere Weise versagen als Menschen.
 
Zeitlich gesehen rechnen die Autoren damit, dass der IT-Security-Bereich als erster neue Risiken zu bewältigen hat: "Cybersecurity ist eine Arena, in der KI-Technologien sowohl für Attacken als auch für die Verteidigung früh und enthusiastisch eingesetzt werden". Es gebe schon Machine-Learning-basierte Angriffsmöglichkeiten, die auch für KI-basierte Abwehr unentdeckbar bleiben. Diese Gefahr verstärke sich, weil das Vertrauen von Security-Experten in KI-Security relativ klein sei und die heutigen Lösungen nicht für die Abwehr von KI-basierten Attacken entwickelt wurden.
 
Neben den Risiken durch Drohnen und autonome Waffensysteme sowie durch das Hacken von Robotern widmen die Autoren der Demokratie viel Raum. Für die Experten ist klar, dass KI in Kombination mit Social-Media die politischen Debatten rasch und stärker verändern wird als "Fake News" dies aktuell tun: Der "breitere und raffiniertere Einsatz von autonomen Software-Akteuren ist mit heutigen KI-Technologien möglich".
 
Empfehlungen für Informatiker, Forscher und Politiker
Bei all den Risiken gebe es, so die Autoren, relativ einfach umsetzbare Security-Massnahmen für KI-Technologie wie auch beim Schutz von Menschen, Firmen und Staaten. Eine Massnahme sei mehr Transparenz über entdeckte Lücken, eine andere liege im Konsumentenschutz, eine dritte in Standardisierung. Auch die Tech-Giganten seien in der Verantwortung und es gebe Incentives, damit sie für Mindeststandards zusammenarbeiten.
 
Die Autoren schreiben, sie seien unter sich teilweise uneins, was KI an Risiken kreiert und wie man diese einzuschätzen habe. Es sei ein zu grosses, offenes Feld.
 
Aber in ihren Empfehlungen sind sie sich einig: Politiker sollten eng mit Tech-Forschern zusammenarbeiten, um mögliche bösartige Anwendungen von KI zu untersuchen, zu verhindern und deren Risiken zu mindern.
 
Forscher und Engineers sollten die "Dual-Use"-Natur ihrer Arbeit ernst nehmen und ihre Forschungsprioritäten, Normen und Diskurse entsprechend ausrichten.
 
Zudem sollten Best Practices in der Forschung etabliert werden, um "Dual-Use"-Probleme diskutieren und lösen zu können.
 
Man müsse insgesamt mehr Stakeholder – ob Interessengruppen oder Fachexperten – an der Debatte beteiligen. Und so mündet der Bericht in einen Aufruf: "Wir fordern die Leser auf, Möglichkeiten zu prüfen, wie sie selbst das kollektive Verständnis der KI-Sicherheitsfragen vorantreiben und sich dem Dialog anschliessen können." (Marcel Gamma)