Fördert oder verhindert KI den Atomkrieg?

Eine renommierte US-Denkfabrik brachte Atomkrieg- und KI-Experten an einen Tisch.
 
"Wie künstliche Intelligenz das Risiko eines Atomkriegs erhöhen könnte," heisst ein Bericht der US-Denkfabrik RAND.
 
Die Fortschritte bei KI seien "atemberaubend", so der Bericht. Und betrachte man diese in Kombination mit Drohnen, Satelliten und anderen Sensoren so kommen bei den RAND-Forschern Ängste auf: "Die Angst, dass Computer aus Versehen oder Bosheit die Menschheit an den Rand der nuklearen Vernichtung bringen könnten, ist seit den frühesten Tagen des Kalten Krieges präsent. Die Gefahr könnte bald mehr Wissenschaft als Fiktion sein", so der Bericht.
 
Laut den Beteiligten ist ein dem kalten Krieg ähnlicher Rüstungswettkampf um KI-Wissen kombiniert mit dem Wissen um die nuklearen Möglichkeiten der Atomstaaten im Gange. Und - ganz abgesehen von der Destabilisierung des atomaren Gleichgewichts durch Fortschritte mit KI - gebe es auch Hinweise auf "wichtige Entwicklungen" bei Atomwaffen. Ein Beispiel sei "Status-6", eine nuklear getriebene, weit reichende und nuklear bewaffnete Unterwasser-Drohne der Russen, die vermutlich zumindest teilautonom handeln könne.
Ebenso fortgeschrittene US-Systeme werden vom US-Think-Tank nicht genannt.
 
Was tun? Klassische politische Instrumente der Kontrolle und Regulierung greifen bei KI-basierten Nuklearwaffen nicht, waren sich die Experten offenbar einig. Die Kontrolle Künstlicher Intelligenz an sich sei "schwer", man solle sich auf die zugehörigen Komponenten wie Sensoren konzentrieren. Uneinigkeit herrschte unter den Experten, ob man die Hersteller der Komponenten kontrollieren könne oder solle.
 
Keine Aktion ohne Reaktion, so eine weitere Debatte. Oder, anders gesagt: Kann man KI einsetzen, um KI-gestützte Atomwaffen zu kontrollieren? KI könnte für Tasks wie die Vertragsüberprüfung eingesetzt werden, glauben die einen. "Eine Untergruppe schlug provokativ vor, dass ein zukünftiges KI-System im Wesentlichen das Rüstungskontrollregime sein könnte, das die Einhaltung von Übereinkommen überwacht und Verstösse ohne menschliches Zutun analysiert."
 
Ist ein Atomkrieg zu komplex für KI?
Nicht zuletzt haben die Amerikaner darüber nachgedacht, ob man die Rüstungskontrolle auf KI ausweiten wolle. Die meisten waren skeptisch, nicht weil dies nicht machbar wäre, sondern weil man nicht nur die KI-Algorithmen überwachen müsste, sondern auch die KI-Experten.
 
Abgesehen davon beeinflusst die Debatte, wie man die Zukunft von KI beurteilt: Wird KI eine übermenschliche Superintelligenz? Oder nur in isolierten Bereichen? Entwickelt sich KI rasch und in grossen Sprüngen oder inkrementell? Gibt es technologische Obergrenzen oder nicht?
 
Es herrscht offenbar grosse Uneinigkeit unter den Workshop-Teilnehmern. Manche sagen sogar, ein Atomkrieg sei zu komplex für KI, zumindest bis 2040.
 
Aber es gibt auch "Alarmisten" genannte Experten, die vom Gegenteil überzeugt sind oder befürchten, die Menschheit könnte auch durch eine fehlerhafte KI ausgelöscht werden. Und es gibt solche, die irgendwo zwischen diesen Polen argumentieren.
 
Basierend auf dem Beispiel von Googles "DeepMind" trauen Autoren des RAND-Berichts KI zu, bis 2040 eine Rolle als "Trusted Adviser" einnehmen zu können. KI könne auch helfen, verlässliche Frühwarnsysteme einzusetzen, welche menschliche Fehlinterpretationen von gegnerischen Aktivitäten korrigieren könne.
 
Aber das Papier deutet auch an, dass man bis dahin Wege finden muss, um KI-Systeme vor Hackern zu schützen, falls dies denn möglich sei.
 
Vorläufig will die Denkfabrik die Debatte vorantreiben, appelliert an Pragmatismus und bilanziert vorsichtig: "Die Aufrechterhaltung der strategischen Stabilität in den kommenden Jahrzehnten könnte sich als äusserst schwierig erweisen."
 
RAND will seit fast 70 Jahren Entscheidungsträger mit unabhängigen Informationen versorgen und hat laut eigenen Angaben 1700 Mitarbeiter. Dieser Bericht entstand basierend auf mehreren Workshops, die gemeinsam mit 50 "anerkannten KI- und Nuklearsicherheits-Experten" durchgeführt wurden. Er kann als PDF heruntergeladen werden. (Marcel Gamma)