Unternehmen, die KI-Systeme entwickeln, spielen wohl alle auch irgendwie mit Dynamit. Risikoabschätzungen sind schwierig und werden oft gar nicht erst versucht.
Wissenschaftliche Methoden zur Abschätzung von katastrophalen Risiken, die von KI-Systemen ausgehen könnten, seien noch weit von dem entfernt, was man eigentlich brauchen würde, schreibt OpenAI dazu. Um solche Methoden weiterzuentwickeln und im eigenen Unternehmen feste Prozesse zur Risikoabschätzung zu etablieren, hat der Entwickler von ChatGPT ein
"Preparedness Framework" (PDF) vorgestellt.
Bei diesem Papier handle es sich um ein "lebendes Dokument", das kontinuierlich weiterentwickelt werden soll, betont OpenAI. Das Hauptziel der damit vorgeschlagenen Massnahmen ist es, hohe Risiken, die von KI-Systemen ausgehen, schon vor oder zumindest während der Entwicklung zu erkennen. Die Systeme sollen dafür in 4 Risikostufen eingeteilt werden, von niedrig über mittel bis hoch und kritisch.
Systeme, deren Risiko als niedrig oder mittel eingestuft wird, sollen sowohl entwickelt als auch eingesetzt werden dürfen. Auch Systeme mit hohem oder kritischem Risiko will OpenAI intern weiterentwickeln, sie sollen aber nicht eingesetzt werden.
Dies dürfte kaum dazu beitragen, Bedenken in der Öffentlichkeit und Politik nachhaltig zu zerstreuen. Wieso will OpenAI hochgefährliche KI-Systeme entwickeln, auch wenn sie angeblich nicht eingesetzt werden? Diese Frage wird im Open-AI-Papier zum Preparedness Framework nicht beantwortet.
Risiken von Cybersecurity bis zu Superintelligenzen
Im Framework werden gegenwärtig 4 Hauptkategorien von Risiken genannt, die kontinuierlich bewertet werden sollen: Cybersecurity, Hilfe bei der Entwicklung von Massenvernichtungswaffen, Meinungsmanipulation und autonom werdende KI-Modelle.
Letzteres beinhaltet Risiken, dass sich selbst verbessernde KI-Modelle autonom werden und unvorhergesehene Verhaltensweisen entwickeln. Auf der höchsten Risikostufe wären Systeme, die sich der menschlichen Kontrolle weitgehend entziehen, ihre eigene Abschaltung verhindern und sich selbst replizieren könnten. Mit einem Wort, die von vielen KI-Experten befürchteten "Superintelligenzen".
Das Risiko Cybersicherheit umfasst KI-gestütze Angriffsszenarien auf Infrastrukturen. Meinungsmanipulation (Persuasion) meint das Risiko, dass bestimmte KI-Systeme dazu verwendet werden können, um die Überzeugungen von Menschen zu manipulieren und zu ändern. Zudem soll auch das Risiko abgeschätzt werden, ob eine KI dazu benutzt werden kann, um nukleare, biologische oder chemische Massenvernichtungswaffen zu entwickeln.
Während der Entwicklung eines KI-Modell sollen diese Risiken kontinuierlich bewertet werden, so dass OpenAI auch reagieren kann, wenn sich die Gefahrenlage während eines Entwicklungsprozesses ändert.
Konkrete Massnahmen
Um diese kontinuierliche Überwachung zu gewährleisten, will OpenAI eine Suite von Monitoring- und Evaluationstools entwickeln. Die Bewertung soll auch eine Prognose der zukünftigen Risikoentwicklung beinhalten, so dass frühzeitig Massnahmen ergriffen werden könnten.
OpenAI nimmt sich zudem vor, nach weiteren, heute noch unbekannten Risiken zu suchen und diese falls notwendig zur Liste der überwachten Risiken hinzuzufügen.
Die Überwachungs- und Evaluationsmassnahmen sollen von einem dedizierten "Preparedness"-Team durchgeführt werden. Dieses Team wird an die ebenfalls neue "Security Advisory Group" berichten. Diese soll aus Expertinnen und Experten aus dem ganzen Unternehmen bestehen und ihrerseits der Geschäftsleitung und dem Verwaltungsrat Empfehlungen dazu abgeben, was aufgrund der Risikoevaluationen geschehen soll.