With Great Power Comes Great Responsibility

Ein Gastbeitrag von Kaspar Etter zur Zukunft der künstlichen Intelligenz.
 
Anfangs Januar veröffentlichte das Future of Life Institute einen offenen Brief, in welchem vor den Risiken der künstlichen Intelligenz gewarnt wurde. Zu den Unterzeichnern des Briefes gehören namhafte Persönlichkeiten wie Stuart Russell, Peter Norvig, Tom Dietterich, Nick Bostrom, Max Tegmark, Jaan Tallinn, Stephen Hawking, Sam Harris und viele mehr. In der Woche darauf liess Elon Musk, Gründer von Paypal, Chef von SpaceX, Solarcity und Tesla Motors, den Worten bereits Taten folgen: Er spendete 10 Millionen Dollar an das Future of Life Institute, um Forschung zu fördern, welche eine positive Entwicklung der künstlichen Intelligenz gewährleisten soll.
 
Was ist da los? Haben Schweizer Experten nicht erst kürzlich Entwarnung gegeben? Wir müssten uns keine Sorgen machen, da wir Robotern stets den Stecker ziehen können, meinte Joachim Buhmann von der ETH Zürich. Wenn zwei sich uneinig sind, liegt mindestens einer falsch. Der folgende Artikel soll darlegen, weshalb ich es in der heutigen Welt für wahrscheinlicher halte, dass künstliche Intelligenz uns längerfristig (vielleicht wortwörtlich) den Stecker zieht als umgekehrt.
 
Demystifizierung von Intelligenz
Jede vernünftige Diskussion sollte mit einer Klärung der Begriffe beginnen, um sicherzustellen, dass alle vom Gleichen sprechen. Eine nützliche Definition von Intelligenz ist, dass sie die Fähigkeit eines Akteurs misst, seine Ziele in einem weiten Spektrum von unbekannten Umgebungen zu erreichen. Eine solche enge Auslegung von Intelligenz setzt nur voraus, dass der Akteur mit seiner Umwelt interagieren und dabei lernen und planen kann. Aber ist ein solcher Roboter wirklich intelligent? Diese Frage scheint nicht sinnvoller zu sein als die Frage, ob ein Unterseeboot wirklich schwimmen oder ein Flugzeug wirklich fliegen kann. Die zugrunde liegenden Prozesse mögen anders sein als bei Tieren, doch hat dies bisher noch kaum jemanden gekümmert, der in ein Unterseebot oder Flugzeug gestiegen ist. (Ob eine Maschine eine Art von Bewusstsein erlangen kann, ist zwar ethisch hochrelevant, jedoch keine logische Notwendigkeit dafür, die Welt entsprechend den einprogrammierten Präferenzen umgestalten zu können.)
 
Der Trend zur Automatisierung
Seit Jahrtausenden tüftelt der Mensch an Technologien, welche die Produktivität steigern und das Leben erleichtern. Neue wissenschaftliche Erkenntnisse ermöglichten über die vergangenen Jahrzehnte einen enormen Fortschritt. Das ist nicht weiter erstaunlich, denn der Marktdruck in diese Richtung ist in unserem kapitalistischen System gewaltig. Und was ist die ultimative Produktivitätssteigerung? Künstliche Intelligenz.
 
Künstliche Intelligenz ist aber nicht eine Technologie wie jede andere. Intelligenz ist die Technologie, welche weitere Technologien hervorbringt. Wir Menschen herrschen über die Welt, nicht weil wir das stärkste oder das schnellste, sondern weil wir das schlauste Tier auf diesem Planeten sind. Es gibt aber keinen Grund zur Annahme, dass wir durch blinde evolutionäre Prozesse eine physikalische Grenze bezüglich Intelligenz erreicht haben. Ganz im Gegenteil: Wir können förmlich zuschauen, wie Computer die Leistungen der besten Menschen auf einem Gebiet nach dem anderen übertreffen. 1997 schlug der Supercomputer Deep Blue von IBM den damaligen Weltmeister Garry Kasparov im Schach, 2011 gewann IBMs Watson die Spielshow Jeopardy! und im gleichen Jahr erzielten die Deep Learning Algorithmen des Teams um Jürgen Schmidhuber erstmals eine höhere Trefferquote beim Erkennen von Verkehrsschildern als die menschliche Kontrollgruppe.
 
Seit einigen Monaten kann ein Programm von Google den Inhalt komplexer Bilder beschreiben und Facebook erkennt beinahe so gut wie Menschen, ob auf verschiedenen Fotos die gleiche Person abgebildet ist. Welche Auswirkungen Software, die sehen kann, auf unsere Privatsphäre hat, kann sich jeder selbst ausmalen. Schnellere Hardware, bessere Algorithmen und massive Datensätze haben der künstlichen Intelligenz zum Durchbruch verholfen. Auch nur kleinste Verbesserungen sind plötzlich Milliarden wert.
 
Derweil buhlen Firmen wie Apple mit Siri, Google mit Now, Microsoft mit Cortana oder Amazon mit Echo und Jibo mit ihren digitalen Assistenten um die Gunst der Kunden in der Hosentasche und im Wohnzimmer. Mit den Daten, welche sie dabei sammeln, können sie ihre Produkte weiterentwickeln, um mit ihnen in wenigen Jahren um die Vormachtstellung im Büro zu kämpfen. Je mehr User die Dienste verwenden, desto besser werden sie. Wer jetzt vorne ist, wird es vermutlich lange bleiben. Das Wettrüsten hat begonnen.
 
Viele Arbeitnehmende werden bei solch rasanten Entwicklungen nicht mehr lange mithalten können. Wann und in welchen Jobs menschliche Mitarbeitende von der Automatisierung obsolet gemacht werden, ist schwer vorauszusagen. Mit einiger Wahrscheinlichkeit wird es aber zuerst Rechercheure, Diagnostiker, Kundenbetreuer und Übersetzer treffen, gefolgt von den Angestellten im Transportwesen und Versand. Wer glaubt, dass kreative Berufe uns retten werden, hat sich wohl zu früh gefreut. Die industrielle Revolution ersetzte physische mit intellektueller Arbeit. Nach der sich anbahnenden digitalen Revolution wird uns wohl nicht mehr viel bleiben. Während Löhne gegen Null tendieren, wird Vermögen dank automatisierter Produktivität ins Unermessliche steigen. Wie man am Arbeitsmarkt in den Südstaaten der Europäischen Union sehen kann, ist unsere Gesellschaft nur sehr schlecht auf den bevorstehenden Wandel vorbereitet.
 
Der Trend zur Autonomie
In vielen Gebieten gibt es neben der Produktivitätssteigerung von (noch) Angestellten auch enorme Anreize, den Menschen gleich ganz aus der Schleife zu nehmen. Mitarbeitende aus Fleisch und Blut sind nicht nur teuer und unzuverlässig, sondern auch viel zu langsam, wenn es beispielsweise darum geht, Transaktionen in Millisekunden abzuwickeln, wie das beim Hochfrequenzhandel der Fall ist. Dabei treten Algorithmen gegeneinander an und es findet eine natürliche Selektion statt, welche die Entwicklung beschleunigt: Sieger gedeihen und geben ihren Code weiter, Verlierer sterben. Welche Probleme können dabei entstehen? Einerseits verwenden solche Algorithmen häufig Black-Box-Techniken wie neuronale Netze, die mit grossen Datenmengen trainiert werden, deren Verhalten jedoch nicht mit formalen Methoden überprüft werden kann. Dies birgt Risiken, weil niemand genau versteht, wie und warum die Algorithmen so entscheiden, wie sie es gerade tun. Andererseits handeln Computer schneller, als Menschen reagieren können, wie das der Flash Crash vom 6. Mai 2010 gezeigt hat, als der Dow Jones Index innerhalb von wenigen Minuten über 9 Prozent verlor. Wie anfällig unsere Wirtschaft ist, demonstrierte im gleichen Jahr auch der Computerwurm Stuxnet. Solche Fälle wie auch die Finanzkrise ab 2007 machen offensichtlich, dass die Kontrolle komplexer Systeme nicht unsere Stärke ist. Davor warnt ETH-Professor Dirk Helbing schon länger.
 
Neben den Finanzmärkten beginnen wir aber auch den Krieg zu automatisieren, da er für die eigenen Soldaten zu gefährlich ist und Roboter und Drohnen viel effektivere Kriegsmaschinen sind. Der Befehl zum Töten wird bisher meistens noch von einem Menschen gegeben, doch technisch ist dieser Schritt längst überflüssig. Die anfallenden Datenmengen lassen sich nur noch mit künstlicher Intelligenz filtern und aufgrund erhöhter Reaktionsfähigkeit sowie geringerer Störanfälligkeit sind vollständig autonome Waffen nur eine Frage der Zeit. Wie wir es gerade beim Cyberwar erleben, wird dies die Hemmschwelle heruntersetzen und das historische Machtverhältnis auf den Kopf stellen. Zum ersten Mal in der Menschheitsgeschichte werden Staaten und kriminelle Organisationen keine Männer mehr brauchen, welche für sie in den Kampf ziehen. In Zeiten zunehmender Radikalisierung sind das keine rosigen Aussichten, doch das internationale Bewusstsein wächst in diesem Bereich stetig. Neben vielen ethischen sind auch zahlreiche juristische Fragen noch ungeklärt: Wer haftet bei Fehlern? Wer wird bestraft? Und wie soll Autonomie überhaupt definiert werden? Mir ist keine Technologie bekannt, die nicht auch für militärische Zwecke eingesetzt wurde. Willkommen zum Rüstungswettstreit des 21. Jahrhunderts!
 
Eine tickende Zeitbombe
Bisher folgte die Forschung an künstlicher Intelligenz blind dem Ruf der Sirenen. Was passiert aber, wenn sie ihr Ziel, die Schaffung einer dem Menschen ebenbürtigen Intelligenz, erreicht? Da wir nicht wissen, wer sie unter welchen Umständen bauen wird, können wir keine Voraussagen über die Nutzenfunktion (d.h. die Präferenzen zwischen verschiedenen Weltzuständen) einer solchen Intelligenz machen. Jede nutzenmaximierende künstliche Intelligenz wird zur Erreichung ihrer Ziele aber bestimmte Zwischenziele verfolgen. Um ihre Ziele überhaupt erreichen zu können, wird sie einen (bloss instrumentellen) Selbsterhaltungstrieb haben sowie ihre ursprüngliche Nutzenfunktion vor Veränderungen schützen. Um ihre Ziele besser erreichen zu können, wird sie möglichst viel Energie und Rohstoffe erwerben sowie bestrebt sein, sich selber zu verbessern.
 
Der letztgenannte Drang wird vermutlich zu einer Intelligenzexplosion führen, bei welcher sich die künstliche Intelligenz immer weiter optimiert. Dabei handelt es sich, wie bei einem postulierten Teilchen in der Physik, um ein theoretisches Phänomen, für dessen Existenz es gute Gründe gibt, es jedoch noch nicht experimentell bestätigt wurde. Anders als bei einer Kernschmelze, bei welcher man das sichtbare Schlamassel anschliessend aufräumen kann und sich die Katastrophe dadurch einigermassen in Grenzen hält, wird sich ein Computerprogramm unmittelbar global ausbreiten und sich dabei wie ein Botnet perfekt verstecken, wenn das zu Beginn in seinem Interesse liegt.
 
Die Gefahr besteht nicht darin, dass künstliche Intelligenz plötzlich ein Bewusstsein oder gar Böswilligkeit entwickelt. Es geht lediglich darum, dass künstliche Intelligenz eines Tages bessere Voraussagen und Entscheidungen als der Mensch treffen könnte. Wie unschwer zu erkennen ist, ist dies ein Problem, wenn die Ziele der künstlichen Intelligenz nicht perfekt den Werten der Menschheit entsprechen (wobei diese zuerst einmal bestimmt werden müssten). Genau wie die Beherrschung einer Kettenreaktion integraler Bestandteil der Nuklearforschung ist, muss beweisbare Sicherheit Teil der Forschung an künstlicher Intelligenz werden. Von einem solchen Bewusstsein sind wir aber noch weit entfernt, zumal Informatiker auch nicht gerade bekannt dafür sind, jeweils die beste Lösung zu nehmen, sondern einfach die erste, die halbwegs funktioniert.
 
Der Stand der Forschung
Vermutlich wird es noch einige Jahrzehnte dauern, bis wir eine sich selbst verbessernde Intelligenz haben werden, doch viele Experten gehen davon aus, dass dies noch in diesem Jahrhundert der Fall sein wird. Momentan ist die menschliche Intuition den Maschinen noch vielerorts überlegen, da ihnen oft gute Heuristiken zur Eindämmung der kombinatorischen Komplexität fehlen. Dank Fortschritten beim maschinellen Lernen und neuartigen Chips könnte dies aber bald schon vorbei sein. Die verwendeten Algorithmen werden immer raffinierter und mächtiger. Aufgrund der kompetitiven Situation finden zudem viele Entwicklungen im Verborgenen statt, so dass man kaum etwas von solchen Firmen vernimmt, bevor sie von einem der grossen Player aufgekauft werden.
 
Kaum jemand weiss, dass die Schweiz dank dem IDSIA in Manno sowohl auf praktischen als auch auf theoretischen Gebieten der künstlichen Intelligenz führend ist. Kein Institut hat über die vergangenen Jahre mehr Mustererkennungswettbewerbe gewonnen. Am IDSIA entstanden auch eine optimale aber unberechenbare Formel für universelle algorithmische Intelligenz sowie eine Theorie über allgemeine Problemlöser, welche optimale Selbstverbesserungen durchführen. Oder um es in den Worten von Jürgen Schmidhuber zu sagen: "Der Fortschritt hin zu sich selbst verbessernden künstlichen Intelligenzen ist bereits wesentlich weiter als was sich viele Futuristen und Philosophen bewusst sind." Entsprechend fragt man sich am IDSIA weniger, ob eine Intelligenzexplosion eintreffen wird, sondern eher wann dies der Fall sein wird und ob wir davon überhaupt was mitkriegen werden.
 
Die erwähnten Probleme und Schwierigkeiten sind menschlichen Ursprungs und liessen sich entsprechend einfach lösen, wenn wir besser kooperieren könnten. Genauso gewaltig wie die Nachteile einer superintelligenten Maschine könnten auch ihre Vorteile sein, wenn wir es schaffen, sie zu unseren Gunsten zu nutzen. In jeglicher Hinsicht sind die Unsicherheiten jedoch riesig und wir sollten uns davor hüten, sowohl in die eine als auch die andere Richtung zu selbstsicher zu sein. Was jedoch sicher ist, ist, dass das Jahr 2014 als grosser Wendepunkt in die Geschichte der künstlichen Intelligenz eingehen wird. (Kaspar Etter)
 
Über den Autor
Kaspar Etter studierte an der ETH Zürich Informatik und machte sich nach dem Studium selbständig. Nebenbei leitet er Seminare und gibt Vorträge zu Themen wie Rationalität und Ethik. Zusätzlich berät er die GBS Schweiz und das Foundational Research Institute bei ihren Projekten, was ihn auch in engen Kontakt mit Forschern vom Machine Intelligence Research Institute in Berkeley und dem Future of Humanity Institute an der Universität Oxford brachte.
 
Weitere Informationen: superintelligence.ch, kasparetter.com.