

With Great Power Comes Great Responsibility
26. Januar 2015 um 10:23
Ein Gastbeitrag von Kaspar Etter zur Zukunft der künstlichen Intelligenz.
Anfangs Januar veröffentlichte das Future of Life Institute einen offenen Brief, in welchem vor den Risiken der künstlichen Intelligenz gewarnt wurde. Zu den Unterzeichnern des Briefes gehören namhafte Persönlichkeiten wie Stuart Russell, Peter Norvig, Tom Dietterich, Nick Bostrom, Max Tegmark, Jaan Tallinn, Stephen Hawking, Sam Harris und viele mehr. In der Woche darauf liess Elon Musk, Gründer von Paypal, Chef von SpaceX, Solarcity und Tesla Motors, den Worten bereits Taten folgen: Er spendete 10 Millionen Dollar an das Future of Life Institute, um Forschung zu fördern, welche eine positive Entwicklung der künstlichen Intelligenz gewährleisten soll.
Was ist da los? Haben Schweizer Experten nicht erst kürzlich Entwarnung gegeben? Wir müssten uns keine Sorgen machen, da wir Robotern stets den Stecker ziehen können, meinte Joachim Buhmann von der ETH Zürich. Wenn zwei sich uneinig sind, liegt mindestens einer falsch. Der folgende Artikel soll darlegen, weshalb ich es in der heutigen Welt für wahrscheinlicher halte, dass künstliche Intelligenz uns längerfristig (vielleicht wortwörtlich) den Stecker zieht als umgekehrt.
Demystifizierung von Intelligenz
Jede vernünftige Diskussion sollte mit einer Klärung der Begriffe beginnen, um sicherzustellen, dass alle vom Gleichen sprechen. Eine nützliche Definition von Intelligenz, jedoch keine logische Notwendigkeit dafür, die Welt entsprechend den einprogrammierten Präferenzen umgestalten zu können.)
Der Trend zur Automatisierung
Seit Jahrtausenden tüftelt der Mensch an Technologien, welche die Produktivität steigern und das Leben erleichtern. Neue wissenschaftliche Erkenntnisse ermöglichten über die vergangenen Jahrzehnte einen enormen Fortschritt. Das ist nicht weiter erstaunlich, denn der Marktdruck in diese Richtung ist in unserem kapitalistischen System gewaltig. Und was ist die ultimative Produktivitätssteigerung? Künstliche Intelligenz.
Künstliche Intelligenz ist aber nicht eine Technologie wie jede andere. Intelligenz ist die Technologie, welche weitere Technologien hervorbringt. Wir Menschen herrschen über die Welt, nicht weil wir das stärkste oder das schnellste, sondern weil wir das schlauste Tier auf diesem Planeten sind. Es gibt aber keinen Grund zur Annahme, dass wir durch blinde evolutionäre Prozesse eine physikalische Grenze bezüglich Intelligenz erreicht haben. Ganz im Gegenteil: Wir können förmlich zuschauen, wie Computer die Leistungen der besten Menschen auf einem Gebiet nach dem anderen übertreffen. 1997 schlug der Supercomputer Deep Blue von IBM den damaligen Weltmeister Garry Kasparov im Schach, 2011 gewann IBMs Watson des Teams um Jürgen Schmidhuber erstmals eine höhere Trefferquote beim Erkennen von Verkehrsschildern als die menschliche Kontrollgruppe.
Seit einigen Monaten kann ein Programm von Google den Inhalt komplexer Bilder beschreiben verholfen. Auch nur kleinste Verbesserungen sind plötzlich Milliarden wert.
Derweil buhlen Firmen wie Apple mit Siri, Google mit Now, Microsoft mit Cortana oder Amazon mit Echo und Jibo mit ihren digitalen Assistenten um die Gunst der Kunden in der Hosentasche und im Wohnzimmer. Mit den Daten, welche sie dabei sammeln, können sie ihre Produkte weiterentwickeln, um mit ihnen in wenigen Jahren um die Vormachtstellung im Büro zu kämpfen. Je mehr User die Dienste verwenden, desto besser werden sie. Wer jetzt vorne ist, wird es vermutlich lange bleiben. Das Wettrüsten hat begonnen.
Viele Arbeitnehmende werden bei solch rasanten Entwicklungen nicht mehr lange mithalten können vorbereitet.
Der Trend zur Autonomie
In vielen Gebieten gibt es neben der Produktivitätssteigerung von (noch) Angestellten auch enorme Anreize, den Menschen gleich ganz aus der Schleife zu nehmen. Mitarbeitende aus Fleisch und Blut sind nicht nur teuer und unzuverlässig, sondern auch viel zu langsam, wenn es beispielsweise darum geht, Transaktionen in Millisekunden abzuwickeln, wie das beim Hochfrequenzhandel der Fall ist. Dabei treten Algorithmen gegeneinander an und es findet eine natürliche Selektion statt, welche die Entwicklung beschleunigt: Sieger gedeihen und geben ihren Code weiter, Verlierer sterben. Welche Probleme können dabei entstehen? Einerseits verwenden solche Algorithmen häufig Black-Box-Techniken wie neuronale Netze, die mit grossen Datenmengen trainiert werden, deren Verhalten jedoch nicht mit formalen Methoden überprüft werden kann. Dies birgt Risiken, weil niemand genau versteht, wie und warum die Algorithmen so entscheiden, wie sie es gerade tun. Andererseits handeln Computer schneller, als Menschen reagieren können, wie das der Flash Crash vom 6. Mai 2010 gezeigt hat, als der Dow Jones Index innerhalb von wenigen Minuten über 9 Prozent verlor. Wie anfällig unsere Wirtschaft ist, demonstrierte im gleichen Jahr auch der Computerwurm Stuxnet. Solche Fälle wie auch die Finanzkrise ab 2007 machen offensichtlich, dass die Kontrolle komplexer Systeme nicht unsere Stärke ist. Davor warnt ETH-Professor Dirk Helbing schon länger.
Neben den Finanzmärkten beginnen wir aber auch den Krieg zu automatisieren, da er für die eigenen Soldaten zu gefährlich ist und Roboter und Drohnen viel effektivere Kriegsmaschinen wächst in diesem Bereich stetig. Neben vielen ethischen sind auch zahlreiche juristische Fragen noch ungeklärt: Wer haftet bei Fehlern? Wer wird bestraft? Und wie soll Autonomie überhaupt definiert werden? Mir ist keine Technologie bekannt, die nicht auch für militärische Zwecke eingesetzt wurde. Willkommen zum Rüstungswettstreit des 21. Jahrhunderts!
Eine tickende Zeitbombe
Bisher folgte die Forschung an künstlicher Intelligenz blind dem Ruf der Sirenen. Was passiert aber, wenn sie ihr Ziel, die Schaffung einer dem Menschen ebenbürtigen Intelligenz, erreicht? Da wir nicht wissen, wer sie unter welchen Umständen bauen wird, können wir keine Voraussagen über die Nutzenfunktion (d.h. die Präferenzen zwischen verschiedenen Weltzuständen) einer solchen Intelligenz machen. Jede nutzenmaximierende künstliche Intelligenz wird zur Erreichung ihrer Ziele aber bestimmte Zwischenziele verfolgen. Um ihre Ziele überhaupt erreichen zu können, wird sie einen (bloss instrumentellen) Selbsterhaltungstrieb haben sowie ihre ursprüngliche Nutzenfunktion vor Veränderungen schützen. Um ihre Ziele besser erreichen zu können, wird sie möglichst viel Energie und Rohstoffe erwerben sowie bestrebt sein, sich selber zu verbessern.
Der letztgenannte Drang wird vermutlich zu einer Intelligenzexplosion führen, bei welcher sich die künstliche Intelligenz immer weiter optimiert. Dabei handelt es sich, wie bei einem postulierten Teilchen in der Physik, um ein theoretisches Phänomen, für dessen Existenz es gute Gründe gibt, es jedoch noch nicht experimentell bestätigt wurde. Anders als bei einer Kernschmelze, bei welcher man das sichtbare Schlamassel anschliessend aufräumen kann und sich die Katastrophe dadurch einigermassen in Grenzen hält, wird sich ein Computerprogramm unmittelbar global ausbreiten und sich dabei wie ein Botnet perfekt verstecken, wenn das zu Beginn in seinem Interesse liegt.
Die Gefahr besteht nicht darin, dass künstliche Intelligenz plötzlich ein Bewusstsein oder gar Böswilligkeit entwickelt. Es geht lediglich darum, dass künstliche Intelligenz eines Tages bessere Voraussagen und Entscheidungen Teil der Forschung an künstlicher Intelligenz werden. Von einem solchen Bewusstsein sind wir aber noch weit entfernt, zumal Informatiker auch nicht gerade bekannt dafür sind, jeweils die beste Lösung zu nehmen, sondern einfach die erste, die halbwegs funktioniert.
Der Stand der Forschung
Vermutlich wird es noch einige Jahrzehnte dauern, bis wir eine sich selbst verbessernde Intelligenz haben werden, doch viele Experten gehen davon aus, dass dies noch in diesem Jahrhundert werden.
Kaum jemand weiss, dass die Schweiz dank dem IDSIA.
Die erwähnten Probleme und Schwierigkeiten sind menschlichen Ursprungs und liessen sich entsprechend einfach lösen, wenn wir besser kooperieren in die Geschichte der künstlichen Intelligenz eingehen wird. (Kaspar Etter)
Über den Autor
Kaspar Etter studierte an der ETH Zürich Informatik und machte sich nach dem Studium selbständig. Nebenbei leitet er Seminare an der Universität Oxford brachte.
Loading
Vogt am Freitag: Das bisschen Mauscheln, ist doch kein Problem
Statt Pressefreiheit ein Freipass für Kriminelle? Liebend gern, findet die Kommission für Wirtschaft und Abgaben des Ständerats.
Vor 24 Jahren: Eine Domain wird für Millionen verkauft
1999 erzielte der Verkauf von Business.com einen Preis von 7,5 Millionen Dollar. Bis heute ist sie eine der teuersten Domains. Aber auch Apple musste für eine Domain tief in die Tasche greifen.
Prantl behauptet: Die Konsolidierung konsolidiert
Kann es einem Entwicklungsleiter gelingen, zwei ERP-Systeme gleichzeitig zu verbessern, ohne eines zu vernachlässigen und keines durch das andere zu ersetzen? Kolumnist Urs Prantl ist sich nicht sicher.
Vogt am Freitag: Altman und Nadella gewinnen beim Uno
Diese Woche war die halbe Welt unfreiwillig Zeuge einer sehr unwürdigen Partie Uno, die wahrscheinlich mit gezinkten Karten gespielt worden ist. Denn es war schon vorher klar, wer gewinnt.