With Great Power Comes Great Responsibility

26. Januar 2015, 10:23
  • f&e
  • gastbeitrag
  • kolumne
image

Ein Gastbeitrag von Kaspar Etter zur Zukunft der künstlichen Intelligenz.

Anfangs Januar veröffentlichte das Future of Life Institute einen offenen Brief, in welchem vor den Risiken der künstlichen Intelligenz gewarnt wurde. Zu den Unterzeichnern des Briefes gehören namhafte Persönlichkeiten wie Stuart Russell, Peter Norvig, Tom Dietterich, Nick Bostrom, Max Tegmark, Jaan Tallinn, Stephen Hawking, Sam Harris und viele mehr. In der Woche darauf liess Elon Musk, Gründer von Paypal, Chef von SpaceX, Solarcity und Tesla Motors, den Worten bereits Taten folgen: Er spendete 10 Millionen Dollar an das Future of Life Institute, um Forschung zu fördern, welche eine positive Entwicklung der künstlichen Intelligenz gewährleisten soll.
Was ist da los? Haben Schweizer Experten nicht erst kürzlich Entwarnung gegeben? Wir müssten uns keine Sorgen machen, da wir Robotern stets den Stecker ziehen können, meinte Joachim Buhmann von der ETH Zürich. Wenn zwei sich uneinig sind, liegt mindestens einer falsch. Der folgende Artikel soll darlegen, weshalb ich es in der heutigen Welt für wahrscheinlicher halte, dass künstliche Intelligenz uns längerfristig (vielleicht wortwörtlich) den Stecker zieht als umgekehrt.
Demystifizierung von Intelligenz
Jede vernünftige Diskussion sollte mit einer Klärung der Begriffe beginnen, um sicherzustellen, dass alle vom Gleichen sprechen. Eine nützliche Definition von Intelligenz, jedoch keine logische Notwendigkeit dafür, die Welt entsprechend den einprogrammierten Präferenzen umgestalten zu können.)
Der Trend zur Automatisierung
Seit Jahrtausenden tüftelt der Mensch an Technologien, welche die Produktivität steigern und das Leben erleichtern. Neue wissenschaftliche Erkenntnisse ermöglichten über die vergangenen Jahrzehnte einen enormen Fortschritt. Das ist nicht weiter erstaunlich, denn der Marktdruck in diese Richtung ist in unserem kapitalistischen System gewaltig. Und was ist die ultimative Produktivitätssteigerung? Künstliche Intelligenz.
Künstliche Intelligenz ist aber nicht eine Technologie wie jede andere. Intelligenz ist die Technologie, welche weitere Technologien hervorbringt. Wir Menschen herrschen über die Welt, nicht weil wir das stärkste oder das schnellste, sondern weil wir das schlauste Tier auf diesem Planeten sind. Es gibt aber keinen Grund zur Annahme, dass wir durch blinde evolutionäre Prozesse eine physikalische Grenze bezüglich Intelligenz erreicht haben. Ganz im Gegenteil: Wir können förmlich zuschauen, wie Computer die Leistungen der besten Menschen auf einem Gebiet nach dem anderen übertreffen. 1997 schlug der Supercomputer Deep Blue von IBM den damaligen Weltmeister Garry Kasparov im Schach, 2011 gewann IBMs Watson des Teams um Jürgen Schmidhuber erstmals eine höhere Trefferquote beim Erkennen von Verkehrsschildern als die menschliche Kontrollgruppe.
Seit einigen Monaten kann ein Programm von Google den Inhalt komplexer Bilder beschreiben verholfen. Auch nur kleinste Verbesserungen sind plötzlich Milliarden wert.
Derweil buhlen Firmen wie Apple mit Siri, Google mit Now, Microsoft mit Cortana oder Amazon mit Echo und Jibo mit ihren digitalen Assistenten um die Gunst der Kunden in der Hosentasche und im Wohnzimmer. Mit den Daten, welche sie dabei sammeln, können sie ihre Produkte weiterentwickeln, um mit ihnen in wenigen Jahren um die Vormachtstellung im Büro zu kämpfen. Je mehr User die Dienste verwenden, desto besser werden sie. Wer jetzt vorne ist, wird es vermutlich lange bleiben. Das Wettrüsten hat begonnen.
Viele Arbeitnehmende werden bei solch rasanten Entwicklungen nicht mehr lange mithalten können vorbereitet.
Der Trend zur Autonomie
In vielen Gebieten gibt es neben der Produktivitätssteigerung von (noch) Angestellten auch enorme Anreize, den Menschen gleich ganz aus der Schleife zu nehmen. Mitarbeitende aus Fleisch und Blut sind nicht nur teuer und unzuverlässig, sondern auch viel zu langsam, wenn es beispielsweise darum geht, Transaktionen in Millisekunden abzuwickeln, wie das beim Hochfrequenzhandel der Fall ist. Dabei treten Algorithmen gegeneinander an und es findet eine natürliche Selektion statt, welche die Entwicklung beschleunigt: Sieger gedeihen und geben ihren Code weiter, Verlierer sterben. Welche Probleme können dabei entstehen? Einerseits verwenden solche Algorithmen häufig Black-Box-Techniken wie neuronale Netze, die mit grossen Datenmengen trainiert werden, deren Verhalten jedoch nicht mit formalen Methoden überprüft werden kann. Dies birgt Risiken, weil niemand genau versteht, wie und warum die Algorithmen so entscheiden, wie sie es gerade tun. Andererseits handeln Computer schneller, als Menschen reagieren können, wie das der Flash Crash vom 6. Mai 2010 gezeigt hat, als der Dow Jones Index innerhalb von wenigen Minuten über 9 Prozent verlor. Wie anfällig unsere Wirtschaft ist, demonstrierte im gleichen Jahr auch der Computerwurm Stuxnet. Solche Fälle wie auch die Finanzkrise ab 2007 machen offensichtlich, dass die Kontrolle komplexer Systeme nicht unsere Stärke ist. Davor warnt ETH-Professor Dirk Helbing schon länger.
Neben den Finanzmärkten beginnen wir aber auch den Krieg zu automatisieren, da er für die eigenen Soldaten zu gefährlich ist und Roboter und Drohnen viel effektivere Kriegsmaschinen wächst in diesem Bereich stetig. Neben vielen ethischen sind auch zahlreiche juristische Fragen noch ungeklärt: Wer haftet bei Fehlern? Wer wird bestraft? Und wie soll Autonomie überhaupt definiert werden? Mir ist keine Technologie bekannt, die nicht auch für militärische Zwecke eingesetzt wurde. Willkommen zum Rüstungswettstreit des 21. Jahrhunderts!
Eine tickende Zeitbombe
Bisher folgte die Forschung an künstlicher Intelligenz blind dem Ruf der Sirenen. Was passiert aber, wenn sie ihr Ziel, die Schaffung einer dem Menschen ebenbürtigen Intelligenz, erreicht? Da wir nicht wissen, wer sie unter welchen Umständen bauen wird, können wir keine Voraussagen über die Nutzenfunktion (d.h. die Präferenzen zwischen verschiedenen Weltzuständen) einer solchen Intelligenz machen. Jede nutzenmaximierende künstliche Intelligenz wird zur Erreichung ihrer Ziele aber bestimmte Zwischenziele verfolgen. Um ihre Ziele überhaupt erreichen zu können, wird sie einen (bloss instrumentellen) Selbsterhaltungstrieb haben sowie ihre ursprüngliche Nutzenfunktion vor Veränderungen schützen. Um ihre Ziele besser erreichen zu können, wird sie möglichst viel Energie und Rohstoffe erwerben sowie bestrebt sein, sich selber zu verbessern.
Der letztgenannte Drang wird vermutlich zu einer Intelligenzexplosion führen, bei welcher sich die künstliche Intelligenz immer weiter optimiert. Dabei handelt es sich, wie bei einem postulierten Teilchen in der Physik, um ein theoretisches Phänomen, für dessen Existenz es gute Gründe gibt, es jedoch noch nicht experimentell bestätigt wurde. Anders als bei einer Kernschmelze, bei welcher man das sichtbare Schlamassel anschliessend aufräumen kann und sich die Katastrophe dadurch einigermassen in Grenzen hält, wird sich ein Computerprogramm unmittelbar global ausbreiten und sich dabei wie ein Botnet perfekt verstecken, wenn das zu Beginn in seinem Interesse liegt.
Die Gefahr besteht nicht darin, dass künstliche Intelligenz plötzlich ein Bewusstsein oder gar Böswilligkeit entwickelt. Es geht lediglich darum, dass künstliche Intelligenz eines Tages bessere Voraussagen und Entscheidungen Teil der Forschung an künstlicher Intelligenz werden. Von einem solchen Bewusstsein sind wir aber noch weit entfernt, zumal Informatiker auch nicht gerade bekannt dafür sind, jeweils die beste Lösung zu nehmen, sondern einfach die erste, die halbwegs funktioniert.
Der Stand der Forschung
Vermutlich wird es noch einige Jahrzehnte dauern, bis wir eine sich selbst verbessernde Intelligenz haben werden, doch viele Experten gehen davon aus, dass dies noch in diesem Jahrhundert werden.
Kaum jemand weiss, dass die Schweiz dank dem IDSIA.
Die erwähnten Probleme und Schwierigkeiten sind menschlichen Ursprungs und liessen sich entsprechend einfach lösen, wenn wir besser kooperieren in die Geschichte der künstlichen Intelligenz eingehen wird. (Kaspar Etter)
Über den Autor
Kaspar Etter studierte an der ETH Zürich Informatik und machte sich nach dem Studium selbständig. Nebenbei leitet er Seminare an der Universität Oxford brachte.
Weitere Informationen: superintelligence.ch.

Loading

Mehr zum Thema

image

Bundesrat stärkt Startups den Rücken

Durch die geplanten Massnahmen soll die Schweiz mittel- bis langfristig zu den wettbewerbsfähigsten und innovativsten Standorten gehören, schreibt die Landesregierung.

publiziert am 22.6.2022
image

Microsoft definiert verantwortungsvolle KI

Durch einen einheitlichen Standard soll der Zugang zu gewissen Machine-Learning-Technologien eingeschränkt werden. Bestimmte Projekte werden gar ganz eingestampft.

publiziert am 22.6.2022
image

IT-Woche: Fear and Loathing im Cyberspace

Der Untergang einer Software-Firma, die Sperrung des Schweizer Luftraums und die Ransomware-Abwehr eines Kantonsspitals machten diese Woche Schlagzeilen.

publiziert am 17.6.2022
image

#Security: IPv6 – ein unbeliebtes IT-Thema feiert Jubiläum

Die Version 6 des Internetprotokolls wurde vor 5 Jahren als Internetstandard definiert und soll damit als Basis für die Digitalisierung dienen. Ein wichtiges Thema für IT-Betreiber und Sicherheitsverantwortliche.

publiziert am 17.6.2022