Wie kann man gute Autos noch besser machen? Oder gute Drucker? Oder gute Sauger? Indem man ihnen Manieren und Moral beibringt. Für das eine ist der Knigge zuständig, für das andere die Philosophie – seit nunmehr 2500 Jahren. Die junge Disziplin der Maschinenethik hat die Moral von Maschinen zum Gegenstand, vor allem von (teil-)autonomen Systemen wie Agenten, Chatbots, Robotern, Drohnen und selbstständig fahrenden Autos. Sie kann innerhalb von Informations- und Technikethik eingeordnet oder als Pendant zur Menschenethik angesehen werden. Moralische Maschinen werden entweder als solche konzipiert oder auf der Basis von gewöhnlichen Systemen entwickelt, die den Prozess des "Moralisierens" – dieser Begriff wird im vorliegenden Kontext umgedeutet – durchlaufen müssen.
Obwohl "moralische Maschinen" in den USA, in Kanada und in Australien, um nur ein paar der führenden Nationen zu nennen, viel diskutiert und bereits konzipiert und implementiert werden, sind manche Menschen - darunter auch Experten für Künstliche Intelligenz, Ingenieure, Informatiker und Ethiker - grundsätzlich skeptisch. Die Skepsis dürfte teilweise übertrieben sein. Einerseits überschätzen Kritiker vielleicht die Komplexität menschlicher Moral, andererseits unterschätzen sie vielleicht die Möglichkeiten, die Komplexität maschineller Moral zu reduzieren. Es ist nicht besonders schwer, einfache moralische Maschinen zu bauen. Als solche werden hier (teil-)autonome Systeme verstanden, die in den Standardsituationen, für die sie entwickelt wurden, einige wenige, einfache Regeln befolgen beziehungsweise mit Hilfe von Beobachtungen und von Fällen, die sie gespeichert haben, die richtige Entscheidung treffen – und damit im Ergebnis moralisch (oder moralisch gut) handeln.
Das "Moralisieren" der Maschinen
Das Moralisieren der Maschinen ist in vielen Bereichen möglich. Hier einige Beispiele, die teilweise auch für IT-Unternehmen relevant sind und mehrheitlich mit dem Leben oder dem Tod von Menschen und Tieren zu tun haben:
- Chatbots (oft auch Chatterbots genannt) informieren auf Websites über Produkte und Dienstleistungen und dienen der Unterhaltung und Kundenbindung. Vor diesem Hintergrund wird verständlich, dass man bei ihnen persönliche und soziale Aspekte berücksichtigt. Sie sind meist so gestaltet, dass sie niemanden irritieren und diskriminieren sollten. Wenn ein User einen Selbstmord ankündigt, reagiert die Mehrzahl aber inadäquat. Ein "guter" Bot in dieser Hinsicht ist SGT STAR der U.S. Army, der in einem solchen Fall eine amerikanische Notfallnummer nennt. Ein noch "besserer" Bot würde eine für das jeweilige Land passende Notfallnummer heraus- oder den Benutzer an eine Ansprechperson übergeben. Ein solches Verhalten lässt sich durch eine Erweiterung der Wissensbasis und die Verwendung der IP-Adresse erreichen.
- Serviceroboter wie Haushalts- und Gartenroboter sind in zahlreichen Ausführungen erhältlich und erleben einen wahren Boom. Ein gewöhnlicher Saugroboter verschlingt alles, was vor ihm und unter ihm ist. Dazu gehören nicht nur Staubflocken und Kekskrümel, sondern auch Spinnen und Käfer. Nach der Meinung vieler Menschen sollte man Tiere nicht einfach verletzen oder beseitigen. Man kann den Roboter mit Bilderkennung und Bewegungssensoren ausstatten und ihm beibringen, Lebewesen vor dem Tod zu bewahren. Auch Mähroboter kann man auf diese Weise verbessern, wobei allerdings ein Rasen – ganz zu schweigen von einer Wiese – eine relativ komplexe Umgebung ist.
- Private Drohnen sowie Unmanned Aerial Vehicles (UAV), die in der Landwirtschaft, von Unternehmen und von der Polizei zur Überwachung genutzt werden, verbreiten sich in der Schweiz immer mehr. Sie können, entsprechend aus- und aufgerüstet, Objekte fotografieren und filmen. Die meisten Menschen wollen nicht heimlich aufgenommen und in ihrer Privatsphäre beeinträchtigt werden, weder beim Sonnenbaden noch beim Wandern. Man kann die Drohnen mit einer Bilderkennung ergänzen, die mit der Aufnahmefunktion zusammenspielt, und sie eine Aufnahme von Gesichtern und Körpern verhindern lassen. Damit werden auch Nacktbilder vermieden, die im Internet kursieren und damit den Ruf von Menschen schädigen und sie psychisch verletzen.
- Selbstständig parkierende, bremsende und fahrende Autos – letztere sind auch als Roboterautos bekannt und in verschiedenen Städten als Prototypen unterwegs – nehmen dem Fahrer (man sollte besser "Beifahrer" sagen) bestimmte oder sogar sämtliche Aktionen im Strassenverkehr ab. Sie können dadurch Unfälle verhindern und so das Leben von Insassen, anderen Verkehrsteilnehmern und Tieren retten. Neue Nachtsichtgeräte und Bilderkennungssysteme, wie sie etwa im Mercedes der S-Klasse integriert sind, können bereits zwischen Menschen und Tieren unterscheiden und damit Prioritäten setzen, wenn sie dazu befähigt werden. Assistenzsysteme solcher Art erlauben schon heute moralische Maschinen im weitesten Sinne.
- Windkraftanlagen produzieren in Deutschland, in Spanien, in Griechenland und in anderen Ländern einen nicht unerheblichen Teil des benötigten Stroms. Es handelt sich oft um hohe Masten mit riesigen Rotoren. Immer wieder kommt es zu Kollisionen mit Vögeln und Fledermäusen. In Kombination mit Bewegungsmeldern und Mustererkennungssystemen wären die Maschinen in der Lage, sich bei Bedarf selbst abzustellen. Sie könnten sich in Windparks gegenseitig melden, wohin sich Schwärme oder Einzeltiere bewegen. Mit Hilfe von Sensoren wäre es möglich, im weiteren Umfeld ein Frühwarnsystem aufzubauen, das die Tiere unter Umständen über Töne und Lichtreize dazu bringen könnte, das Weite zu suchen.
- 3D-Drucker, die vor wenigen Jahren im Massenmarkt angelangt sind, erlauben das "Ausdrucken" von Gegenständen aller Art. Typische verwendete Materialien sind Kunststoff, Metall oder Gips. Bereits mehrmals ist es gelungen, Waffen aus Kunststoff zu produzieren, mit denen man mehrere Schüsse abfeuern kann, bevor sie kaputtgehen. Inzwischen wurde sogar eine funktionstüchtige Pistole aus Metall ausgedruckt. 3D-Drucker, die die Dateien analysieren und etwas über Form und Funktion des geplanten Objekts herausfinden, könnten die Herstellung von Pistolen und Bauteilen von Bomben verhindern.
Chancen und Risiken einfacher moralischer Maschinen
Diese Beispiele verdeutlichen, obwohl sie nur grob umrissen werden konnten, verschiedene Merkmale und Chancen einfacher moralischer Maschinen:
- Die vorhandenen und denkbaren Methoden verbessern die (teil-)autonomen Systeme ganz offensichtlich. Sie respektieren und retten Leben, sie beschränken die Potenziale der Maschinen, ohne dass deren Autonomie aufgegeben wird. Oder die Maschinen holen Hilfe von einem Menschen, wenn sie sozusagen mit ihrer Moral am Ende sind.
- Die Entwicklung von einfachen moralischen Maschinen ist mit den heute verfügbaren technischen Mitteln durchaus im Rahmen des Möglichen. In mehreren Fällen wären lediglich zwei, drei zusammenspielende Komponenten zu integrieren. In manchen kann man bereits von Keimzellen einer maschinellen Moral sprechen.
- Bei den skizzierten Beispielen sind kaum moralische Dilemmas zu erkennen. Zahlreiche Menschen wären mit den Entscheidungen einverstanden und würden genauso oder ähnlich verfahren.
- Der Marktwert der Maschinen und die Kaufanreize können erhöht, die Anliegen der Kunden miteinbezogen werden. Man appelliert nicht nur mit Bio- und Fair-Trade-Produkten, sondern auch mit moralisch optimierten Werkzeugen und Robotern an das Gewissen.
Eine Win-win-win-Situation offenbar, für Tiere, Menschen und Maschinen. Aber es sind ebenso Probleme und Risiken auf unterschiedlichen Ebenen auszumachen:
- Die einzubauenden Komponenten sind im Einzelfall nicht ganz günstig, wobei sie im Zusammenhang mit Luxus- und Investitionsgütern zu sehen sind, die man sich etwas kosten beziehungsweise auf die sich nicht verzichten lässt.
- Wenn die Maschine Aufgaben an Personen und Einrichtungen delegiert – wie bei der Kommunikation mit dem Chatbot –, könnte dies als Eingriff in die Privatsphäre und, obwohl sich der Mensch zuerst mit einer Maschine unterhält, als "Vertrauensbruch" verstanden werden.
- Das Sammeln und Auswerten von Daten und Informationen, etwa von IP-Adressen und Aussagen des Benutzers, erzeugt neue Herausforderungen, vor allem im datenrechtlichen und informationsethischen Bereich.
- Auch wenige moralische Dilemmas können für viel Aufregung sorgen. Wenn Autos nur für Menschen eine Vollbremsung hinlegen, aber nicht für Hasen und Füchse, wird das Tierfreunde nicht zufriedenstellen. Sie wünschen sich eher, dass das Auto denkt: Ich bremse auch für Tiere.
- Die Autonomie von Maschinen bedeutet oft den Verlust der Autonomie von Menschen. Diese werden entmachtet und fühlen sich entmündigt. Der Roboter wird, wie in etlichen Science-Fictions, zum Konkurrenten und Feind.
- Nicht jedes Unternehmen und nicht jeder Benutzer will, dass die Maschine in ihre Schranken gewiesen wird. Diese könnte an Potenz und Akzeptanz und in der Folge an Wert verlieren und vom Markt verschwinden.
- Ein gut gemeintes Innehalten der Maschine könnte, wie bei den Windkraftanlagen, einen hohen Produktivitätsverlust bedeuten und hohe Kosten verursachen, genauso wie eine gut gemeinte Blitzaktion. Zudem könnte es Betriebsstörungen und Kettenreaktionen geben.
Eine technische und moralische Evolution
Natürlich sind Sicherheitseinrichtungen – in diesem Sinne würden manche die zusätzlichen Komponenten deuten wollen – bei Maschinen nichts Ungewöhnliches und für Unternehmen nichts Unbekanntes. Allerdings geht es in diesem Artikel um (teil-)autonome, teils intelligente Systeme, um ihre fundierten Entscheidungen und ihre adäquaten (Sprech-)Akte. Es geht weder um eine Säge, die bei einem Widerstand blockiert, noch um eine Tür, die sich bei einem Widerstand öffnet (was nicht ausschliesst, dass man Säge und Tür "moralisieren" könnte). Sondern um folgenreiche Aussagen und Handlungen, um Menschen und Tiere, um Leben und Tod. Dass die einfachen moralischen Maschinen so problemlos funktionieren, liegt freilich an ihrem klar definierten Aufgabenbereich und der übersichtlichen Situation.
Auf der ganzen Welt wird an moralischen Systemen gebaut. Auch in der Schweiz gibt es erste Anstrengungen. Ein Beispiel ist der
Goodbot, der seit Sommer 2013 in einem an der Hochschule für Wirtschaft FHNW angesiedelten studentischen (vom Verfasser initiierten und betreuten) Projekt entwickelt wird. Es handelt sich um einen Chatbot, der auf Aussagen und Fragen mit moralischen Implikationen in adäquater Weise reagiert beziehungsweise antwortet. Die modifizierte Maschine soll auf Websites von Unternehmen und Organisationen eingesetzt werden können. In Bezug auf moralische Roboterautos ist mit einem baldigen Durchbruch zu rechnen. Ein PKW kann sich in bestimmten Situationen bereits selbstständig entscheiden. Es ist nun die Frage, wie er sich in moralisch relevanten Situationen entscheiden soll, und wie er verfährt, wenn sich Dilemmas ergeben. Jedes (teil-)autonome System steht eines Tages vor der gleichen Herausforderung. Es kann gut sein und bleiben – oder es kann besser werden, als Teil einer technischen und moralischen Evolution. (Oliver Bendel)
Über den Autor
Oliver Bendel ist studierter Philosoph und promovierter Wirtschaftsinformatiker und leitete technische und wissenschaftliche Einrichtungen an Hochschulen. Heute lehrt und forscht er als Professor für Wirtschaftsinformatik an der Hochschule für Wirtschaft in Brugg und Olten (Fachhochschule Nordwestschweiz FHNW), mit den Schwerpunkten Wissensmanagement, Social Media, Mobile Business, Informationsethik und Maschinenethik, und lebt als freier Schriftsteller in Zürich. Weitere Informationen:
www.oliverbendel.net.