Viereinhalb Dilemmata der Robotik: Ein Gastbeitrag von Oliver Bendel.
Es ist ein Lieblingsspiel der Philosophen seit der Antike, Dilemmata zu konstruieren und zu variieren. Insbesondere die Ethik findet daran Vergnügen. Sie beschäftigt sich als Disziplin, welche die Moral zum Gegenstand hat, mit Entscheidungen im Zusammenhang mit einem guten oder bösen Willen, mit einem guten oder schlechten Leben, mit Gerechtigkeit und Ungerechtigkeit. Dilemmata sind Zwickmühlen, Zwangslagen, in denen die Wahl zwischen zwei Optionen schwerfällt oder notgedrungen zu einem unerwünschten Resultat führt. Oft empfindet man sie als derjenige, der die Gedankenexperimente kennenlernt, sie sozusagen nachdenkt, als paradox und exzentrisch. Bei drei, vier und fünf Alternativen spricht man von einem Tri-, Tetra- und Pentalemma.
Seinen Platz in der Philosophiegeschichte hat das Dilemma mit Euathlos und seinem Lehrer Protagoras, den er mit Hilfe seines ersten gewonnenen Prozesses bezahlen soll. Da ein solcher ausbleibt, wird Euathlos von seinem Lehrer verklagt. Wer von beiden erhält nun Geld - und warum? Das Heinz-Dilemma von Lawrence Kohlberg aus dem 20. Jahrhundert ist einer breiten Öffentlichkeit bekannt: Darf man ein überteuertes Medikament stehlen, um seinen todkranken Partner zu retten, und damit dem Erfinder schaden, der einen Reibach machen will? Manche Gedankenexperimente sind auf die Informatik, die Künstliche Intelligenz und die Robotik übertragbar. Sie helfen beim Bau von Systemen, die Entscheidungen treffen, und betonen die entstehenden Herausforderungen. Auch die Maschinenethik, welche die Moralfähigkeit von Chatbots, Robotern und Drohnen untersucht, kann von ihnen profitieren. Nicht zuletzt helfen uns die Dilemmata, unser Verhältnis zu Maschinen zu klären.
Roboterauto-Problem
Das Trolley-Problem ist ein Gedankenexperiment der britischen Philosophin Philippa Foot. Eine ausser Kontrolle geratene Strassenbahn rast auf fünf Personen zu. Sie kann auf ein anderes Gleis umgeleitet werden, auf dem sich ein weiterer Mensch befindet. Darf man dessen Tod in Kauf nehmen, um das Leben der Gruppe zu retten? Im Verkehr der Zukunft stellt sich die Frage neu. Bei einem autonomen Auto versagen die Bremsen. Die Alternativen mögen ähnlich wie beim Trolley-Problem sein. Das Auto steuert auf fünf Personen zu. Es könnte zu einer Seite ausweichen. Dort steht ein einzelner Mann, der wohl nicht mehr wegspringen kann. Bei einer Geradeausfahrt würde es unausweichlich Tote geben. Wie soll die Entscheidung ausfallen? Das Roboterauto-Problem entspricht im Wesentlichen dem Original.
Eine Variante der amerikanischen Philosophin Judith Jarvis Thomson ist das Fetter-Mann-Problem. Dessen Namensgeber wird auf das Gleis gestossen, damit die Strassenbahn vor den fünf Personen zum Stehen kommt. Der Tod eines Menschen wird so nicht nur in Kauf genommen, sondern bewusst herbeigeführt. Das Problem kann wiederum auf das autonome Auto übertragen werden, bei dem die Bremsen versagen. Zudem ist die Lenkung gestört und lässt nur noch kleinste Abweichungen zu. Zwei Gruppen befinden sich auf der Fahrbahn, vor der einen ein korpulenter Mann, der das Auto stoppen würde. Darf dieses den Einzelnen töten, um die Gruppe zu retten? Oder muss es auf die andere Gruppe zusteuern, mit dem Risiko mehrerer Toter? Hier herrscht eher Verwandtschaft als Gleichheit der Gedanken.
"Berühmter-Roboter"-Problem
Die Amerikanerin hat sich auch das "Berühmter-Geiger"-Problem ausgedacht. Ein Mann wird von Mitgliedern der Gesellschaft der Freunde der Musik betäubt, entführt, in ein Bett verfrachtet und über Schläuche mit einem berühmten Geiger verbunden, der an einer schweren Nierenkrankheit leidet. Nach seinem Erwachen informiert man ihn zum Stand der Dinge. Besteht er darauf, dass die Schläuche gelöst werden, muss der Musiker sterben. Nach neun Monaten wäre dieser soweit hergestellt und könnte alleine weiterleben. Ist dem Gekidnappten zuzumuten, so lange im Bett zu liegen? Der Hergang lässt sich für die Robotik abwandeln. Nach jahrelanger Forschung hat man einen Roboter geschaffen, der besonders ist und berühmt wird. Er ist auf frisches menschliches Blut einer seltenen Sorte angewiesen. Eines Tages ergibt sich ein Engpass, und er droht zu kollabieren. Erst neun Wochen später würde man Ersatz bei der Versorgung finden. Darf ein Mensch dazu gezwungen werden, sich für eine solche Zeit mit dem Kunstwesen zu vereinen? Darf er sich verweigern, mit der Konsequenz, dass es verloren ist? Die Entscheidung - Leben vs. Fortschritt - obliegt hier dem Menschen.
Buridans Robot
Buridans Esel verhungert zwischen zwei Heubündeln, weil er sich nicht für eines von ihnen entscheiden kann. Das Dilemma geht auf Aristoteles zurück. Varianten stammen vom persischen Philosophen Al-Ghazali und eben von Johannes Buridan beziehungsweise von seinen Gegnern, die den Esel als Metapher in die Gedankenwelt gesetzt haben. Es fragt sich, wie eine Maschine entscheidungsfähig bleibt, wenn gleichartige Reize auf sie einwirken. Ein Serviceroboter wird auf einmal von zwei oder drei Kunden angesprochen. Wen soll er zuerst bedienen? Denjenigen, der am meisten Geld oder am wenigsten Zeit hat? Oder diejenigen, die älter oder wichtiger sind? Oder soll der Zufall entscheiden? Eine militärische Drohne spürt einen Terroristen auf, den sie eliminieren soll. Plötzlich erscheint der innerlich makellose, äusserlich nicht unterscheidbare Zwilling. Wen soll die Drohne umbringen, nur einen der Brüder, beide oder keinen? Die Gefahr ist, dass der Gute stirbt und der Böse türmt. Buridans Robot ähnelt dem Esel auf den zweiten Blick durchaus.
Die Parkbucht des Karneades
Das Gedankenexperiment mit dem Brett des Karneades stammt angeblich von dem Philosophen aus Kyrene. Neben zwei Schiffbrüchigen treibt ein Brett, das nur einen von ihnen tragen kann. Der eine tötet den anderen und wird gerettet. Die Frage ist, ob und wie die Tötung zu rechtfertigen ist. Im Verkehr könnte sich eine ähnliche Konstellation ergeben. Ein Geisterfahrer lenkt einen Schwertransporter über die Fernstrasse. Ein autonomes Auto kann seinen Fahrer nur dadurch retten, dass es eine winzige Parkbucht erreicht. In diese will aber zeitgleich ein anderes gelangen, um seinen Besitzer in Sicherheit zu bringen. Darf eines von ihnen den Gegner töten respektive durch die Umstände töten lassen, damit der Besitzer überlebt? Die Übertragung gemahnt an den Klassiker in verschiedenen Aspekten.
Weitere Dilemmata
Weitere Dilemmata warten darauf, ins 21. Jahrhundert transportiert zu werden, in die Welt der Softwareagenten und Serviceroboter, der militärischen Drohnen und autonomen Autos. Sie dürfen dem Werk antiker und moderner Philosophen entnommen werden sowie dem der Science-Fiction-Autoren, von Isaac Asimov und Stanislaw Lem. Sie sind für diejenigen gedacht, die ihren Kopf gebrauchen und ihre Handlungen überprüfen wollen. Natürlich müssen wir uns nicht auf Traditionen und auf Fiktionen von Titanen berufen. Wir dürfen ganz neue Gedankenexperimente anstellen. Und nicht nur wir, sondern auch die Maschinen. Wenn sie sich die Dilemmata ausdenken, in denen sie die Protagonisten sind, kommen sie vielleicht von selbst darauf, sich in Bescheidenheit zu üben. (Oliver Bendel)
Der Autor:
Oliver Bendel ist studierter Philosoph und promovierter Wirtschaftsinformatiker. Er lehrt und forscht als Professor für Wirtschaftsinformatik an der Hochschule für Wirtschaft FHNW, mit den Schwerpunkten Wissensmanagement, E-Learning, Social Media, Informationsethik und Maschinenethik. Weitere Informationen über www.oliverbendel.net, www.informationsethik.net und www.maschinenethik.net.
(Illustration: Kopf des Philosophen Karneades (215-129 v. Chr.). Römische Kopie nach der Sitzstatue, die anscheinend noch zu seinen Lebzeiten 150 v. Chr. auf der Agora von Athen aufgestellt wurde. Via
Wikimedia Commons.)