Mensch vs. Maschine – Wo braucht es Grenzen?

Was akzeptieren Kunden in Sachen KI? Die Konferenz Shift widmete sich Fragen rund um Datenschutz, Privatsphäre und Ethik im Rahmen der Automatisierung.
 
Zum ersten Mal ging gestern in Zürich die Konferenz Shift, organisiert vom Centre for Digital Responsibility (CDR) über die Bühne und bot Raum, das Thema "Digitalisierung und Ethik" von Seiten der Wissenschaft, Wirtschaft und Politik zu beleuchten. Im Zentrum standen Fragen wie: Was begeistert Kunden bei neuartigen Angeboten, die dank disruptiven Technologien wie KI möglich sind? Was akzeptieren sie, was nicht? Und wo sind Grenzen nötig?
 
"Wir wollen eine positive Grundhaltung gegenüber der Digitalisierung", forderte Cornelia Diethelm, Gründerin des CDR, zum Kongressbeginn auf.
 
Ein positives Bild zeichnete denn auch Markus Gross, Director Disney Research Zurich, in seiner Keynote. Auch das Geschäft von Disney werde durch die Digitalisierung verändert, so Gross. Konsumenten und Produzenten verschwimmen – als Beispiele nannte er Youtube oder Instagram – und auch das Verhalten der Konsumenten habe sich in den vergangenen Jahren verändert.
 
Disney Research entwickle Technologien, um Geschichten zu erzählen. Sei es, um Schnee in einem Animationsfilm wahrheitsgetreu wiederzugeben, ein Gesicht lebensnah zu animieren, oder, um mit neuen Technologien die Konsumenten einzubinden. Mittels AR-Technologien können animierte Figuren in die reale Umgebung gesetzt werden und die Aktivitäten der Avatare können so vom Konsumenten aktiv mitbestimmt werden. "Wir wollen unsere Figuren aus den Filmen rausnehmen und zum Leben erwecken", so Gross.
 
Real oder nicht? KI soll entscheiden
In Bezug beispielsweise auf lebensechte Animationen, entstehen aber auch Ängste. Wie können wir etwa einen Deepfake, ein täuschend echt wirkendes Video, das automatisiert mit Hilfe neuronaler Netze erzeugt wurde, noch als falsch erkennen?
 
Der Mensch werde Fälschungen wohl bald nicht mehr mit blossem Auge als solche erkennen können, aber eine KI schon, sagte Gross und zog eine Parallele zu IT-Sicherheit und Antivirenprogramme. Facebook beispielsweise forsche an Technologien, um Fälschungen identifizieren zu können. Der Disney-Research-Manager geht davon aus, dass solche Technologien – ähnlich wie Antivirenprogrammen – auch bald der Allgemeinheit zur Verfügung stehen werden. "Ich bin da optimistisch."
 
Es brauche auch eine gesellschaftliche Diskussion, nahmen die Teilnehmer einer Panel-Diskussion das Thema auf. Nur weil sich Entscheidungsprozesse mittels KI oder Machine Learning digitalisieren liessen, heisse das noch nicht, dass dies auch umgesetzt werden müsse. Es stelle sich nicht nur die Frage, ob etwas machbar sei, sondern auch ob dieser oder jener Use Case sinnvoll sei.
 
Statt eine Lieferkette zu überprüfen, wie man es früher gemacht habe, müssten jetzt auch die Konsequenzen eines KI-Einsatzes überprüft werden, führte Marc Holitscher, National Technology Officer Microsoft Schweiz, aus. Bei Microsoft verfolge man gewisse Grundsätze, etwa Transparenz, Robustheit oder Privatsphäre, nach denen ein KI Use Case überprüft werde. Damit versuche der Konzern zu antizipieren, wie ein gewisser Algorithmus eingesetzt werden könne und was für Implikationen das habe. Gesichtserkennung sei ein gutes Beispiel. Es gebe praktische Use Cases, etwa das Entriegeln einer Tür, aber auch sehr viele negative Beispiele, weshalb der Konzern in diesem Bereich auch schon Projekte abgelehnt habe.
 
Dominik Brumm, Partner Cubera Solutions, erinnerte in diesem Zusammenhang etwa an das Social Scoring in China, wo das soziale und politische Verhalten der Bürger überwacht und diese nach einem Punktesystem bewertet und sanktioniert werden.
 
Big Data und Ethik
Die Themen Transparenz und Privatsphäre spielen im Zusammenhang mit der Digitalisierung eine grosse Rolle. Welche Berührungspunkte Ethik und Digitalisierung haben, und welche Konsequenzen dies für eine Dienstleistungs- oder Produktgestaltung haben könnte, zeigte Markus Christen Geschäftsführer der Digital Society Initiative (DSI).
 
Problematische Aspekte sieht man bereits, wenn man sich die "vier Vs" von Big Data anschaut: Volume (Datenvolumen), Variety (Vielfältigkeit der Daten), Velocity (Geschwindigkeit der Daten-Entstehung) und Veracity (Vertrauenswürdigkeit der Daten). Werden zu viele Daten über eine Person gesammelt und aus unterschiedlichen Quellen zusammengeführt, führt Christen aus, lässt dies Rückschlüsse auf die Person zu. Was passiert, wenn die Daten analysiert werden? Führt eine Kategorisierung zu Diskriminierung, und wer übernimmt die Verantwortung, wenn anhand von Daten bestimmte Entscheidungen gefällt werden? Diese Fragen müssen sich Unternehmen stellen, wenn sie Big Data und Analytics einsetzen.
 
In diesem Zusammenhang fiel auch das Thema Transparenz immer wieder. Man müsse wissen, warum ein Algorithmus zu dieser oder jener Entscheidung gekommen sei. Aber auch Transparenz gegenüber den Kunden sei wichtig, etwa bei der Frage, welche Daten für welche Zwecke verwendet werden. Endkunden seien sich häufig nicht bewusst, was es bedeute, wenn sie einem Unternehmen ihre persönliche Daten geben und in die Verwendung der Daten einwilligen.
 
Anne Scherer, Assistenzprofessorin für Marketing an der Universität Zürich, veranschaulichte dies mit dem Beispiel der Curly Fries. Diese Spiralpommes auf Facebook zu liken, scheint keine grosse Sache zu sein. Denn, wen soll das schon interessieren? Offenbar aber, so Scherer, würden Algorithmen diese Information verwenden, um Rückschlüsse auf die Intelligenz eines Users zu ziehen.
 
Deshalb brauche es auch etwas mehr Mut von der Politik, sich mit diesen Fragen auseinander zu setzen, war an der Konferenz zu hören. Auch in der Bildung sollte man sich dem Thema mehr annehmen, forderte Blattner. (Katharina Jochum)
 
(Interessenbindung: inside-it.ch ist Medienpartner der Shift 2019.)