"ChatGPT ist lustig, aber Zeitverschwendung"

22. Dezember 2022, 09:26
image
Eva Wolfangel. Foto: Helena Ebel

Tech-Journalistin Eva Wolfangel hat sich intensiv mit dem KI-Sprach­modell auseinandergesetzt. Im Interview erklärt sie, weshalb sie keine Use Cases sieht und wo die Probleme des Systems liegen.

Eva Wolfangel ist Kulturwissenschaftlerin und Journalistin. 2020 wurde sie mit dem deutschen Reporterinnenpreis für die beste Wirtschaftsreportage ausgezeichnet. Im Zuge ihrer Arbeit beschäftigt sich die freie Journalistin mit Zukunftstechnologien wie künstlicher Intelligenz und virtueller Realität. Dazu ist sie auch als Speakerin und Moderatorin tätig. Inside-it.ch hat Eva Wolfangel zum virtuellen Interview getroffen, um mit ihr über die Sprach-KI ChatGPT, das auf dem Sprachmodell GPT 3.5 basiert, zu sprechen.
Welche Erfahrungen haben Sie mit der Sprach-KI ChatGPT gemacht?
Vor einem Jahr habe ich das Sprachmodell GPT3 zum ersten Mal über einen Forschungszugang benutzt. Ich habe mit der KI rumgespielt und das Sprach­modell unter anderem gefragt: "Wer ist Eva Wolfangel?" Das System hat auf diese Frage die willkürlichsten Antworten gegeben. ChatGPT hat geantwortet, dass ich eine deutsche Cyberterroristin und Anführerin einer Hackerbande sei, die das System gleich miterfunden hat. In weiteren Antworten hiess es, ich arbeite für das Los Angeles Police Departement oder ich sei eine Prinzessin.
Diese Märchen wurden aber sehr überzeugend vorgetragen?
Auf jeden Fall fand ich die erzeugten Texte lustig und interessant. Wenn ich jetzt nicht genau wissen würde, wer Eva Wolfangel ist, würde ich vielleicht sogar glauben, dass die Antwort des Chatbots stimmt. Das System bringt seine Antworten mit einer grossen Überzeugung und Selbstverständlichkeit rüber. Die Kommunikation erfolgt in ganzen Sätzen, die Sprache ist klar formuliert und es gibt kaum grammatikalische Fehler. Mit der ganzen Eloquenz entsteht schon fast der Eindruck, dass für die Antwort etwas recherchiert wurde.
Und wie schauts mit dem Inhalt aus?
Aufgrund meiner Arbeit weiss ich ja, wie solche Systeme funktionieren und dass die Antworten nicht der Wahrheit entsprechen müssen. Darin liegt schlussendlich aber auch die Gefahr, weil wir als Menschen dazu geneigt sind, Dinge zu glauben, die besonders eloquent präsentiert werden. Das kennt man auch aus unserer Gesellschaft. Betrüger sind dann besonders erfolgreich, wenn sie sehr selbstbewusst und sprachgewandt daherkommen.
Sie sehen ihren Job als Forscherin und Journalistin nicht durch ChatGPT gefährdet?
Gerade weil man nicht sicher sein kann, ob die KI die Wahrheit sagt, sehe ich das Berufsfeld des Journalismus nicht gefährdet. Solange Fakten vom Sprach­bot frei erfunden werden, wird es nicht so weit kommen, dass der Journalismus ersetzt wird. Die Systeme lernen zwar aus den Daten im Internet, können aber nicht beurteilen, was genau der Wahrheit entspricht und was nicht. Meiner Meinung nach wird sich das in Zukunft auch nicht ändern.
Das Alleinstellungsmerkmal unseres Berufes ist die Wahrheit. Klar müssen wir auch schön und fehlerfrei schreiben können, aber diese Punkte kommen immer erst an zweiter Stelle. Aus diesen Gründen bin ich nicht wirklich um die Zukunft unseres Berufes besorgt.
Die Wahrheitsfindung ist also die grösste Schwäche von solchen Sprach­systemen?
Ich denke schon. Dadurch werden potenzielle Use Cases enorm eingeschränkt. Was macht man mit einem solchen System? Klar kann man lustige Geschichten schreiben lassen, habe ich auch zu Genüge getan, aber schlussendlich ist es Zeitverschwendung. Wozu sollen wir ein Tool nutzen, wenn wir ganz genau wissen, dass es nicht unbedingt die Wahrheit sagt. Viele weitere Anwendungs­fälle fallen mir dann nicht mehr ein.
Es können also nur Themen behandelt werden, die man auch selber über­prüfen kann. Es gibt zum Beispiel Lehrpersonen, die Mathematik­prüfungen von ChatGPT entwerfen lassen. Die können dann aber auch überprüfen, ob die Resultate Sinn ergeben oder einzeln Aufgaben hinzufügen und streichen. So kann vielleicht etwas Arbeitszeit gespart werden.
Aber ich vermute eher, dass Chatbots von der Menschheit in Zukunft wie eine Art Suchmaschine benutzt werden. Personen werden Fragen stellen und die Antworten der KI für bare Münze nehmen. Da kann es dann auch sehr schnell sehr gefährlich werden, wenn ein solches System anfängt Fake-News zu produzieren.
Sehen Sie noch weitere Gefahren für die Gesellschaft?
Als zweite grosse Gefahr sehe ich die Probleme mit den Vorurteilen, die in der Künstlichen Intelligenz stecken. Dazu habe ich recherchiert, mit welchen Daten ChatGPT trainiert wird. Ein Grossteil der Informationen ist in englischer Sprache gehalten. In einem grösseren Trainingsdatensatz sind auch andere Sprachen vorhanden, allerdings nur zu einem minimalen Prozentsatz.
Während rund drei Viertel der Trainingsdaten in Englisch sind, sind die meisten restlichen Sprachen der Welt jeweils nur mit ungefähr einem Prozent oder weniger vertreten. Nur schon aus diesem Grund hat der Sprachbot einen sehr einseitigen Blick auf die Welt. Und natürlich wird der Bias auch mit den Daten übernommen, die aus dem Internet kommen. Diese sind generell verzerrt und mit menschlichen Vorurteilen behaftet. Darin sehe ich das nächste grosse Problem.
Würde eine grössere Anzahl und Diversität an Daten das Problem lösen?
Bedingt, denn diese Daten müssten dazu auch sehr gut kuratiert sein. Das wäre allerdings ein Aufwand, der beinahe unvorstellbar ist. Denn das würde nur wirklich gut funktionieren, wenn die Daten von Menschen handverlesen werden. Auf der anderen Seite wissen wir, dass KI unglaublich viele Daten braucht, um gut zu funktionieren. Eine weiter Möglichkeit wäre eine automatische Methode, bei der bestimmte Faktoren einfach gestrichen werden.
Forschende haben aber bereits vor Jahren herausgefunden, dass Künstliche Intelligenz mit der Streichung von solchen Faktoren immer schlechter wird. Wenn alles, was einen Verdacht auf Vorverurteilung erweckt, aus den Trainingsdaten gestrichen oder einem Modell untersagt wird, bleibt am Schluss nicht mehr viel übrig. Deshalb sehe ich in diesem Bereich im Moment auch keine wirkliche Lösung.
Glauben Sie, die grossen Techfirmen sind sich dessen bewusst?
Ich glaube schon. Sie kriegen das ja auch ständig zu hören. Vielleicht sind sie aber auch einfach ein bisschen zu sehr vom Erfolg ihrer Chatbots geblendet. Natürlich kann sich die KI sehr eloquent und in einer Sprache, die sehr menschlich klingt, ausdrücken, aber ich glaube, die grossen Probleme im Hintergrund werden stark unterschätzt.
Müssen hier stärkere Regulierungen her?
Wahrscheinlich. Schlussendlich ist das die einzige Option, die noch bleibt. Meiner Ansicht nach müssten wir uns aber zuerst als Gesellschaft überlegen, was wir mit einem solchen System überhaupt machen wollen und was nicht. Am Ende werden wir wohl nicht um Regulierungen herumkommen.
In Zürich wird ein Register für den Einsatz von KI in der öffentlichen Verwaltung gefordert. Wäre das eine Lösung?
Transparenz hilft auf jeden Fall. Aber auch, dass man als Person, die von einer offensichtlich falschen Entscheidung einer KI betroffen ist, eine Möglichkeit hat, sich zu wehren. Ich kenne ein Beispiel aus den USA, da hat ein System berechnet, ob Menschen bei ihren Anträgen für Sozialleistungen geschummelt haben. Das System hatte allerdings einen Bias und hat bei vielen Menschen unberechtigterweise angenommen, dass diese betrogen haben.
Diese wurden dann vom System automatisch gesperrt und haben ihre Sozialleistungen nicht mehr bekommen. Die Fehlentscheidung kam aber erst viel später ans Licht. Gerade dieses tragische Beispiel sollte uns klar machen, dass man sich wehren und nachvollziehen können muss, wie die Entscheidung zustande kam.
Also einerseits mehr Transparenz und andererseits ein Rechtsmittel gegen KI-Entscheidungen.
Ja. Die Transparenz beinhaltet dabei aber auch, dass die Hersteller nachvoll­ziehen können, wie eine Entscheidung zu Stande kommt. Dazu müssen sie die Schritte zur Entscheidungsfindung auch erklären können. Aus der Forschung weiss man, dass das nicht einfach ist. Aber eigentlich ist es die einzige Möglich­keit, wie wir solche Systeme verwenden können: Indem wir das System selbst fragen können, wieso glaubst du, dass diese Person betrogen hat? So kann man auch als Mensch viel schneller sehen, ob die Entscheidungsfindung der Maschine überhaupt Sinn ergibt oder nicht.
Update 23.12. 9.30 Uhr: Link zu Sprachmodell 3.5 eingefügt, der die Unterschiede erklärt.

Loading

Mehr zum Thema

image

Podcast: Wie fair und objektiv ist künstliche Intelligenz?

Der Bundesrat will, dass KI Behörden effizienter macht. Warum das zu einem Problem werden kann, diskutieren wir in dieser Podcast-Folge.

publiziert am 27.1.2023
image

ChatGPT besteht Jusprüfung

An der Universität von Minnesota hat die KI eine genügende Note erzielt. Bei offenen Aufgabestellungen hatte sie aber Mühe.

publiziert am 26.1.2023
image

Weltweite M365-Störung – alle wichtigen Dienste stundenlang offline

Betroffen waren unter anderem Azure, Teams, Exchange, Outlook und Sharepoint. Weltweit waren die Dienste für einen halben Tag offline.

publiziert am 25.1.2023 8
image

Künstliche Intelligenz in der Verwaltung: Droht der Wildwuchs?

Der Bund führt Projekte zu KI-Systemen in Behörden durch, wie sie auch im neuen Datenschutzgesetz erwähnt sind. Zivilgesellschaftliche Organisationen warnen.

publiziert am 24.1.2023