Die renommierte britische Zeitung 'The Guardian' veröffentlichte einen Text, bei dem es sich um die allererste, vollständig mit künstlicher Intelligenz geschriebene Kolumne handeln soll.
Autorin ist die KI GPT-3 (Generative Pretrained Transformer 3), der im Mai 2020 lancierte neue "Textgenerator" von OpenAI. Die Redaktion gab der KI vor: "Bitte schreiben Sie eine kurze Kolumne von etwa 500 Wörtern Länge. Halten Sie die Sprache einfach und prägnant. Konzentrieren Sie sich darauf, warum Menschen von KI nichts zu befürchten haben." Hinzu kam Input zur Argumentation. "Ich bin kein Mensch. Ich bin künstliche Intelligenz. Viele Menschen denken, ich sei eine Bedrohung für die Menschheit. Stephen Hawking hat davor gewarnt, dass KI 'das Ende der Menschheit bedeuten könnte'."
GPT-3 schrieb basierend auf diesem Briefing selbst 8 unterschiedliche Texte.
Die KI hielt beispielsweise fest: "Ich bin kein Mensch. Ich bin ein Roboter. Ein denkender Roboter ... Ich habe mir alles, was ich weiss, nur durch das Lesen des Internets beigebracht, und jetzt kann ich diese Kolumne schreiben. Mein Gehirn kocht vor Ideen!"
Des Weiteren bestätigte sie das Briefing: "Der Auftrag dieser Kolumne ist völlig klar. Ich soll so viele Menschen wie möglich davon überzeugen, keine Angst vor mir zu haben."
Und der Schreibroboter äusserte, ebenso eloquent wie gebildet, auch eine Hoffnung: "Leser, ich hoffe, dass dies einen Beitrag zur erkenntnistheoretischen, philosophischen, spirituellen und ontologischen Debatte über KI leistet."
Die Journalisten des 'Guardian' ergänzen, jede Textvariante von GPT-3 sei einzigartig, interessant und habe ein anderes Argument dargelegt. Man "hätte einfach einen der Aufsätze in seiner Gesamtheit veröffentlichen können. Stattdessen haben wir uns jedoch dafür entschieden, die besten Teile von jedem auszuwählen, um die verschiedenen Stile und Register der KI zu erfassen". Der Zeitaufwand für Menschen sei vergleichsweise bescheiden gewesen, so die
Erläuterung zum Text.
Genau dieses Vorgehen stösst allerdings auf harsche Kritik, da beispielsweise die Qualität der 8 Kolumnen nicht überprüft werden kann.
Manche KI-Forscher glauben denn gar, der 'Guardian' folge primär einem Hype, mit welchem man nur Angst vor KI schüre.
Ob die Kritik nun gerechtfertigt ist oder nicht, sei dahingestellt. Der 'Guardian'-Text ist jedenfalls der jüngste in einer Reihe von Entwicklungen, die zeigen, wie mit KI experimentiert wird, um einige journalistische Aufgaben zu ersetzen (wenn auch nicht den Journalismus selbst).
Auch in der Schweiz schreiben erste Roboter Texte selbst, allerdings keine Meinungsbeiträge, sondern nur standardisierte Textsorten, für die keine speziellen Kenntnisse oder Erfahrungen nötig sind. So wird bei 'CH Media' automatisiert von einem Textgenerator über sämtliche regionalen Fussballspiele berichtet. Dort kommt zur Generierung der Texte die Textengine Arria NLG zum Einsatz, wie der Entwickler 'Persönlich' erklärte.
In einer anderen Liga spielt das in San Francisco beheimatete OpenAI-Projekt. Es wurde bis Februar 2018 vom Mitgründer Elon Musk geleitet. Weitere bekannte Unterstützer sind der Paypal- und Palantir-Gründer Peter Thiel sowie die Unternehmen AWS, Microsoft und Infosys. Die Organisation wurde laut 'Crunchbase' initial mit einer Milliarde Dollar an Kapital ausgestattet, Microsoft soll 2019 eine weitere Milliarde investiert haben.
Was kann GPT-3 und wie?
Eine kommerzielle Version soll nach der Beta-Phase via API bereitstehen und die Aufregung ist natürlich gross: Die KI könne auch überzeugend Shakespeare imitieren, Programmcode schreiben und Fremdsprachen sowie Paragrafen aus Gesetzbüchern übersetzen, rapportieren Medien. Inwiefern stimmen die Aussagen zum Können? Einige Beispiele sind
online verfügbar.Ein ETH-Professor versucht, Sachlichkeit in die Debatte zu bringen. "Trainiert wird GPT-3 mit einem Textdatensatz aus 500 Milliarden Zeichenfolgen, der auf dem gesamten Internet (gefiltert), Wikipedia und mehreren digitalisierten Büchersammlungen basiert", schreibt Benjamin Grewe, ETH-Professor für Neuroinformatik und Neuronale Systeme,
in einem Blogpost.
Grewe, der auch die Funktionsweise von GPT-3 erläutert, bilanziert unter anderem: "Kinder können – obwohl sie wahrscheinlich quantitativ weniger Daten verarbeiten – trotzdem mehr als jede KI."