ChatGPT: OpenAI entwickelt KI, um eigene KI zu entlarven

1. Februar 2023 um 12:57
image
Foto: Getty / Unsplash+

Die Firma hat ein neues Tool auf den Markt gebracht, das erkennen soll, ob ein Text von einem Menschen oder einer KI geschrieben wurde.

Gegen ChatGPT gibt es bei aller Begeisterung viele Vorbehalte. Die künstliche Intelligenz könne beispielsweise beim Schummeln in der Schule oder an der Uni helfen. Doch künftig soll ein neues Tool KI-generierte Texte und von Menschen geschriebene Inhalte unterscheiden können.
OpenAI versucht damit, die Folgen der eigenen Erfindung in den Griff zu bekommen. Die Entwicklerfirma von ChatGPT hat ein Programm veröffentlicht, das unterscheiden soll, ob ein Text von einem Menschen oder einem Computer geschrieben wurde.

Erkennungsrate noch tief

Noch funktioniert die Erkennung allerdings schlecht, wie OpenAI in einem Blogeintrag einräumt. In Testläufen habe die Software in 26% der Fälle korrekt von KI geschriebene Texte identifiziert. Zugleich seien aber auch 9% der von Menschen formulierten Texte fälschlicherweise einer Maschine zugeordnet worden. Deshalb empfehle man vorerst, sich bei der Bewertung der Texte nicht hauptsächlich auf die Einschätzung des "Classifiers" zu verlassen.
ChatGPT überzeugt vor allem durch die sprachliche Qualität seiner Antworten. Zugleich können sich die Nutzerinnen und Nutzer aber nicht darauf verlassen, das ChatGPT auch tatsächlich wahrheitsgetreu antwortet und die Fakten richtig auf die Reihe bekommt. Kritiker des Systems stören sich ausserdem daran, dass das KI-System keine Quellen für seine Aussagen nennen kann.

Problem insbesondere für Schulen

Vor allem im Bildungsbereich wird diskutiert, wie Inhalte eines Text-Roboters entlarvt werden können. Mit einem klassischen Plagiat-Scanner, mit dem man die Authentizität von Texten wirksam überprüfen kann, kommt man nicht weiter. Diese Scanner überprüfen nur, ob der Text oder Teile davon bereits in anderen Quellen vorkommen. ChatGPT produziert aber einzigartige Texte, die exakt so noch nie formuliert wurden. In den USA hat die KI kürzlich bereits eine Jusprüfung bestanden.
Bei OpenAI ist auch der Einsatz von einer Art digitalem Wasserzeichen für ChatGPT im Gespräch, das für menschliche Augen nicht erkennbar wäre. Eine spezielle Überprüfungssoftware würde dann signalisieren, ob es sich um einen KI-Text handelt oder nicht.

Die Konkurrenz ist aufgeschreckt

Der Hype um ChatGPT schreckt nun auch die Konkurrenz auf. Vor allem der Google-Konzern Alphabet sieht darin eine ernsthafte Gefahr für das eigene Geschäftsmodell. Google entwickelt zwar ebenfalls seit Jahren Software, die wie ein Mensch schreiben und sprechen kann, sah bisher aber vor einer Veröffentlichung ab.
Nun lasse der Konzern aber Mitarbeitende einen Chatbot testen, der ähnlich wie ChatGPT funktioniere, berichtete 'CNBC'. In einer internen E-Mail heisse es, dass eine Antwort auf ChatGPT Priorität habe. Google experimentiere auch mit einer Version seiner Internet-Suchmaschine, die mit Fragen und Antworten arbeite.

Loading

Mehr zum Thema

image

Microsofts nächster KI-Schritt erreicht die Security

"Security Copilot" sei in allen Sicherheits- und Netzwerk­disziplinen geschult, verspricht Microsoft. Der GPT-4-basierte Dienst soll Teams dabei helfen, ihre Umgebung besser zu verstehen.

publiziert am 29.3.2023
image

Schwäbisch-Cupertino: Lidl-Mutter investiert massiv in KI

Die Schwarz Gruppe entpuppt sich als treibende Kraft hinter dem ehrgeizigsten AI-Park Europas.

publiziert am 28.3.2023
image

Frankreich verwendet KI-Überwachung für Olympia 2024

Die Pläne für eine neue Überwachungsmethode treffen im Gastgeberland auf Widerstand. Nach hitzigen Debatten haben die Gesetzgeber die KI-gesteuerten Kameras trotzdem genehmigt.

publiziert am 28.3.2023
image

Europol warnt vor den dunklen Seiten von ChatGPT und Co.

Die europäische Polizeibehörde möchte das öffentliche Bewusstsein über Missbrauchsmöglichkeiten von KI erhöhen.

publiziert am 27.3.2023