OpenAI veröffentlicht sein neuestes KI-Modell GPT-4. Für zahlende Nutzer ist das Modell über ChatGPT Plus ab sofort verfügbar, Entwickler können sich für den Zugriff auf die API auf eine Warteliste eintragen.
Trainiert wurde GPT-4 mit öffentlich zugänglichen Daten, unter anderem von Webseiten, sowie mit Daten, die OpenAI lizenziert hat. Wie frühere GPT-Modelle hat GPT-4 im Allgemeinen keine Kenntnis von allem, was nach September 2021 passiert ist.
Ein Rezept mit Foto des Kühlschrankinhalts
Während die Vorgängerversion 3.5 nur Texteingaben akzeptierte, ist GPT-4 in der Lage, basierend auf Bild- und Texteingaben Texte zu generieren. Die KI könne somit Bilder beschriften und sogar interpretieren.
Diese Funktion ist allerdings noch nicht breit verfügbar. Derzeit wird sie gemäss einem Blogeintrag mit dem Kunden "Be My Eyes" getestet, der eine App für sehbehinderte Personen bietet. "Wenn ein Nutzer beispielsweise ein Bild vom Inneren seines Kühlschranks schickt, kann der Virtual Volunteer nicht nur korrekt erkennen, was sich darin befindet, sondern auch extrapolieren und analysieren, was mit diesen Zutaten zubereitet werden kann. Das Tool kann dann auch eine Reihe von Rezepten für diese Zutaten anbieten und eine Schritt-für-Schritt-Anleitung für deren Zubereitung übermitteln."
Mehr Kontrolle über Stil und Grenzen
"Wir haben 6 Monate damit verbracht, GPT-4 sicherer zu machen", schreibt OpenAI. In einer beiläufigen Unterhaltung könne der Unterschied zwischen GPT-3.5 und GPT-4 subtil sein, heisst es weiter. "Der Unterschied kommt zum Vorschein, wenn die Komplexität der Aufgabe eine ausreichende Schwelle erreicht – GPT-4 ist zuverlässiger, kreativer und in der Lage, viel nuanciertere Anweisungen als GPT-3.5 zu verarbeiten."
Eine weitere Verbesserung in GPT-4 sind "System"-Nachrichten. Diese geben Entwicklern mehr Möglichkeiten, die Rückmeldungen zu steuern, etwa durch Stilvorgaben und gewisse Grenzen. Eine Systemnachricht könnte zum Beispiel lauten: "Du bist ein Tutor, der dem Schüler nie die Antwort gibt, sondern versucht, genau die richtige Frage zu stellen, um ihm zu helfen, selbst zu denken."
GPT-4 ist bereits im Einsatz, wie sich nun herausstellt. Microsoft hat bestätigt, dass Bing Chat, die mit OpenAI entwickelte Chatbot-Technologie, auf GPT-4 läuft. Daneben ist das neuste KI-Modell auch in der Sprachlern-App Duolingo integriert. Morgan Stanley entwickelt ein GPT-4-gestütztes System, das Informationen aus Unternehmensdokumenten abruft und sie Finanzanalysten zur Verfügung stellt.
KI "halluziniert" noch immer Fakten herbei
In der Mitteilung nennt OpenAI einige akademische Erfolge des neuen Modells: So besteht GPT-4 beispielsweise eine simulierte Anwaltsprüfung mit einer Punktzahl, die in den oberen 10% der Ergebnisse liegt; im Gegensatz dazu lag die Punktzahl von GPT-3.5 in den unteren 10%. Auch bei Standardtests für Schüler liegt GPT-4 demnach in den oberen 10%.
Fortschritte soll es auch bei "schwierigen Inhalten" geben. Internen Auswertungen zufolge sei die Wahrscheinlichkeit, dass GPT-4 sachliche Antworten gibt, deutlich höher, und die Wahrscheinlichkeit, dass die KI auf unzulässige Inhalte reagiert, um über 80% geringer als bei GPT-3.5, schreibt OpenAI. Als Beispiele nennen die Entwickler Anleitungen zur Herstellung gefährlicher Chemikalien, medizinische Ratschläge und alles, was mit Selbstverletzungen zu tun hat.
Trotz der Erweiterungen und Verbesserungen räumt OpenAI ein, dass GPT-4 noch lange nicht perfekt sei. Die KI "halluziniert" noch immer Fakten herbei und macht Fehler. In einem von OpenAI angeführten Beispiel beschrieb GPT-4 Elvis Presley als "Sohn eines Schauspielers" – ein offensichtlicher Fehltritt. Ausserdem könne die KI übermässig leichtgläubig sein, indem sie offensichtlich falsche Aussagen eines Benutzers akzeptiert. Bei manchen Problemen könne das Modell genauso versagen wie Menschen, etwa indem es Sicherheitslücken in den von ihm produzierten Code einführt, schreibt OpenAI.