Seit Ende 2022 die ersten KI-Sprachbots vorgestellt wurden, ist das Thema Künstliche Intelligenz auch im Mainstream angekommen. Was früher nur Wissenschaftler oder Technologieinteressierte beschäftigte, ist heute für viele Menschen zugänglich. Die Entwicklungen im Bereich laufen mittlerweile so rasant, dass fast täglich irgendwelche Neuheiten präsentiert werden. Manchen Leuten geht das jedoch zu schnell:
In einem offenen Brief fordern Experten und Führungskräfte aus der IT-Branche eine sechsmonatige Pause beim Trainieren neuer, leistungsfähiger KI-Systeme. Zu den Unterzeichnern gehören etwa Elon Musk, der auch Mitgründer von OpenAI ist, Apple-Mitgründer Steve Wozniak und zahlreiche renommierte Forschende aus dem KI-Bereich.
Der Brief wurde mittlerweile von mehr als tausend Personen unterzeichnet. Die Verfasser äussern darin ihre Sorge, dass die derzeitigen Entwicklungen "ausser Kontrolle" laufen könnten. "Leistungsstarke KI-Systeme sollen erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind", ist in dem Schreiben zu lesen. Das derzeitige Wettrennen würde solche Ansätze aber verhindern.
Keine neuen Black-Boxes schaffen
Mit einer Pause soll geklärt werden, wie eine Flut an Falschinformationen durch Künstliche Intelligenz verhindert werden kann, welche Arbeitsstellen durch die Automatisierung gefährdet sind oder was passiert, wenn nicht-menschliche Intelligenzen entwickelt werden, die uns überlegen sind, uns überlisten und überflüssig machen könnten. "Diese Entscheidungen dürfen nicht an Technikführer delegiert werden", heisst es im Brief.
Deshalb fordern die Autoren alle KI-Labors auf, das Training von KI-Systemen, die leistungsfähiger sind als das Sprachmodell GPT4 von OpenAI, ab sofort für mindestens 6 Monate zu unterbrechen. Während dieser Zeit sollen die Unternehmen zusammen mit unabhängigen Experten gemeinsame Sicherheitsprotokolle für fortschrittliche KI-Designs und -Entwicklungen entwickeln und umzusetzen.
Die Arbeit soll öffentlich überprüfbar sein und alle wichtigen Akteure sollen miteinbezogen werden. Dabei warnen die Unterzeichnenden auch: "Wenn eine solche Pause nicht schnell umgesetzt wird, sollen die Regierungen eingreifen und ein Moratorium verhängen." Die Forderung sei kein genereller Stopp in der KI-Entwicklung, halten die Autoren fest. Es soll lediglich eine Abkehr vom gefährlichen Wettlauf zu immer grösseren, unberechenbaren Black-Box-Modellen mit emergenten Fähigkeiten stattfinden.