Ilya Sutskever, Mitbegründer und ehemaliger Chefwissenschaftler von OpenAI, gründet ein neues KI-Unternehmen. Safe Superintelligence (SSI) sei ein Startup mit "einem Ziel und einem Produkt": die Entwicklung eines sicheren und leistungsstarken KI-Systems, so Sutskever auf X.
Sutskever war Forschungschef bei OpenAI. Im vergangenen Jahr war er an dem
überraschenden Rauswurf des OpenAI-Chefs Sam Altman beteiligt, der nur wenige Tage später nach Druck von Mitarbeitenden und des Grossinvestors Microsoft wieder rückgängig gemacht wurde. Sutskever blieb danach im Hintergrund und verliess den ChatGPT-Entwickler im Mai. Zu den weiteren SSI-Mitgründern gehören Daniel Gross, der zuvor bei Apple an KI arbeitete, sowie Daniel Levy, der einst mit Sutskever bei OpenAI tätig war.
Die Frage, ob KI-Systeme gefährlich für die Menschheit werden könnten, wenn sie erst einmal leistungsstärker und eigenständiger sind, beschäftigt die Branche schon seit Jahren. Es gibt immer wieder Warnungen von Experten sowie Versuche von Regierungen, Risiken durch strikte Vorgaben und Meldungspflichten zu minimieren.
Finanzierung ist unklar
OpenAI kam einige Jahre nach der Gründung zum Schluss, dass man sich ohne ein kommerzielles Produkt nicht über Wasser halten können werde. So kamen ein milliardenschwerer Pakt mit dem Software-Riesen Microsoft und die Veröffentlichung von ChatGPT zustande. Wie sich Sutskevers neues KI-Vorhaben finanzieren wird, blieb bisher unklar.
Während OpenAI Partnerschaften mit Apple und Microsoft vorantreibt, werde man SSI wahrscheinlich nicht so schnell wiedersehen, glaubt 'The Verge'. Denn Sutskever erklärt, dass das erste Produkt von SSI eine sichere Superintelligenz sein soll. Das Unternehmen werde bis dahin "nichts anderes machen", so der Gründer zu 'Bloomberg'.
(Mit Material von Keystone-sda)