Der Tech-Journalist Luca Bertuzzi hat auf X (vormals Twitter) den Text der Verordnung zur Regulierung von Künstlicher Intelligenz veröffentlicht. Demnach haben die Verhandlungspartner der EU eine finale Fassung des "AI Acts" vorgelegt. Auf knapp 900 Seiten ist zu lesen, wie die gemeinsame Position von Europaparlament und EU-Mitgliedstaaten zustande kam.
Die vorläufige Einigung zum AI Act ist bereits
Mitte Dezember erfolgt, jedoch stand der genaue Wortlaut der einzelnen Artikel noch nicht fest. Die nun geleakte Textversion enthält diejenigen Positionen, auf die man sich einigen konnte. Der finale Text muss von den Verhandlungspartnern noch formal akzeptiert werden.
Gemäss 'Golem' enthält die Verordnung umfangreiche Regelungen zu universellen KI-Systemen, genannt General Purpose AI. Jedoch findet sich der Begriff "Basismodelle", den das Parlament in einem eigenen Artikel regeln wollte, nicht mehr wieder. Stattdessen enthält die Verordnung einen Abschnitt, der solche universellen Systeme reguliert. Diese betreffen auch Chatbots wie ChatGPT oder Bard.
Leistungsfähigkeit als Kriterium
Mit der neuen KI-Verordnung will die EU nicht das Konzept hinter Künstlicher Intelligenz, sondern nur bestimmte Anwendungen regulieren oder verbieten. So sollen etwa automatisierte biometrische Gesichtserkennung oder Social-Scoring-Systeme stark eingeschränkt oder verboten werden. Ebenfalls sollen EU-Bürger und -Bürgerinnen nicht von Entscheidungen betroffen sein, die ausschliesslich auf der Basis maschineller Verfahren beruhen.
Schäden durch KI-Anwendungen können "materiell oder immateriell sein, einschliesslich physischer, psychologischer, gesellschaftlicher oder wirtschaftlicher Schäden", heisst es im Gesetzestext dazu. Daher definiert das neue Gesetz bestimmte Kriterien, nach denen KI-Anwendungen als "systemisches Risiko" eingestuft werden.
Ein KI-System gilt dann als riskant, wenn es über eine hohe Leistungsfähigkeit verfügt, "die auf der Grundlage geeigneter technischer Instrumente und Verfahren, einschliesslich Indikatoren und Benchmarks, bewertet wird". Als Grundlage hierfür wird der kumulative Rechenaufwand, der für das Training des Modells benötigt wird, herangezogen.
Finaler Entscheid bei der EU-Kommission
Wie 'Golem' schreibt, bedeutet das jedoch nicht, dass sämtliche KI-Modelle, die diesen Wert erreichen, als riskant eingestuft werden. Die Anbieter können "ausreichend begründete Argumente vorlegen, um nachzuweisen, dass ihre KI-Modelle für allgemeine Zwecke keine systemischen Risiken birgt".
Die EU-Kommission soll diese Einschätzung dann prüfen und im Zweifelsfall ablehnen können. Sie soll zudem eine Liste der riskanten KI-Modelle veröffentlichen und aktuell halten. Der
gesamte Gesetzestext kann online eingesehen werden. Dabei ist die finale Version jeweils in der Spalte ganz recht zu lesen.