Die Ausschüsse des EU-Parlaments haben über Auflagen für den Gebrauch von KI abgestimmt. Eine grosse Mehrheit mit 84 Ja-Stimmen, 7 Nein-Stimmen und 12 Enthaltungen sprach sich dafür aus. Dies ist die Grundlage für die Abstimmung des Plenums, also des gesamten Parlaments, die voraussichtlich im Juni stattfinden wird.
"Wir warnen davor, KI durch ein Übermass an Regulierung aus Deutschland und Europa zu vertreiben", kommentiert Bitkom-Präsident Achim Berg dazu. "Wie Europa sich zur Künstlichen Intelligenz verhält, wird grossen Einfluss auf unsere künftige Wettbewerbsfähigkeit und unseren Wohlstand haben. Die vergangenen Monate haben mit Durchbrüchen rund um generative Künstliche Intelligenz wie ChatGPT angedeutet, welch enormes Potenzial diese Technologie besitzt."
Die EU wäre der erste Wirtschaftsraum weltweit, der Vorschriften für die Künstliche Intelligenz erlässt.
In den Änderungsanträgen geht es darum, dass KI-Systeme von Menschen überwacht werden sowie sicher, transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sein sollen. Ausserdem wollen sie eine einheitliche und technologieneutrale KI-Definition, so dass "sie für die KI-Systeme von heute und morgen gelten kann".
Strengere Regeln für ChatGPT und Co.
Die Vorschriften folgen einem risikobasierten Ansatz und legen Verpflichtungen für Anbieter und Nutzerinnen und Nutzer fest, die sich nach dem Grad des Risikos der KI richten.
KI-Systeme mit inakzeptablem Risiko sollen in der EU zukünftig verboten werden. "Dazu gehören Systeme, die unterschwellige oder absichtlich manipulative Techniken einsetzen, die Schwachstellen von Menschen ausnutzen oder für Social Scoring (Klassifizierung von Menschen auf der Grundlage ihres Sozialverhaltens, ihres sozioökonomischen Status oder persönlicher Merkmale) verwendet werden", so das EU-Parlament.
Die Abgeordneten änderten die Verbotsliste gravierend, um auch Verbote für aufdringliche und diskriminierende Anwendungen von KI-System aufzunehmen:
- biometrische Erkennungssysteme in Echtzeit in öffentlich zugänglichen Räumen;
- biometrische Erkennungssysteme im Nachhinein, mit der einzigen Ausnahme von Strafverfolgungsbehörden zur Verfolgung schwerer Straftaten und nur nach richterlicher Genehmigung;
- biometrische Kategorisierungssysteme, die sensible Merkmale verwenden (z. B. Geschlecht, Rasse, ethnische Zugehörigkeit, Staatsangehörigkeit, Religion, politische Orientierung);
- prädiktive Polizeisysteme (auf der Grundlage von Profilerstellung, Standort oder früherem kriminellen Verhalten);
- Systeme zur Erkennung von Emotionen bei der Strafverfolgung, beim Grenzschutz, am Arbeitsplatz und in Bildungseinrichtungen; und
- wahlloses Auslesen biometrischer Daten aus sozialen Medien oder Videoüberwachungsaufnahmen zur Erstellung von Gesichtserkennungsdatenbanken (Verletzung der Menschenrechte und des Rechts auf Privatsphäre).
Zudem gibt es strengere Regeln für
ChatGPT und Co. "Generative Basismodelle wie GPT müssten zusätzliche Transparenzanforderungen erfüllen, z. B. offenlegen, dass die Inhalte durch KI generiert wurden, das Modell so konzipieren, dass es keine illegalen Inhalte generiert, und Zusammenfassungen urheberrechtlich geschützter Daten veröffentlichen, die für das Training verwendet wurden", heisst es seitens des EU-Parlaments.