DSI will Verbot von Gesichtserkennung im öffentlichen Raum prüfen lassen

26. November 2021, 15:24
  • innovation
  • studie
  • künstliche intelligenz
  • big data
image

Die Initiative der Universität Zürich hat ein Positionspapier zum Einsatz von algorithmischen Systemen publiziert. Sie fordert Massnahmen gegen potenziell missbräuchliche Techniken.

Die Digital Society Initiative der Universität Zürich fordert die Prüfung eines Verbotes oder zumindest eines Moratoriums von Gesichtserkennung im öffentlichen Raum. Diese sowie andere biometrische Verfahren für die Erkennung aus der Ferne dürften nicht eingesetzt werden, wenn die Gefahr einer Massenüberwachung bestehe. Dies schreibt die Initiative in einem neuen Positionspapier.
Dieses erscheint just zu einem Zeitpunkt, an dem die Wogen bezüglich Facial Recognition hochgehen. Auslöser der Debatte war ein Bericht des 'Tagesanzeigers' (Paywall) über den Einsatz eines Covid-Checkers mit Gesichtserkennung im Zürcher Dolder Grand Hotel. Gesichtserkennung im öffentlichen Raum ist für die DSI neben Social Scoring der einzige Einsatz von algorithmischen Systemen, den sie verbieten will. Ansonsten setzt die Initiative auf Anpassungen von bestehenden Gesetzen.
Die DSI vermeidet im Papier den Begriff "Künstliche Intelligenz" und verwendet dafür "algorithmische Systeme", was auch weitere Systeme umfasst, die soziale Auswirkungen haben. KI könne hingegen irreführenden Assoziationen wecken, da es sich auch bei den im engeren Sinne als Künstliche Intelligenz gefassten Technologien um mathematische Optimierungen auf Grundlage von grossen Datenmengen handle – und halt nicht um "Intelligenz" im herkömmlichen Sinne.

DSI will eine Umkehr der Beweislast

Die Bereiche des Regelungsansatzes für algorithmische Systeme sind bekannt: Erkennbarkeit und Nachvollziehbarkeit, Diskriminierung, Manipulation, Haftung sowie Datenschutz und Datensicherheit. Schliesslich sind in den letzten 3 Jahren nicht weniger als 96 KI-Ethik-Regeln und Vorgaben entstanden, wie Forschende der Universität Stanford nachgerechnet haben, um zu konstatierten, dass sie wenige Konsequenzen nach sich gezogen hätten.
Die DSI will nun kein neues "KI-Gesetz" erwirken, sondern sektorspezifische Anpassungen in bestehenden Gesetzen. Laut der Initiative der UZH reichen diese oftmals, wenn man die Auslegung und Anordnung an die neuen Technologien anpasst.
Wenn algorithmische Systeme eingesetzt würden, müsse dies für die betroffenen Personen erkennbar und nachvollziehbar sein: Die DSI fordert eine Kennzeichnungspflicht für Anwendungen sowie eine Möglichkeit, Entscheidungen nachzuvollziehen. Zudem müsse man über ein öffentliches Register nachdenken, aus dem hervorgehe, in welchen Bereichen die Verwaltung solche Systeme einsetze und welche Daten, Zwecke und Akteure involviert seien.
In Sachen Diskriminierung fordert die DSI wie gemeinhin anerkannt: Personen sollen nicht aufgrund von Herkunft, Geschlecht oder ethnischer Zugehörigkeit unterschiedlich behandelt werden. Interessant aber: Sie denkt über eine Beweislastumkehr nach. Die angeblich diskriminierte Person müsse das Vorliegen einer Diskriminierung nur hinreichend glaubhaft machen und das Unternehmen müsste dann den Nachweis erbringen, dass die Entscheidung nicht auf einem geschützten Merkmal beruhe. Ein KI-System erweise sich hier sogar als vorteilhaft, argumentiert die DSI, weil die Entscheidungskriterien nachvollziehbar gemacht werden können.
Ein besonderes Gewicht räumt die DSI der Manipulation in der demokratischen Willensbildung ein: Die Verbreitung von fragwürdigen Inhalten müssten in Ausmass und Art transparent gemacht werden können. An der entsprechenden Stelle nennt die DSI explizit Facebook und dessen Algorithmen. Bei Konsumentscheiden, die ebenfalls durch personalisierte Werbung und Content beeinflusst werden, sei ein Widerrufsrecht denkbar, wenn die Kaufentscheidung auf Manipulation beruht habe.
Grosses Thema bei der DSI ist ausserdem die Schuld- und Haftungsfrage bei Schäden, die durch KI-Systeme verursacht werden. Es sei problematisch, dass Haftungsregeln für Hersteller, die für herkömmliche Produkte entwickelt worden seien, im Vordergrund stehen würden. Man müsse sich hier über sektorspezifische Haftungsregeln für Betreiber der Systeme unterhalten, so die DSI. Diese wirken sich dann auch auf Sicherheitsbestimmungen und Zulassungsverfahren von KI-Systemen aus.
Interessenbindung: Die Technologie, die im Dolder zum Einsatz kommt, stammt von Ava-X. Diese ist ein Tochterunternehmen des Winterthurer Softwareunternehmens Deep Impact, dem auch die Winsider AG, der Verlag von inside-it.ch und inside-channels.ch, gehört.
Korrigenda 29.11. In einer ersten Version des Artikel hiess es, die DSI wolle Gesichtserkennung im öffentlichen Raum verbieten. Sie will aber ein Verbot prüfen lassen, wie die DSI präzisierte. Das wurde im Titel und Einstiegssatz angepasst. Im Kasten wurden zudem drei Behördenmitglieder gestrichen. Diese hatten am Workshop teilgenommen, in dessen Rahmen das Positionspapier erarbeitet wurde. Sie wollten explizit nicht als Autoren auftauchen. 
Das Positionspapier lässt sich von der Website der Digital Society Initiative herunterladen. 

Loading

Mehr zum Thema

image

Elektroflugzeug E-Sling hebt ab

Das von ETH-​Studierenden entwickelte vierplätzige E-Flugzeug ist zum ersten Mal abgehoben. Am Projekt wurde im Innovationspark in Dübendorf gearbeitet.

publiziert am 30.9.2022
image

Ransomware-Banden kaufen Erstzugänge extern ein

Für nur gerade 10 Dollar können sich Cyberkriminelle auf Darkweb-Flohmärkten Zugänge zu Systemen kaufen. Damit können sie dann Schlimmes anrichten.

publiziert am 29.9.2022
image

Schweiz: Wettbewerbsfähigkeit top, E-Government flop

In der aktuellen IMD-Studie steigt die Schweiz in Sachen digitale Wettbewerbsfähigkeit in die Top 5 auf. Dahingegen schwächelt sie im Bereich E-Government.

publiziert am 29.9.2022
image

Nie mehr Hydranten anklicken: Cloudflare präsentiert Alternative zu Captchas

Mit "Turnstile" sollen Captchas obsolet werden. Die Technik laufe im Hintergrund und könne menschliche Webnutzer innert einer Sekunde von Bots unterscheiden.

publiziert am 29.9.2022 1