KI-Studie sieht viele, viele Probleme und ganz wenige Lösungen

11. Dezember 2018, 15:23
image

Wer ist verantwortlich, wenn KI-Systeme Schäden verursachen? Wie verstehen wir diese Schäden und wie können wir sie beseitigen? Welche Forschungs- und Regulierungs-Massnahmen müssten dafür ergriffen werden? Diesen Grundfragen geht ein aktueller Report des AI Now Instituts der New York University nac

Wer ist verantwortlich, wenn KI-Systeme Schäden verursachen? Wie verstehen wir diese Schäden und wie können wir sie beseitigen? Welche Forschungs- und Regulierungs-Massnahmen müssten dafür ergriffen werden? Diesen Grundfragen geht ein aktueller Report des AI Now Instituts der New York University nach – und sucht Lösungen.
Das interdisziplinäre Forschungsinstitut, das sich besonders mit den sozialen Folgen und Implikationen von künstlicher Intelligenz befasst, sieht erstmal einen Haufen Probleme: Durch die Ausbreitung von KI, insbesondere Face Recognition, würde eine immer stärkere Überwachung ermöglicht. Indessen blieben die Rechenschaftspflichten unklar und löchrig und die Betroffenen gegenüber den Anwendern zunehmend benachteiligt. Dies gelte auch für den steigenden Einsatz von oftmals unreifen automatisierten Entscheidungssystemen. Zudem gebe es unregulierte KI-Experimente an Bevölkerungsgruppen, wie sie etwa vom Silicon Valley ausgehen würden. Problematisch sei ausserdem, dass die Lösungen für diese Probleme – wie auch für Verzerrungen und Diskriminierung – innerhalb der Technologie selbst gesucht würden, statt den sozialen Ursprung zu adressieren.
Bislang gebe es erst sehr wenige Antworten auf diese drängenden Probleme. Zwar habe es in den vergangenen Jahren eine Reihe von Leitlinien und ethischen Grundsätzen gegeben. Erinnert sei hier an die KI-Leitlinien, die Anfang 2017 von rund 2800 Tech-Leadern unterschrieben wurden, die sich Google dieses Jahr selbst auferlegt hat. Studien zeigten aber, dass dies wenig messbare Auswirkungen auf die Entwicklung von künstlicher Intelligenz habe, monieren die Wissenschafter des AI Now Instituts. Insbesondere seien die Ethik-Kodexe nicht in die Entwicklung von KI-Systemen integriert.
Um dies zu ändern schlagen sie einige Strategien vor:
- Die Erweiterung der KI-Gerechtigkeitsforschung über den Fokus auf mathematische und statistische Fragen hinaus. So soll man sich interdisziplinär auf dem Feld der Gerechtigkeit und Fairness bewegen. Insbesondere sollen auch die Kategorien wie "Race", Gender und Macht in der sozialen Realität sowie deren Repräsentation in den Algorithmen analysiert werden.
- Die Untersuchung der gesamten Infrastruktur von KI-Anwendungen inklusive einer Bilanzierung der Lieferketten. Denn um eine Rechenschaftspflicht zu gewährleisten, müssten die Prozesse besser verstanden und verfolgt werden können, über alle Komponenten eines KI-Systems und die gesamte Supply-Chain hinweg.
- Die Entwicklung neuer Politiken der Intervention und Prozessmöglichkeiten. Insbesondere sollen Regierungen stärkere Regulierungs- und Kontroll-Instanzen für KI etablieren – dies aber sektorenspezifisch, da sich etwa Gesundheit, Bildung, Justiz und Wohlfahrtsstaat in den Anforderungen stark unterscheiden würden. Besonderes Augenmerk gilt hier laut dem "AI Now Institut" der Face-Recognition, die einige Fallstricke berge.
- Die Bildung von Koalitionen zwischen Forschern, der Zivilgesellschaft und der Technologie-Branche. Die einzelnen Firmen der Branche müssten interne Verantwortung und Regulation sicherstellen sowie Einblicke in die Funktionsweise ihrer KI-Anwendungen bieten. Verbraucherschützer sollen zudem Private und Firmen vor dem Hype und den damit verbundenen Versprechungen schützen und die Werbung der KI-Industrie auf den Realitätsgehalt hin prüfen.
Durch die Massnahmen versprechen sich die Wissenschafter, dass "ernsthafte Probleme und Gefahren" abgewendet werden können. Generell sei es dafür unerlässlich, dass das Machtgleichgewicht zu Gunsten der Öffentlichkeit verschoben werde, schliessen die Wissenschafter.
Der "AI Now Report 2018" (PDF) kann von der Website des Instituts heruntergeladen werden. (ts)

Loading

Mehr zum Thema

image

Zürcher Datenschützerin zum Cloudeinsatz: "Der Regierungsratsbeschluss ändert gar nichts"

Bei Dominika Blonski häufen sich seit dem Frühling Anfragen von Behörden zur Cloudnutzung. Im Gespräch sagt die Datenschützerin: "Ich weiss nicht, was die Absicht der Zürcher Regierung war."

publiziert am 30.9.2022 7
image

Intel bringt Mobileye die Börse

Durch den Börsengang des Auto-Zulieferers soll eine Bewertung von 30 Milliarden Dollar erreicht werden. Dies ist deutlich weniger als früher erwartet wurde.

publiziert am 3.10.2022 1
image

Datenschützer äussern harsche Kritik an Cloud-Entscheiden von Behörden

Die Konferenz der schweizerischen Datenschutzbeauftragten (Privatim) fordert: Kein Freipass für Microsoft 365.

publiziert am 30.9.2022
image

Softwareone erhält an einem Tag 2 Freihänder für fast 14 Millionen Franken

Der Stanser IT-Dienstleister ist bei Swissgrid Reseller für Standardsoftware und kann fürs Stadtzürcher OIZ die Lizenzen für die Microsoft-EDR-Lösung liefern. Dafür kassiert Softwareone Millionen.

publiziert am 30.9.2022