KI-Studie sieht viele, viele Probleme und ganz wenige Lösungen

Wer ist verantwortlich, wenn KI-Systeme Schäden verursachen? Wie verstehen wir diese Schäden und wie können wir sie beseitigen? Welche Forschungs- und Regulierungs-Massnahmen müssten dafür ergriffen werden? Diesen Grundfragen geht ein aktueller Report des AI Now Instituts der New York University nach – und sucht Lösungen.
 
Das interdisziplinäre Forschungsinstitut, das sich besonders mit den sozialen Folgen und Implikationen von künstlicher Intelligenz befasst, sieht erstmal einen Haufen Probleme: Durch die Ausbreitung von KI, insbesondere Face Recognition, würde eine immer stärkere Überwachung ermöglicht. Indessen blieben die Rechenschaftspflichten unklar und löchrig und die Betroffenen gegenüber den Anwendern zunehmend benachteiligt. Dies gelte auch für den steigenden Einsatz von oftmals unreifen automatisierten Entscheidungssystemen. Zudem gebe es unregulierte KI-Experimente an Bevölkerungsgruppen, wie sie etwa vom Silicon Valley ausgehen würden. Problematisch sei ausserdem, dass die Lösungen für diese Probleme – wie auch für Verzerrungen und Diskriminierung – innerhalb der Technologie selbst gesucht würden, statt den sozialen Ursprung zu adressieren.
 
Bislang gebe es erst sehr wenige Antworten auf diese drängenden Probleme. Zwar habe es in den vergangenen Jahren eine Reihe von Leitlinien und ethischen Grundsätzen gegeben. Erinnert sei hier an die KI-Leitlinien, die Anfang 2017 von rund 2800 Tech-Leadern unterschrieben wurden. Oder auch an die sieben KI-Prinzipien, die sich Google dieses Jahr selbst auferlegt hat. Studien zeigten aber, dass dies wenig messbare Auswirkungen auf die Entwicklung von künstlicher Intelligenz habe, monieren die Wissenschafter des AI Now Instituts. Insbesondere seien die Ethik-Kodexe nicht in die Entwicklung von KI-Systemen integriert.
 
Um dies zu ändern schlagen sie einige Strategien vor:
  • Die Erweiterung der KI-Gerechtigkeitsforschung über den Fokus auf mathematische und statistische Fragen hinaus. So soll man sich interdisziplinär auf dem Feld der Gerechtigkeit und Fairness bewegen. Insbesondere sollen auch die Kategorien wie "Race", Gender und Macht in der sozialen Realität sowie deren Repräsentation in den Algorithmen analysiert werden.
  • Die Untersuchung der gesamten Infrastruktur von KI-Anwendungen inklusive einer Bilanzierung der Lieferketten. Denn um eine Rechenschaftspflicht zu gewährleisten, müssten die Prozesse besser verstanden und verfolgt werden können, über alle Komponenten eines KI-Systems und die gesamte Supply-Chain hinweg.
  • Die Entwicklung neuer Politiken der Intervention und Prozessmöglichkeiten. Insbesondere sollen Regierungen stärkere Regulierungs- und Kontroll-Instanzen für KI etablieren – dies aber sektorenspezifisch, da sich etwa Gesundheit, Bildung, Justiz und Wohlfahrtsstaat in den Anforderungen stark unterscheiden würden. Besonderes Augenmerk gilt hier laut dem "AI Now Institut" der Face-Recognition, die einige Fallstricke berge.
  • Die Bildung von Koalitionen zwischen Forschern, der Zivilgesellschaft und der Technologie-Branche. Die einzelnen Firmen der Branche müssten interne Verantwortung und Regulation sicherstellen sowie Einblicke in die Funktionsweise ihrer KI-Anwendungen bieten. Verbraucherschützer sollen zudem Private und Firmen vor dem Hype und den damit verbundenen Versprechungen schützen und die Werbung der KI-Industrie auf den Realitätsgehalt hin prüfen.
Durch die Massnahmen versprechen sich die Wissenschafter, dass "ernsthafte Probleme und Gefahren" abgewendet werden können. Generell sei es dafür unerlässlich, dass das Machtgleichgewicht zu Gunsten der Öffentlichkeit verschoben werde, schliessen die Wissenschafter.
 
Der "AI Now Report 2018" (PDF) kann von der Website des Instituts heruntergeladen werden. (ts)