Der Fortschritt Künstlicher Intelligenz, die für spezifische Aufgaben entwickelt und trainiert wird, birgt grosse Herausforderungen. Ihre negativen Auswirkungen auf die Gesellschaft können mannigfaltig sein: Verletzung der Privatsphäre, Diskriminierung und undurchsichtige Entscheidungsfindung sind nur die bekanntesten davon.
Um diese Effekte zu mindern, sind in den letzten Jahren ethische KI-Richtlinien wie Pilze aus dem Boden geschossen. Die Universität Stanford ist nun im
"AI Index Report 2021" Absichtsbekundungen und praktischen Ansätzen auf den Grund gegangen. Laut der US-Hochschule gibt es zwar viele Bekenntnisse, die praktische Relevanz von Richtlinien bleibt aber sehr überschaubar.
Über die letzten drei Jahre wurden nicht weniger als 96 Ethikrichtlinien verfasst, wie die Forschenden nachgezählt haben. Aber schon an den grossen KI-Kongressen ist das Thema deutlich weniger vertreten. Zwar habe sich die Anzahl der Papers seit 2015 verdoppelt, bleibe aber insgesamt tief: Bloss 70-Konferenz-Papiere, die Ethikbegriffe im Titel führen, wurden 2019 gezählt. Allerdings, so relativieren die Forschenden, habe man beobachtet, dass sich das Thema auch an den Konferenzen allmählich zu etablieren beginne.
"Das AI Index Team war überrascht, wie wenig Daten es zu diesem Thema gibt", schreiben die Wissenschaftler, nachdem sie nach Papers an Konferenzen und nach Ethik-Schulungen an den IT-Departementen von Hochschulen gesucht haben.
Einige Wissenschaftler produzierten zwar eine Menge Output. Es fehle aber schlicht an Benchmarks und allgemeinen Massstäben, um die gesellschaftliche Debatte über KI und die Entwicklung der Technologie selbst zu vergleichen und zu beurteilen.
Bemühungen der Wirtschaft sind "begrenzt"
Noch ernüchternder fällt eine Untersuchung der Wirtschaft aus: Nur eine Minderheit der Firmen habe die Risiken von KI erkannt, noch weniger hätten Schritte zu deren Minderung ergriffen, schreiben die Forscher. Einzig die Gefahren in Sachen Cybersicherheit habe die Mehrheit der Firmen als wichtig eingestuft.
2020 hätten sogar weniger Unternehmen KI-bedingte Datenschutzrisiken als relevant beurteilt als noch im Vorjahr. Mittlerweile sehen hier weniger als 40% der Firmen Probleme – weniger als ein Drittel hat Schritte eingeleitet, um diese Risiken zu minimieren. Noch schlechter schneidet Fairness ab: Nicht mal ein Viertel machte hier Probleme aus, unter 15% haben Massnahmen ergriffen. Die Bemühungen sich um ethische Bedenken zu kümmern, seien "begrenzt", bilanzieren die Wissenschaftler aus Stanford diplomatisch.