KI-Ethik: Alle reden davon, wenige setzen Regeln um

16. März 2021 um 13:27
image

Forscher der Universität Stanford haben die guten Absichten von KI-Akteuren unter die Lupe genommen. Ihre Erkenntnisse sind ernüchternd.

Der Fortschritt Künstlicher Intelligenz, die für spezifische Aufgaben entwickelt und trainiert wird, birgt grosse Herausforderungen. Ihre negativen Auswirkungen auf die Gesellschaft können mannigfaltig sein: Verletzung der Privatsphäre, Diskriminierung und undurchsichtige Entscheidungsfindung sind nur die bekanntesten davon.
Um diese Effekte zu mindern, sind in den letzten Jahren ethische KI-Richtlinien wie Pilze aus dem Boden geschossen. Die Universität Stanford ist nun im "AI Index Report 2021" Absichtsbekundungen und praktischen Ansätzen auf den Grund gegangen. Laut der US-Hochschule gibt es zwar viele Bekenntnisse, die praktische Relevanz von Richtlinien bleibt aber sehr überschaubar.
Über die letzten drei Jahre wurden nicht weniger als 96 Ethikrichtlinien verfasst, wie die Forschenden nachgezählt haben. Aber schon an den grossen KI-Kongressen ist das Thema deutlich weniger vertreten. Zwar habe sich die Anzahl der Papers seit 2015 verdoppelt, bleibe aber insgesamt tief: Bloss 70-Konferenz-Papiere, die Ethikbegriffe im Titel führen, wurden 2019 gezählt. Allerdings, so relativieren die Forschenden, habe man beobachtet, dass sich das Thema auch an den Konferenzen allmählich zu etablieren beginne.
"Das AI Index Team war überrascht, wie wenig Daten es zu diesem Thema gibt", schreiben die Wissenschaftler, nachdem sie nach Papers an Konferenzen und nach Ethik-Schulungen an den IT-Departementen von Hochschulen gesucht haben.
Einige Wissenschaftler produzierten zwar eine Menge Output. Es fehle aber schlicht an Benchmarks und allgemeinen Massstäben, um die gesellschaftliche Debatte über KI und die Entwicklung der Technologie selbst zu vergleichen und zu beurteilen.

Bemühungen der Wirtschaft sind "begrenzt"

Noch ernüchternder fällt eine Untersuchung der Wirtschaft aus: Nur eine Minderheit der Firmen habe die Risiken von KI erkannt, noch weniger hätten Schritte zu deren Minderung ergriffen, schreiben die Forscher. Einzig die Gefahren in Sachen Cybersicherheit habe die Mehrheit der Firmen als wichtig eingestuft.
2020 hätten sogar weniger Unternehmen KI-bedingte Datenschutzrisiken als relevant beurteilt als noch im Vorjahr. Mittlerweile sehen hier weniger als 40% der Firmen Probleme – weniger als ein Drittel hat Schritte eingeleitet, um diese Risiken zu minimieren. Noch schlechter schneidet Fairness ab: Nicht mal ein Viertel machte hier Probleme aus, unter 15% haben Massnahmen ergriffen. Die Bemühungen sich um ethische Bedenken zu kümmern, seien "begrenzt", bilanzieren die Wissenschaftler aus Stanford diplomatisch.

Loading

Mehr erfahren

Mehr zum Thema

image

Google: KI-Suche und eine Antwort auf ChatGPT-4o

Die mit KI angereicherte Suche wirft ernste Fragen für Site-Betreiber auf. Google kündigte auch viele weitere KI-Neuerungen an.

publiziert am 15.5.2024
image

Machen xAI und Oracle bei KI gemeinsame Sache?

Gerüchten zufolge will das KI-Startup von Elon Musk GPU-Server bei Oracle mieten. Dafür sollen 10 Milliarden Dollar fliessen.

publiziert am 15.5.2024
image

Swiss Digital Initiative trimmt Label auf KI

Mit einem aktualisierten Kriterienkatalog soll der vertrauenswürdige und verantwortungsvolle Einsatz von KI vorangetrieben werden.

publiziert am 14.5.2024
image

Anthropic bringt Claude in die Schweiz

Das KI-Startup macht seinen Chatbot in weiten Teilen Europas verfügbar. Er ist ab sofort nutzbar. Für die Pro-Version fallen allerdings Gebühren an.

publiziert am 14.5.2024