KI-Ethik: Alle reden davon, wenige setzen Regeln um

16. März 2021 um 13:27
image

Forscher der Universität Stanford haben die guten Absichten von KI-Akteuren unter die Lupe genommen. Ihre Erkenntnisse sind ernüchternd.

Der Fortschritt Künstlicher Intelligenz, die für spezifische Aufgaben entwickelt und trainiert wird, birgt grosse Herausforderungen. Ihre negativen Auswirkungen auf die Gesellschaft können mannigfaltig sein: Verletzung der Privatsphäre, Diskriminierung und undurchsichtige Entscheidungsfindung sind nur die bekanntesten davon.
Um diese Effekte zu mindern, sind in den letzten Jahren ethische KI-Richtlinien wie Pilze aus dem Boden geschossen. Die Universität Stanford ist nun im "AI Index Report 2021" Absichtsbekundungen und praktischen Ansätzen auf den Grund gegangen. Laut der US-Hochschule gibt es zwar viele Bekenntnisse, die praktische Relevanz von Richtlinien bleibt aber sehr überschaubar.
Über die letzten drei Jahre wurden nicht weniger als 96 Ethikrichtlinien verfasst, wie die Forschenden nachgezählt haben. Aber schon an den grossen KI-Kongressen ist das Thema deutlich weniger vertreten. Zwar habe sich die Anzahl der Papers seit 2015 verdoppelt, bleibe aber insgesamt tief: Bloss 70-Konferenz-Papiere, die Ethikbegriffe im Titel führen, wurden 2019 gezählt. Allerdings, so relativieren die Forschenden, habe man beobachtet, dass sich das Thema auch an den Konferenzen allmählich zu etablieren beginne.
"Das AI Index Team war überrascht, wie wenig Daten es zu diesem Thema gibt", schreiben die Wissenschaftler, nachdem sie nach Papers an Konferenzen und nach Ethik-Schulungen an den IT-Departementen von Hochschulen gesucht haben.
Einige Wissenschaftler produzierten zwar eine Menge Output. Es fehle aber schlicht an Benchmarks und allgemeinen Massstäben, um die gesellschaftliche Debatte über KI und die Entwicklung der Technologie selbst zu vergleichen und zu beurteilen.

Bemühungen der Wirtschaft sind "begrenzt"

Noch ernüchternder fällt eine Untersuchung der Wirtschaft aus: Nur eine Minderheit der Firmen habe die Risiken von KI erkannt, noch weniger hätten Schritte zu deren Minderung ergriffen, schreiben die Forscher. Einzig die Gefahren in Sachen Cybersicherheit habe die Mehrheit der Firmen als wichtig eingestuft.
2020 hätten sogar weniger Unternehmen KI-bedingte Datenschutzrisiken als relevant beurteilt als noch im Vorjahr. Mittlerweile sehen hier weniger als 40% der Firmen Probleme – weniger als ein Drittel hat Schritte eingeleitet, um diese Risiken zu minimieren. Noch schlechter schneidet Fairness ab: Nicht mal ein Viertel machte hier Probleme aus, unter 15% haben Massnahmen ergriffen. Die Bemühungen sich um ethische Bedenken zu kümmern, seien "begrenzt", bilanzieren die Wissenschaftler aus Stanford diplomatisch.

Loading

Mehr zum Thema

image

Sylvester Stallone investiert in Schweizer KI-Startup

Largo.ai entwickelt KI-gestützte Lösungen für die Film-, Fernseh- und Werbeindustrie. In einer Finanzierungsrunde hat das Unternehmen 7 Millionen Franken eingenommen.

publiziert am 5.2.2025
image

Wie die aktuellen humanoiden Roboter aussehen

Sie heissen Phoenix, Atlas oder H1 und kommen aus den USA, Kanada und China. Eine Visualisierung der derzeitigen Roboter-Generationen.

publiziert am 5.2.2025
image

Europäer wollen eigenes OpeneuroLLM entwickeln

Eigene europäische KI-Modelle sollen die EU-Gesetze respektieren und sich für Firmen und Behörden adaptieren lassen. Ihre Mehrsprachigkeit spiegelt die kulturellen Eigenheiten wider.

publiziert am 4.2.2025
image

Investitionen in Schweizer Startups weiter im Rückgang

2024 wurde weniger Kapital in Jungunternehmen investiert. Der ICT- und Fintech-Sektor büsste besonders stark ein.

publiziert am 4.2.2025