Warum und wie Algorithmen diskriminieren können

17. Oktober 2019, 14:24
  • innovation
image

Eine vom deutschen Staat in Auftrag gegebene Studie zeigt anhand von 47 Fällen, dass Algorithmen Vorurteile haben können.

Eine vom deutschen Staat in Auftrag gegebene Studie zeigt anhand von 47 Fällen, dass Algorithmen Vorurteile haben können.
Die deutsche Antidiskrimierungsstelle des Bundes hat eine Studie des Instituts für Technikfolgenabschätzungen zum Thema "Diskriminierungsrisiken durch Verwendung von Algorithmen" finanziert und publiziert. Die 144-seitige Studie kann kostenlos als PDF bezogen werden und ist unserer Meinung nach lesenswert für alle, die sich für das Thema interessieren.
Algorithmen, sowohl solche, die auf klassische Weise von Menschen direkt programmiert wurden, als auch solche, die durch maschinelles Lernen entstanden sind, können diskriminierend sein. Sie können Entscheidungen treffen, die Menschen aufgrund von Merkmalen wie Geschlecht oder Hautfarbe direkt benachteiligen. Dies kann nicht bestritten werden. Der Autor der Studie, Dr. Carsten Orwat, illustriert dies anhand von nicht weniger als 47 Fallbeispielen.
In der Studie wird auch ausführlich dargelegt, wie Diskriminierung genau definiert werden kann. Und wie diese Diskriminierungen in Algorithmen einfliesst.
Und wenn Algorithmen diskriminierend agieren, kann dies schlimmer sein, als wenn es Menschen tun, argumentiert Orwat. Wenn Menschen dies tun, entscheiden sie meist von Fall zu Fall. Im Falle von Maschinen dagegen werden ihre "Vorurteile" auf alle Entscheidungen angewendet.
Um dagegen anzugehen, so Orwat, ist Transparenz das wichtigste. Transparenz ist notwendig, um nachträglich nachprüfen zu können, ob eine Entscheidung diskriminierend war. Das kann einerseits direkt geschehen, wenn die Entscheidungskriterien eines Algorithmus, sowie weshalb er zu einer bestimmten Entscheidung gelangt ist, dokumentiert werden kann.
Schwieriger ist die Überprüfung von Entscheidungen bei modernen lernfähigen Algorithmen, die oft einer Black Box entsprechen. Aber auch hier ist Transparenz möglich, wenn man Entscheidungen auf andere Weise nachprüfen kann. Der Nachweis einer Diskriminierung könnte dann über die Erfassung und statistische Auswertung öffentlich zugänglicher Daten zu diesen Entscheidungen erfolgen. Wo solche Ergebnisse allerdings nicht ermittelbar sind, stösst ein solches Vorgehen jedoch an Grenzen, sagt Orwat. (hjm)

Loading

Mehr zum Thema

image

Bauteil für Computer nach Vorbild des Gehirns

Forschende von ETH Zürich, Universität Zürich und Empa entwickelten ein neues Material für ein Computerbauteil, das sich am menschlichen Gehirn orientiert.

publiziert am 18.5.2022
image

Kundenkommunikation für Versicherer: Chats und Chatbots verbreiten sich langsam

Aber die Mehrheit der Schweizer Kundinnen und Kunden bevorzugt weiterhin E-Mail oder Telefon.

publiziert am 16.5.2022
image

Zürcher ML-Startup Lightly sammelt 3 Millionen Dollar

Der Algorithmus von Lightly soll dabei helfen, Daten zu beschriften und zu bewerten. Dadurch soll die sich die Qualität von KI-Anwendungen verbessern.

publiziert am 13.5.2022
image

Google I/O: Verbesserte KI, neue Developer-Tools und Geräte

Google versucht sich erneut an einer AR-Brille. Auch das Google Wallet feiert ein Comeback.

publiziert am 12.5.2022