Warum und wie Algorithmen diskriminieren können

17. Oktober 2019, 14:24
  • innovation
image

Eine vom deutschen Staat in Auftrag gegebene Studie zeigt anhand von 47 Fällen, dass Algorithmen Vorurteile haben können.

Eine vom deutschen Staat in Auftrag gegebene Studie zeigt anhand von 47 Fällen, dass Algorithmen Vorurteile haben können.
Die deutsche Antidiskrimierungsstelle des Bundes hat eine Studie des Instituts für Technikfolgenabschätzungen zum Thema "Diskriminierungsrisiken durch Verwendung von Algorithmen" finanziert und publiziert. Die 144-seitige Studie kann kostenlos als PDF bezogen werden und ist unserer Meinung nach lesenswert für alle, die sich für das Thema interessieren.
Algorithmen, sowohl solche, die auf klassische Weise von Menschen direkt programmiert wurden, als auch solche, die durch maschinelles Lernen entstanden sind, können diskriminierend sein. Sie können Entscheidungen treffen, die Menschen aufgrund von Merkmalen wie Geschlecht oder Hautfarbe direkt benachteiligen. Dies kann nicht bestritten werden. Der Autor der Studie, Dr. Carsten Orwat, illustriert dies anhand von nicht weniger als 47 Fallbeispielen.
In der Studie wird auch ausführlich dargelegt, wie Diskriminierung genau definiert werden kann. Und wie diese Diskriminierungen in Algorithmen einfliesst.
Und wenn Algorithmen diskriminierend agieren, kann dies schlimmer sein, als wenn es Menschen tun, argumentiert Orwat. Wenn Menschen dies tun, entscheiden sie meist von Fall zu Fall. Im Falle von Maschinen dagegen werden ihre "Vorurteile" auf alle Entscheidungen angewendet.
Um dagegen anzugehen, so Orwat, ist Transparenz das wichtigste. Transparenz ist notwendig, um nachträglich nachprüfen zu können, ob eine Entscheidung diskriminierend war. Das kann einerseits direkt geschehen, wenn die Entscheidungskriterien eines Algorithmus, sowie weshalb er zu einer bestimmten Entscheidung gelangt ist, dokumentiert werden kann.
Schwieriger ist die Überprüfung von Entscheidungen bei modernen lernfähigen Algorithmen, die oft einer Black Box entsprechen. Aber auch hier ist Transparenz möglich, wenn man Entscheidungen auf andere Weise nachprüfen kann. Der Nachweis einer Diskriminierung könnte dann über die Erfassung und statistische Auswertung öffentlich zugänglicher Daten zu diesen Entscheidungen erfolgen. Wo solche Ergebnisse allerdings nicht ermittelbar sind, stösst ein solches Vorgehen jedoch an Grenzen, sagt Orwat. (hjm)

Loading

Mehr zum Thema

image

Frisches Kapital für Schweizer Firma Unit8

Das Lausanner Beratungsunternehmen Unit8 bekommt frisches Geld von Sagard Newgen. Die Investitionen sollen "die nächste Wachstumsphase" unterstützen.

publiziert am 9.12.2022
image

PSI macht Fortschritte bei Silizium-Nachfolge

Noch gehört die Silizium-Technologie nicht zum alten Eisen, aber Forschende weltweit arbeiten an neuen Materialien. Das Paul Scherrer Institut meldet einen Meilenstein.

publiziert am 9.12.2022
image

Quantencomputing: Uptown Basel will sich mit 433-Qubit profilieren

Auf dem Areal des Innovationsprojekts sollen Firmen auf die Quanteninfrastruktur von IBM zugreifen können. Leiter wird Damir Bogdan.

publiziert am 8.12.2022
image

Daten sollen strategisches Gut sein

Eine Befragung zeigt, dass Unternehmen noch wenig Wert aus ihren Daten generieren. HPE AI Advisor Bernd Bachmann erklärt, warum das so ist und wie sich das ändern könnte.

publiziert am 8.12.2022