Die andere Sicht: "Coded Bias" – ist KI gescheitert?

14. Juni 2021, 09:04
image

Die Netflix-Doku "Coded Bias" argumentiert, dass auch eine perfekte Technologie diskriminierend wäre. Ein öffentlicher Diskurs über KI ist unumgänglich.

Soll KI-Technologie in der Gesellschaft ihren Nutzen entfalten, müssen wir uns heute die Frage nach dem Umgang mit ihr stellen, plädiert der technologiebegeisterte Ex-Polizist.
Die aktuelle Netflix-Dokumentation "Coded Bias" unter der Regie von Shalini Kantayya untersucht, wie Algorithmen des maschinellen Lernens - die heute in der Werbung, bei Bewerbungsverfahren, bei Finanzdienstleistungen, bei der Polizei und in vielen anderen Bereichen allgegenwärtig sind - zu Ungleichheiten aufgrund von Rasse oder Geschlecht führen können. Die überaus sehenswerte Dokumentation bewegt sich geschickt zwischen pragmatischer und systematischer politischer Kritik und argumentiert, dass selbst wenn die Technologie perfekt wäre, sie diskriminierend in die Freiheitsrechte der Menschen eingreifen würde.
Um was es konkret geht, illustriert eine Aussage der Informatikerin des MIT Media Lab Joy Buolamwini, auf deren Recherchen “Coded Bias” basiert: “When you think of AI, it’s forward-looking. But AI is based on data, and data is a reflection of our history” (frei übersetzt: Wenn man an AI denkt, ist das zwar zukunftsweisend. Doch basiert AI auf Daten und Daten sind ein Spiegelbild unserer Geschichte).

Fiction oder auch in der Schweiz bereits Realität?

Diese Entwicklung betrifft längst nicht mehr nur die USA und China. Auch in Europa und der Schweiz sind künstliche Intelligenzen im Einsatz, welche die gleichen Schwachstellen aufweisen. Man geht davon aus, dass die künstliche Intelligenz die menschliche Intelligenz in Bezug auf effiziente und zuverlässige Datenauswertung bereits in wenigen Jahren um ein Vielfaches überbieten wird. Die künstliche Intelligenz wird sich dann autonom, gestützt auf machine learning weiterentwickeln, weiter als es eine menschliche Intelligenz zulassen würde. Es wird für die Betroffenen somit auch immer schwieriger, wenn nicht sogar unmöglich, die Entscheide solcher Intelligenzen nachzuvollziehen.
Deshalb müssen wir uns bereits heute die Frage stellen, wie mit künstlichen Intelligenzen umgegangen werden soll. Dieser Thematik nimmt sich aktuell das “Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) der Europäischen Kommission an. Auch wenn dieser Vorschlag eines Rechtsrahmens für künstliche Intelligenz einen doch sehr negativen, von Risiken geprägten O-Ton anschlägt, wird dadurch dennoch ein wichtiger Grundstein gesetzt und der öffentliche Diskurs lanciert. Der Vorschlag definiert dabei unterschiedliche, legale und verbotene Einsatzformen und beinhaltet unter anderem ein Verbot für KI-basiertes Social Scoring und den Einsatz von "Echtzeit"- Fernerkennungssystemen zur biometrischen Identifizierung in öffentlich zugänglichen Räumen.

Verantwortung kann nicht abgegeben werden

Mehr als 10 Jahre lang ermittelte ich bei der Bundeskriminalpolizei gegen die organisierte Kriminalität und Pädokriminalität. Künstliche Intelligenzen nutzten wir keine und unsere Ermittlungen waren dadurch sehr zeitaufwendig. Heute bin ich als Product Owner bei AVA-X selber für das Entwickeln von künstlichen Intelligenzen für Strafverfolgungsbehörden verantwortlich. Innert kürzester Zeit wurde mir bewusst, dass zum Beispiel der Einsatz von Gesichtserkennung im Bereich der Pädokriminalitäts-Bekämpfung, der Auswertung von Observationen oder im Falle von vermissten Personen einen immensen Nutzen für die Strafverfolgungsbehörden haben kann. Als Vater und Bürger sehe ich jedoch auch die Risiken und Gefahren, welche mit KI einhergehen.
Als Entwickler haben wir uns deshalb hohe ethische Ansprüche an unsere Produkte gesetzt. Nicht weil wir dies müssten, denn hierzu fehlt eine rechtliche Grundlage, sondern weil wir uns dazu verpflichtet fühlen. Auch wenn wir eine der besten Gesichtserkennungen der Welt vorweisen können, sollte damit keine Augenwischerei betrieben werden. Eine Genauigkeit von über 99,9 Prozent ist zwar ein super Verkaufsargument, bringt aber auch eine Fehlerquote von 0,1 Prozent mit sich. Dies bedeutet, dass 1 auf 1000 Personen im Rahmen eines Strafverfahrens falsch identifiziert werden. Dies kann für die betroffene Personen unter Umständen schwerwiegende Folgen mit sich bringen.
Bei solchen sensiblen Anwendungen muss die Verantwortung des Entscheides deshalb immer beim Ermittler bleiben. Die KI darf den Ermittler - so wie zum Beispiel in “Coded Bias” im Falle von Kreditvergaben aufgezeigt - nicht ersetzen, sondern unterstützt und begleitet ihn. Dies bedingt jedoch, dass die Anwender und Nutzer die von ihnen eingesetzte KI verstehen und beurteilen können.
Das ist meines Erachtens der Katalog an Fragen, die ein KI-Anbieter transparent beantworten sollte, um eben dem “Coded Bias” zu entgehen: Welches sind die Trainings-Daten der vorhandenen Lösung? Welche Qualität haben sie? Gibt es Schwachstellen oder Fehleranfälligkeiten? Bestehen versteckte Abhängigkeiten zu Drittanbietern? Dies sind selbstverständlich nur einige der Fragen, welche Einkäufer von künstlichen Intelligenzen stellen sollten. Ein billiger Preis und überrissene Versprechen sollten nicht die entscheidenden Kaufargumente sein.

Es braucht den öffentlichen Diskurs

Es gibt verschiedene Einsatzformen von künstlichen Intelligenzen, welche auch differenziert betrachtet werden müssen. Gesichtserkennung kann für eine “Gesichtsverifikation” (facial verification) aber auch für eine “Gesichtsidentifikation” (facial identification) eingesetzt werden. Bei ersterem überprüfe ich lediglich, ob zwei Gesichter übereinstimmen, um zum Beispiel das Handy zu entsperren, eine Zugangs-Tür zu öffnen oder in einem Überwachungsvideo nach einer vermissten Person zu suchen.
Bei zweiterem geht die KI weiter, hier wird eine Person aufgrund des Gesichtes identifiziert. Wenn die “richtigen” Datenbanken verknüpft sind, kann dies zu Social Profiling bis hin zu einem Orwell’schen Überwachungsstaat führen. Ohne öffentlichen Diskurs und gesetzliche Rahmenbedingungen laufen wir grosse Gefahr, dass dies wahrscheinlich wird. Genauso falsch und gefährlich wäre es aus Angst vor den Risiken, die positive Entwicklung künstlicher Intelligenzen durch Verbote zu verhindern.
Ich lade alle dazu ein, sich aktiv an diesem Dialog zu beteiligen, um heute die Weichen so zu stellen, dass sich die künstliche Intelligenz in Zukunft zum Nutzen der Gesellschaft entfalten kann.
Interessenbindung: Deep Impact ist Technologie-Partner und Mehrheitseigner unseres Verlags Winsider AG.
  • image

    Tobias Bolliger

    Acceleration Manager und Product Owner AVA-X bei Deep Impact

    Tobias Bolliger (42) ist studierter Jurist und Technologie-Enthusiast. Er verfügt über 10 Jahre Erfahrung als Strafverfolger, unter anderem als Leiter der Koordinationsstelle zur Bekämpfung der Internetkriminalität (KOBIK) und Cyber-Fachreferent im Stab der Bundeskriminalpolizei. Seit 2020 arbeitet er als Acceleration Manager und Product Owner AVA-X bei Deep Impact in Winterthur am Mitgestalten von künstlichen Intelligenzen "made in Switzerland".

In "Die andere Sicht" kommen operativ Verantwortliche aus der Schweizer ICT-Branche zu Wort. Sie verlassen ausgetretene Pfade und erschliessen neue Horizonte.

Loading

Mehr zum Thema

image

Deutscher Security-Anbieter Xnetsolutions nimmt Schweizer Markt ins Visier

IT-Spezialisten suchen auch in der Schweiz vermehrt nach Security-Lösungen, die nicht von US-Anbietern stammen, glaubt Xnetsolutions.

publiziert am 28.6.2022
image

Plattform bietet neue Einblicke in Schweizer KI-Forschung

Die Plattform "Sairop" listet aktuelle KI-Projekte und Forschende in der Schweiz. Ziel ist laut den Initianten, die Sichtbarkeit und Vernetzung zu fördern.

publiziert am 27.6.2022
image

Ursache der Skyguide-Panne wird untersucht

Im Spätsommer soll vollständig aufgeklärt sein, was im Juni zur Sperrung des gesamten Schweizer Luftraums geführt hat. Ein Cyberangriff war es sicher nicht.

publiziert am 27.6.2022 1
image

Prantl behauptet: Software-as-a-Service setzt sich definitiv durch

Unser Kolumnist erklärt, wo seiner Meinung nach die unbestreitbaren Vorteile von SaaS-Lösungen liegen.

publiziert am 27.6.2022 1