Mit Bug Bounties zu fairer KI?

29. März 2021, 14:30
image

Algorithmen können zu Verzerrungen führen und Vorurteile verstärken. Ein Forscherteam wollte wissen, ob Bug Bounties beidem entgegensteuern könnten.

International haben sich Bug-Bounty-Programme etabliert. Auch in der Schweiz wird die geregelte Suche nach Security-Lücken durch gutmütige Hacker immer beliebter. Ähnlich wie nach Sicherheitsschwachstellen könnten IT-Profis nach Problemen in KI-Algorithmen suchen, und dies den Anbieter-Firmen melden. 
Ob dies zumindest möglich ist, hat Deborah Raji von der Mozilla Foundation gemeinsam mit der Interessengruppe Algorithmic Justice League (AJL) erforscht. Die Ergebnisse wurden am Mozilla Festival vorgestellt, wie unter anderem 'ZDnet' berichtet.
"Wenn man Software veröffentlicht und es gibt eine Art von Schwachstelle, die die Software anfällig für Hacker macht, hat die IT-Security-Community eine Reihe von verschiedenen Tools, mit denen sie nach diesen Fehlern jagen können", erklärt Raji gegenüber 'ZDNet'. Hier habe man Parallelen zu dem Problem von Vorurteilen in Algorithmen gezogen.
Aber im Gegensatz zu den etablierten Bug-Bounty-Programmen gebe es derzeit keine einheitliche Vorgehensweise, um nach Bias in Algorithmen zu suchen. Manchmal würden Einzelpersonen beispielsweise via Tweet auf Probleme hinweisen. Diese gingen dann viral oder auch nicht. Formalisierte Prozesse fehlen.

Wie können Schäden bemessen und bewertet werden?

Die erste Frage, die es durch die Forschung zu beantworten galt, sei die Definition von algorithmischem Schaden gewesen. Schon für diese erste Frage gebe es mehrere Antworten. Denn der Schaden durch schlecht durchdachte Algorithmen betreffe Individuen, die ganz unterschiedliche Perspektiven haben könnten.
In vielen Fällen, so Raji zu 'ZDnet', seien die betroffenen Menschen keine zahlenden Kunden – was bedeutet, dass es, anders als im Bereich der Cybersicherheit, wenig Anreize für Unternehmen gibt, sich zu bessern, wenn ein Fehler gefunden wird. Es könnte aber sein, dass Anbieter ihren Entwicklungsprozess neu gestalten oder ein Produkt vom Markt nehmen, falls sie auf Probleme hingewiesen werden. 
Wenn Definitionen für Schäden festgelegt werden könnten, müsste eine Methodik zur Erkennung von Vorurteilen und Verzerrungen folgen. Auch müsste man nach Schweregrad der Fehler unterscheiden können, wie Raji ausführt. Beides haben die Forscher rund um Raji nicht entwickelt.
Dennoch sieht sie Vorteile im Bug-Bounty-Ansatz. Wenn es einen Prozess geben würde, der, wie in der Security-Welt, robust und formalisiert wäre, könnte das helfen, Glaubwürdigkeit zu schaffen, führt Raji aus. Für Fortschritte sorgen könnte, wenn von aussen mehr Druck auf Unternehmen ausgeübt würde, ihre Algorithmen genauer auf Bias – "Fehler" – hin zu überprüfen. Mit mehr Druck durch Regulierungen und Angst vor Reputationsschäden könnte es sein, so das Fazit der Forscherin, dass Unternehmen beginnen, KI-Bias-Bounty-Programme zu entwickeln.  

Loading

Mehr zum Thema

image

Elektroflugzeug E-Sling hebt ab

Das von ETH-​Studierenden entwickelte vierplätzige E-Flugzeug ist zum ersten Mal abgehoben. Am Projekt wurde im Innovationspark in Dübendorf gearbeitet.

publiziert am 30.9.2022
image

Schweiz: Wettbewerbsfähigkeit top, E-Government flop

In der aktuellen IMD-Studie steigt die Schweiz in Sachen digitale Wettbewerbsfähigkeit in die Top 5 auf. Dahingegen schwächelt sie im Bereich E-Government.

publiziert am 29.9.2022
image

Nie mehr Hydranten anklicken: Cloudflare präsentiert Alternative zu Captchas

Mit "Turnstile" sollen Captchas obsolet werden. Die Technik laufe im Hintergrund und könne menschliche Webnutzer innert einer Sekunde von Bots unterscheiden.

publiziert am 29.9.2022 1
image

Blockchain-Startup generiert 5 Millionen mit Token-Verkauf

Chain4Travel will auf einem Blockchain-basierten Netzwerk den Handel von Reiseprodukten ermöglichen. Beim ersten Tokenverkauf hat das Startup 5 Millionen Franken generiert.

publiziert am 29.9.2022