Microsoft will gegen diskriminierende KI vorgehen

28. Mai 2018, 14:00
  • innovation
  • künstliche intelligenz
image

Ein Dashboard soll automatisch Algorithmen erkennen, die diskriminierende Entscheidungen treffen.

Ein Dashboard soll automatisch Algorithmen erkennen, die diskriminierende Entscheidungen treffen.
Laut einem Bericht von 'MIT Technology Review' arbeitet Microsoft an einem Tool beziehungsweise Dashboard, das automatisiert "unfaire" beziehungsweise "diskriminierende" KI-Algorithmen erkennen kann.
Auch Facebook hat an seiner Entwicklerkonferenz Anfang Mai bereits angekündigt, dass man ebenfalls an einem solchen Tool, genannt "Fairness Flow", arbeite.
Der Einsatz von Systemen künstlicher Intelligenz, die Entscheidungen treffen, die auch Menschen betreffen, verbreitet sich rapide. Tools, wie sie Microsoft und Facebook entwickeln, könnten daher äusserst nützlich sein für Unternehmen, die nicht in den Verdacht kommen wollen, dass ihre KI-Systeme nicht Menschen aufgrund ihres Geschlechts, ihrer Herkunft ihres Alters diskriminieren.
Allerdings gibt es auch Stimme, die finden, dass es nicht reicht, wenn Unternehmen ihre Systeme selbst überprüfen. Diese Kritiker glauben, dass externe Prüfungen notwendig sein werden.
Problem Intransparenz
Wie aber kann eine künstliche Intelligenz beziehungsweise ein Algorithmus – also eine Maschine – überhaupt voreingenommen sein oder werden? Grundsätzlich gibt es dafür zwei Mechanismen. Erstens werden diese Algorithmen durch Menschen trainiert, und dabei können nach dem Motto "Müll rein, Müll raus" auch menschliche Vorurteile einfliessen. In einer ersten Phase werden diese künstlichen Intelligenzen mit früheren Entscheidungen von Menschen gefüttert, in einer zweiten Phase werden ihre Entscheidungen in Testfällen wiederum durch Menschen bewertet.
Die zweite Möglichkeit sind die Zielvorgaben, die man der KI gibt. In manchen Entscheidungen beispielsweise über den Preis einer Versicherungspolice, wäre es vielleicht rein finanziell "vernünftig", Alter, Geschlecht, Herkunft oder auch Hobbys, Religion, sexuelle Vorlieben und andere Lebensgewohnheiten einer Person einfliessen zu lassen. Die Frage ist, ob dies auch nach gesellschaftlichen oder gesetzlichen Kriterien vertretbar ist.
Kompliziert wird die Sache dadurch, dass die meisten heute existierenden KI-Systeme nicht dafür programmiert wurden, genaue Rechenschaft über die Gründe ihrer Entscheidungen abzulegen. Die Entwickler haben sich stattdessen darauf konzentriert, dass die KI-Anwendungen richtige Entscheidungen treffen, egal warum. Unter Stichworten wie Nachvollziehbarkeit, Verantwortung und Transparenz ist daher in den letzten Jahren eine eigene Disziplin innerhalb der KI-Forschung entstanden, welche diese Situation verbessern will. (Hans Jörg Maron)

Loading

Mehr zum Thema

image

SATW insights: Das "Who is who" der künstlichen Intelligenz in der Schweiz

Zahlreiche Schweizer Gruppen sind führend in der KI-Forschung. Doch wer hat genau welche Kompetenzen und Erfahrung? Eine neue Plattform verbindet sie.

publiziert am 17.8.2022
image

Gartner zur Zukunft: NFTs und Metaverse sind ungewiss, bieten aber viel Potential

Die Marktforscher haben den neusten "Hype Cycle" publiziert, spannend finden sie vor allem Technologien im frühen Entwicklungsstadium. Ausgang der Experimente: strittig.

publiziert am 12.8.2022
image

Schweizer "Camper-Airbnb" startet nächste Finanzierungsrunde

Für den weiteren Ausbau will der Luzerner App-Anbieter Parkn'Sleep bis Ende dieses Jahres 2,6 Millionen Franken einnehmen.

publiziert am 12.8.2022
image

Report: Githubs KI-Tool Copilot macht Code unsicherer

Das einst gross angekündigte Tool von Github schreibe eine Menge Lücken in Software, erklären Forscher aus den USA. Sie haben ihre Befunde an der Black-Hat-Konferenz präsentiert.

publiziert am 12.8.2022