

Microsoft will gegen diskriminierende KI vorgehen
28. Mai 2018 um 14:00
Ein Dashboard soll automatisch Algorithmen erkennen, die diskriminierende Entscheidungen treffen.
Ein Dashboard soll automatisch Algorithmen erkennen, die diskriminierende Entscheidungen treffen.
Laut einem Bericht von 'MIT Technology Review' arbeitet Microsoft an einem Tool beziehungsweise Dashboard, das automatisiert "unfaire" beziehungsweise "diskriminierende" KI-Algorithmen erkennen kann.
Auch Facebook hat an seiner Entwicklerkonferenz Anfang Mai bereits angekündigt, dass man ebenfalls an einem solchen Tool, genannt "Fairness Flow", arbeite.
Der Einsatz von Systemen künstlicher Intelligenz, die Entscheidungen treffen, die auch Menschen betreffen, verbreitet sich rapide. Tools, wie sie Microsoft und Facebook entwickeln, könnten daher äusserst nützlich sein für Unternehmen, die nicht in den Verdacht kommen wollen, dass ihre KI-Systeme nicht Menschen aufgrund ihres Geschlechts, ihrer Herkunft ihres Alters diskriminieren.
Allerdings gibt es auch Stimme, die finden, dass es nicht reicht, wenn Unternehmen ihre Systeme selbst überprüfen. Diese Kritiker glauben, dass externe Prüfungen notwendig sein werden.
Problem Intransparenz
Wie aber kann eine künstliche Intelligenz beziehungsweise ein Algorithmus – also eine Maschine – überhaupt voreingenommen sein oder werden? Grundsätzlich gibt es dafür zwei Mechanismen. Erstens werden diese Algorithmen durch Menschen trainiert, und dabei können nach dem Motto "Müll rein, Müll raus" auch menschliche Vorurteile einfliessen. In einer ersten Phase werden diese künstlichen Intelligenzen mit früheren Entscheidungen von Menschen gefüttert, in einer zweiten Phase werden ihre Entscheidungen in Testfällen wiederum durch Menschen bewertet.
Die zweite Möglichkeit sind die Zielvorgaben, die man der KI gibt. In manchen Entscheidungen beispielsweise über den Preis einer Versicherungspolice, wäre es vielleicht rein finanziell "vernünftig", Alter, Geschlecht, Herkunft oder auch Hobbys, Religion, sexuelle Vorlieben und andere Lebensgewohnheiten einer Person einfliessen zu lassen. Die Frage ist, ob dies auch nach gesellschaftlichen oder gesetzlichen Kriterien vertretbar ist.
Kompliziert wird die Sache dadurch, dass die meisten heute existierenden KI-Systeme nicht dafür programmiert wurden, genaue Rechenschaft über die Gründe ihrer Entscheidungen abzulegen. Die Entwickler haben sich stattdessen darauf konzentriert, dass die KI-Anwendungen richtige Entscheidungen treffen, egal warum. Unter Stichworten wie Nachvollziehbarkeit, Verantwortung und Transparenz ist daher in den letzten Jahren eine eigene Disziplin innerhalb der KI-Forschung entstanden, welche diese Situation verbessern will. (Hans Jörg Maron)
Loading
1 Milliarde für die europäische "KI Supercloud"
IaaS-Anbieter Nexgen will die Entwicklung von KI-Anwendungen in Europa fördern. Dafür nimmt das Unternehmen 1 Milliarde Dollar in die Hand.
"Hey Google, verzichte auf meine Inhalte für KI-Trainings"
Zeitungsverlage können selbst entscheiden, ob sie ihre Inhalte für die Verbesserung der Google-KI Bard zur Verfügung stellen wollen oder nicht.
Schweizer Startup für Gesundheitsdaten erhält 3,4 Millionen Dollar
Tune Insight will mit KI Daten sicher nutzbar machen. Im Fokus sind Spitäler.
OpenAI lässt ChatGPT von der Leine
Der Konzern hat seinem KI-System einen Zugang zum Internet gegeben. So ist der Chatbot nicht länger auf sein Wissen von vor September 2021 beschränkt.