Forscher nennen Werkzeuge für verantwortungsvolle KI

20. April 2020 um 13:47
image

Unverbindliche Prinzipien und Ethikgrundsätze reichen nicht. Forscher schlagen unter anderem ein Bug-Bounty-Programm für unfaire Algorithmen vor.

Forschende von Google Brain, Intel, OpenAI und weiteren Unternehmen sowie von Institutionen wie der EPFL haben ein Paper zum Thema KI und Ethik publiziert. Darin stellen sie praktische Konzepte vor, eine "Toolbox" wie sie es nennen, für die Umsetzung von Ethikgrundsätzen in der Entwicklung von KI-gestützten Anwendungen. Schwerpunkte dabei sind Sicherheit, Fairness und der Schutz der Privatsphäre.
Die KI-Gemeinschaft habe zwar Schritte unternommen, um die Unzulänglichkeiten anzuerkennen und zu beheben, heisst es im Papier. Dazu gehören etwa eine Reihe von Ethikgrundsätzen von Forschenden und Tech-Firmen. Allerdings seien diese Prinzipien unverbindlich. Die bestehenden Normen der Branche und Wissenschaft würden nicht ausreichen, um eine verantwortungsvolle KI-Entwicklung zu gewährleisten, so die Autoren
Damit Entwickler von KI-Systemen und Algorithmen das Vertrauen von Anwendern und Betroffenen gewinnen können, müssen die Entscheidungen, die mittels KI gefällt werden, nachprüfbar sein. Wer von aussen ein System überprüfen oder einen Entscheid nachvollziehen möchte, brauche dafür entsprechende Mittel.

Sicht von User, Entwickler und Regulatoren

Die Autoren des Papiers befassen sich mit einer Reihe von Fragen aus Kunden-, Entwickler- und Behörden-Sicht. Ein Beispiel ist, ob User die Datenschutz-Versprechen eines KI-Systems überprüfen können, das für die Übersetzung sensibler Dokumente verwendet werden kann. Oder ob ein Regulator die Schritte zurückverfolgen kann, die zu einem von einem autonomen Auto verursachten Unfall geführt haben. Ausserdem soll es Software-Entwicklern möglich sein nachzuvollziehen, ob Konkurrenten den Best-Practices folgen, und nicht an verschiedenen Ecken sparen, um sich einen Vorteil zu verschaffen.
Zu den konkreten Massnahmen, die die Autoren vorschlagen handelt gehört unter anderem die Idee eines Bug-Bounty-Programms. Unternehmen, die KI entwickeln und einsetzen, könnten Softwareentwickler dafür bezahlen, wenn sie Voreingenommenheiten oder Probleme in einem Algorithmus finden. Ähnlich wie bei Security-Vorfällen schlagen die Autoren auch vor, AI-Vorfälle mit der Community zu teilen, damit diese von Fehlern lernen könne.
Ausserdem schlagen die Autoren vor, AI-Systeme durch externe Audits prüfen zu lassen. Auch interne "Red Teams" könnten entwickelte KI-System auf Herz und Nieren testen und versuchen sie zu missbrauchen.
Weitere Vorschläge drehen sich um die Hard- und Software-Ebene. So nennen die Autoren Monitoring- und Logging-Systeme, um die Funktionen und Entscheidungen der Systeme nachvollziehen zu können. Sichere Hardware im Machine-Learning-Bereich soll ausserdem dazu beitragen, die Privatsphäre und den Datenschutz zu wahren.
Ziel der verschiedenen Mechanismen sei einerseits eine verantwortungsvolle KI-Entwicklung und andererseits, das Vertrauen in das KI-System zu stärken. 

Loading

Mehr zum Thema

image

VX IT Das schnellste IT-Rack der Welt

IT-Schranksystem. Willkommen in der Zukunft: Rittal präsentiert mit seinem IT-Racksystem VX IT einen maximal durchdachten Variantenbaukasten. Damit lassen sich in bisher unerreichter Schnelligkeit neue IT- Infrastrukturen aufbauen – vom einzelnen Server-Rack bis zum kompletten Rechenzentrum.

image

Google veröffentlicht kostenlos verwendbare KI-Modelle

Sowohl Unternehmen als auch Individuen sollen die "Gemma"-Modelle für eigene KI-Applikationen verwenden können.

publiziert am 21.2.2024
image

KI-Chatbots luchsen Such­maschinen ordentlich Traffic ab

Der Marktforscher Gartner geht davon aus, dass mit der Verbreitung von ChatGPT und Co. klassische Such­maschinen rund ein Viertel an Traffic verlieren werden. Dies hat Konsequenzen für das Marketing.

publiziert am 21.2.2024
image

BLS sucht Cloud-Lösung für die Planung des Bahnbetriebs

Seit 2003 plant die Berner Regionalbahn ihren Betrieb mit einer Software, teilweise sogar in "Handarbeit". Nun soll bis 2027 ein Ersatz mit Cloud-Anbindung her.

publiziert am 21.2.2024