Forscher nennen Werkzeuge für verantwortungsvolle KI

20. April 2020, 13:47
image

Unverbindliche Prinzipien und Ethikgrundsätze reichen nicht. Forscher schlagen unter anderem ein Bug-Bounty-Programm für unfaire Algorithmen vor.

Forschende von Google Brain, Intel, OpenAI und weiteren Unternehmen sowie von Institutionen wie der EPFL haben ein Paper zum Thema KI und Ethik publiziert. Darin stellen sie praktische Konzepte vor, eine "Toolbox" wie sie es nennen, für die Umsetzung von Ethikgrundsätzen in der Entwicklung von KI-gestützten Anwendungen. Schwerpunkte dabei sind Sicherheit, Fairness und der Schutz der Privatsphäre.
Die KI-Gemeinschaft habe zwar Schritte unternommen, um die Unzulänglichkeiten anzuerkennen und zu beheben, heisst es im Papier. Dazu gehören etwa eine Reihe von Ethikgrundsätzen von Forschenden und Tech-Firmen. Allerdings seien diese Prinzipien unverbindlich. Die bestehenden Normen der Branche und Wissenschaft würden nicht ausreichen, um eine verantwortungsvolle KI-Entwicklung zu gewährleisten, so die Autoren
Damit Entwickler von KI-Systemen und Algorithmen das Vertrauen von Anwendern und Betroffenen gewinnen können, müssen die Entscheidungen, die mittels KI gefällt werden, nachprüfbar sein. Wer von aussen ein System überprüfen oder einen Entscheid nachvollziehen möchte, brauche dafür entsprechende Mittel.

Sicht von User, Entwickler und Regulatoren

Die Autoren des Papiers befassen sich mit einer Reihe von Fragen aus Kunden-, Entwickler- und Behörden-Sicht. Ein Beispiel ist, ob User die Datenschutz-Versprechen eines KI-Systems überprüfen können, das für die Übersetzung sensibler Dokumente verwendet werden kann. Oder ob ein Regulator die Schritte zurückverfolgen kann, die zu einem von einem autonomen Auto verursachten Unfall geführt haben. Ausserdem soll es Software-Entwicklern möglich sein nachzuvollziehen, ob Konkurrenten den Best-Practices folgen, und nicht an verschiedenen Ecken sparen, um sich einen Vorteil zu verschaffen.
Zu den konkreten Massnahmen, die die Autoren vorschlagen handelt gehört unter anderem die Idee eines Bug-Bounty-Programms. Unternehmen, die KI entwickeln und einsetzen, könnten Softwareentwickler dafür bezahlen, wenn sie Voreingenommenheiten oder Probleme in einem Algorithmus finden. Ähnlich wie bei Security-Vorfällen schlagen die Autoren auch vor, AI-Vorfälle mit der Community zu teilen, damit diese von Fehlern lernen könne.
Ausserdem schlagen die Autoren vor, AI-Systeme durch externe Audits prüfen zu lassen. Auch interne "Red Teams" könnten entwickelte KI-System auf Herz und Nieren testen und versuchen sie zu missbrauchen.
Weitere Vorschläge drehen sich um die Hard- und Software-Ebene. So nennen die Autoren Monitoring- und Logging-Systeme, um die Funktionen und Entscheidungen der Systeme nachvollziehen zu können. Sichere Hardware im Machine-Learning-Bereich soll ausserdem dazu beitragen, die Privatsphäre und den Datenschutz zu wahren.
Ziel der verschiedenen Mechanismen sei einerseits eine verantwortungsvolle KI-Entwicklung und andererseits, das Vertrauen in das KI-System zu stärken. 

Loading

Mehr zum Thema

image

Elektroflugzeug E-Sling hebt ab

Das von ETH-​Studierenden entwickelte vierplätzige E-Flugzeug ist zum ersten Mal abgehoben. Am Projekt wurde im Innovationspark in Dübendorf gearbeitet.

publiziert am 30.9.2022
image

Atos lehnt Übernahmeangebot des Konkurrenten Onepoint ab

Der kriselnde Konzern sollte für seine Cybersecurity-Sparte 4,2 Milliarden Euro erhalten. "Nicht im Interesse der Stakeholder", sagt der Verwaltungsrat.

publiziert am 30.9.2022
image

Hausmitteilung: Aus C36daily wird ICT Ticker

Wir modernisieren den ICT-Medienspiegel C36daily und geben diesen neu unter dem Namen ICT Ticker heraus. Am bisherigen Format mit kuratierten Inhalten ändert sich nichts.

publiziert am 30.9.2022
image

Wie es um die Umstellung zur QR-Rechnung steht

Die roten und orangen Einzahlungsscheine gehen in den Ruhestand. Wir blicken auf die Einführung der QR-Rechnung zurück und haben bei SIX und Anbietern von Business-Software zum aktuellen Stand nachgefragt.

publiziert am 29.9.2022 5