Microsoft definiert verantwortungsvolle KI

22. Juni 2022, 13:11
image
Die Emotions-Erkennungs-Software wird eingestellt. Screenshot: Microsoft

Durch einen einheitlichen Standard soll der Zugang zu gewissen Machine-Learning-Technologien eingeschränkt werden. Bestimmte Projekte werden gar ganz eingestampft.

Microsoft hat ein Rahmenwerk für einen Standard zum Bau ver­ant­wort­ungs­voller KI ver­öffentlicht. Das vormals interne Dokument soll dem Software-Riesen dabei helfen, bessere und vertrauenswürdigere künstliche Intelli­gen­zen zu entwickeln. Nach eigenen Angaben wollen die Redmonder mit dem Papier ihre "Erkenntnisse teilen, Feedback von anderen einholen und einen Beitrag zur Diskussion über die Entwicklung von Normen im Bereich der KI leisten".
Mit der Ankündigung des Rahmenwerks hat Microsoft ausserdem be­kannt­ge­ge­ben, dass künftig die Nutzung von gewissen KI-Technologien einschränkt werde. Dazu zählt gemäss dem Entwickler eine Sprachtechnologie, die eine synthetische Stimme erzeugen kann, die fast wie eine menschliche Stimme klingt. Dabei sei es leicht vorstellbar, dass KI eingesetzt wird, um Personen akustisch zu imitieren oder Zuhörende zu täuschen, schreibt Microsoft in einem Blogeintrag.
Bei der Entstehung des Standards sei entschieden worden, dass der Kunden­zugang zu diesem Dienst eingeschränkt und ein neues Kontrollsystem ein­ge­führt wird. Dazu seien spezifische Anwendungsfälle definiert worden, in denen die Technologie eingesetzt werden darf, so der Blog. Man wolle verhindern, dass die KI missbraucht wird, sie aber gleichzeitig den Nutzen der Tech­no­logie erhalten.

Emotions-Erkennung eingestellt

Noch weiter als mit der synthetischen Stimme ist der Konzern gemäss dem Blogeintrag bei einer Software gegangen, die menschliche Emotionen oder Identitätsmerkmale erkennen sollte. Funktionen, die emotionale Zustände oder Geschlecht, Alter, Lächeln, Gesichtsbehaarung, Haare und Make-up ermittelten, seien eingestellt worden, so Microsoft. Weiter sei entschieden worden, dass Drittunternehmen, die Gesichter von Menschen scannen, keinen Zugang mehr zu der Technologie gewährt wird.
Diverse Experten hätten Microsoft darauf hingewiesen, dass es keinen wissen­schaftlichen Konsens über die Definition von Emotionen gibt, und dass es schwierig sei, Schlussfolgerungen über verschiedene Anwendungsfälle, Regionen und Bevölkerungsgruppen hinweg zu verallgemeinern. Zudem hätten diese Funktionen auch grosse Bedenken hinsichtlich des Datenschutzes ausgelöst.

Loading

Mehr zum Thema

image

Github macht KI-Tool Copilot breit verfügbar

Mit Hilfe von KI soll Entwicklern die tägliche Arbeit erleichtert werden. Copilot ist nun als Erweiterung für gängige Editoren allgemein verfügbar.

publiziert am 24.6.2022
image

Arbeiten in der virtuellen Welt ist anstrengend

Wie fühlt es sich an, eine Woche lang in der virtuellen Welt zu arbeiten? Eine Studie zeigt, nicht sehr gut, aber vielleicht gewöhnt man sich (ein bisschen) daran.

publiziert am 23.6.2022
image

Lieferkette bremst auch Tesla

Laut Firmengründer Elon Musk sind die Lieferkettenprobleme noch nicht ausgestanden. Tesla streicht bis zu 3,5% der Stellen.

publiziert am 23.6.2022
image

Amazons Alexa soll die Stimmen von Toten imitieren

Alexa wird laut Amazon auch Stimmen von Lebenden imitieren können, illustriert dies aber mit einem eher makabren Beispiel.

publiziert am 23.6.2022 1