Microsoft definiert verantwortungsvolle KI

22. Juni 2022, 13:11
image
Die Emotions-Erkennungs-Software wird eingestellt. Screenshot: Microsoft

Durch einen einheitlichen Standard soll der Zugang zu gewissen Machine-Learning-Technologien eingeschränkt werden. Bestimmte Projekte werden gar ganz eingestampft.

Microsoft hat ein Rahmenwerk für einen Standard zum Bau ver­ant­wort­ungs­voller KI ver­öffentlicht. Das vormals interne Dokument soll dem Software-Riesen dabei helfen, bessere und vertrauenswürdigere künstliche Intelli­gen­zen zu entwickeln. Nach eigenen Angaben wollen die Redmonder mit dem Papier ihre "Erkenntnisse teilen, Feedback von anderen einholen und einen Beitrag zur Diskussion über die Entwicklung von Normen im Bereich der KI leisten".
Mit der Ankündigung des Rahmenwerks hat Microsoft ausserdem be­kannt­ge­ge­ben, dass künftig die Nutzung von gewissen KI-Technologien einschränkt werde. Dazu zählt gemäss dem Entwickler eine Sprachtechnologie, die eine synthetische Stimme erzeugen kann, die fast wie eine menschliche Stimme klingt. Dabei sei es leicht vorstellbar, dass KI eingesetzt wird, um Personen akustisch zu imitieren oder Zuhörende zu täuschen, schreibt Microsoft in einem Blogeintrag.
Bei der Entstehung des Standards sei entschieden worden, dass der Kunden­zugang zu diesem Dienst eingeschränkt und ein neues Kontrollsystem ein­ge­führt wird. Dazu seien spezifische Anwendungsfälle definiert worden, in denen die Technologie eingesetzt werden darf, so der Blog. Man wolle verhindern, dass die KI missbraucht wird, sie aber gleichzeitig den Nutzen der Tech­no­logie erhalten.

Emotions-Erkennung eingestellt

Noch weiter als mit der synthetischen Stimme ist der Konzern gemäss dem Blogeintrag bei einer Software gegangen, die menschliche Emotionen oder Identitätsmerkmale erkennen sollte. Funktionen, die emotionale Zustände oder Geschlecht, Alter, Lächeln, Gesichtsbehaarung, Haare und Make-up ermittelten, seien eingestellt worden, so Microsoft. Weiter sei entschieden worden, dass Drittunternehmen, die Gesichter von Menschen scannen, keinen Zugang mehr zu der Technologie gewährt wird.
Diverse Experten hätten Microsoft darauf hingewiesen, dass es keinen wissen­schaftlichen Konsens über die Definition von Emotionen gibt, und dass es schwierig sei, Schlussfolgerungen über verschiedene Anwendungsfälle, Regionen und Bevölkerungsgruppen hinweg zu verallgemeinern. Zudem hätten diese Funktionen auch grosse Bedenken hinsichtlich des Datenschutzes ausgelöst.

Loading

Mehr zum Thema

image

Autonomer Päckli-Roboter kommt 2023 in die Schweiz

Der Loxo Alpha soll künftig Pakete auf Abruf liefern. Ein Testversuch in der Schweiz soll im Frühling 2023 starten. In welcher Region ist allerdings noch unklar.

publiziert am 7.12.2022
image

Beschluss für europaweit einheitliche E-ID gefasst

Die eIDAS-Verordnung der EU verpflichtet alle Mitgliedstaaten, eine einheitliche digitale Identität anzubieten. Europa scheint nicht aus den Fehlern der Schweiz gelernt zu haben.

publiziert am 7.12.2022 1
image

San Francisco: Vorerst doch keine Roboter zum Töten

In einer zweiten Abstimmung hat sich das kommunale Gremium doch noch gegen die Richtlinie entschieden.

publiziert am 7.12.2022
image

Microsoft will eine "Super-App" schaffen

Der Konzern will die chinesische App Wechat kopieren. Für den Vertrieb der Anwendung wird man allerdings weiterhin auf die Konkurrenz angewiesen sein.

publiziert am 7.12.2022