Auf der Münchner Sicherheitskonferenz, die letzte Woche stattfand, haben sich 20 Unternehmen, darunter Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, Tiktok und X dazu bekannt, gemeinsam gegen missbräuchliche KI-Inhalte vorzugehen.
Die Tech-Anbieter haben vor allem durch KI generierte Audio-, Video- und Bilddateien im Visier, die das Aussehen oder die Stimme von politischen Kandidaten, Wahlhelfern und anderen wichtigen Akteuren einer demokratischen Wahl täuschend nachahmen oder verändern. Ausserdem richtet sich die Initiative gegen digitale Inhalte, die den Wählern falsche Informationen darüber liefern, wann, wo und wie die Wahlen stattfinden.
Im "
AI Elections Accord" haben sich die beteiligten Unternehmen auf acht Grundsätze verständigt:
- Entwicklung und Implementierung von Technologien zur Abschwächung von Risiken im Zusammenhang mit betrügerischen KI-Wahlinhalten
- Bewertung der Modelle, die in den Geltungsbereich dieser Vereinbarung fallen, um die Risiken zu verstehen, die sie in Bezug auf betrügerische KI-Wahlinhalte darstellen können
- Aufspüren der Verbreitung solcher Inhalte auf ihren Plattformen
- Bemühung um einen angemessenen Umgang mit solchen Inhalten, die auf ihren Plattformen entdeckt werden
- Förderung der branchenübergreifenden Widerstandsfähigkeit gegenüber betrügerischen KI-Wahlinhalten
- Transparenz gegenüber der Öffentlichkeit, wie das Unternehmen damit umgeht
- Fortsetzung der Zusammenarbeit mit verschiedenen globalen Organisationen der Zivilgesellschaft und Akademikern
- Unterstützung von Bemühungen zur Förderung des öffentlichen Bewusstseins, der Medienkompetenz und der Widerstandsfähigkeit der gesamten Gesellschaft
Vor allem in den USA, wo am 5. November die Präsidentschaftswahl stattfindet, gibt es schon reichlich Erfahrungen mit manipulativen KI-Inhalten im laufenden Wahlkampf. Dort hatte zuletzt ein Telefonroboter bei den Vorwahlen in New Hampshire die Menschen mit der Stimme von Präsident Joe Biden aufgefordert, nicht vom Wahlrecht Gebrauch zu machen. Die von einer KI generierte Stimme war kaum von der echten des US-Präsidenten zu unterscheiden. Auch deshalb hat sich das Weisse Haus dazu entschieden,
eigene Videos verifizierbar zu machen.
Kent Walker, President Global Affairs bei Google, erklärte: "Wir dürfen es nicht zulassen, dass ein digitaler Missbrauch die Chancen der Künstlichen Intelligenz bedroht, unsere Volkswirtschaften zu¨verbessern, neue Arbeitsplätze zu schaffen und den Fortschritt in Gesundheit und Wissenschaft voranzutreiben." Microsoft-Präsident Brad Smith meinte, während die Gesellschaft die Vorteile der KI nutze, stünden die Unterzeichner der Vereinbarung in der Verantwortung, dafür zu sorgen, dass diese Werkzeuge nicht zu einer Waffe bei Wahlen würden.
(Mit Material von Keystone-sda)