Eine Studie der Mozilla Foundation warnt vor erheblichen Defiziten bei den Methoden, die KI-generierte Bilder, Videos und Audioaufnahmen als solche kennzeichnen. Generative KI habe eine transformative Wirkung, weshalb es dringend transparente und zuverlässige Möglichkeiten brauche, um die Verbreitung von Falschinformationen zu verhindern, so die Autoren.
Angst vor Wahlmanipulation
Etwa erhöhen KI-Technologien das Risiko von Identitätsdiebstahl durch Phishing. Daneben weist die Studie auf die Gefahr von Manipulationen hin. Insbesondere in diesem Jahr mit der US-Präsidentschaftswahl und der Europawahl besteht grosse Sorge, dass mithilfe von KI erstellte Fälschungen verwendet werden könnten, um ihren Ausgang zu beeinflussen.
Erst kürzlich hat OpenAI Sora vorgestellt, ein KI-Tool, das anhand von Texteingaben Videos produziert. Die sichtbare Markierung, die auf eine KI-Herkunft hinweise, sei bei Sora klein und schwer zu sehen, kritisierte die Mozilla-Forscherin Ramak Molavi Vasse'i.
Facebook kündigte eben an, vor den Europawahlen im Juni ein Spezialistenteam einsetzen zu wollen. Damit sollen Bedrohungen erkannt und Massnahmen in Echtzeit ergriffen werden, erklärte das Unternehmen. Vor knapp zwei Wochen hatten sich der ChatGPT-Entwickler OpenAI, dessen Grossaktionär Microsoft, Google und
weitere Technologiefirmen verpflichtet, im Kampf gegen Wahlbeeinflussung mit KI zusammenzuarbeiten.
Verbreitung nicht einvernehmlicher Pornografie
Der Mozilla-Bericht verweist auf eine Studie des Online-Security-Unternehmens Deeptrace Labs aus dem Jahr 2019. Diese ergab, dass 96% der Online-Deepfakes pornografisch waren und diese in erster Linie Frauen erniedrigen und objektivieren. Der Begriff Deepfake wurde erstmals 2017 auf Reddit von einem Nutzer geprägt, der einige KI-Tools verwendete, um Gesichter in pornografischen Videoclips durch die von bekannten Persönlichkeiten zu ersetzen.
Bei einem alarmierenden Vorfall in Spanien im September 2023 erhielten laut der Studie mehr als 20 Mädchen, einige von ihnen erst elf Jahre alt, explizite KI-generierte Bilder von sich selbst zugeschickt.
Massnahmen nicht durchdacht
KI-generierte Inhalte können für persönliche Angriffe, Belästigung oder Mobbing eingesetzt werden, so die Bilanz von Mozilla. Ein generelles Problem sei, dass derzeit eine Technologie in Umlauf gebracht werde, bei der Massnahmen gegen einen böswilligen Einsatz nicht von Anfang an durchdacht und eingebaut würden, schreibt Mozilla.
Weltweit kommen Vorschriften auf, die bestimmen, dass KI-generierte Inhalte eindeutig identifiziert und gekennzeichnet werden müssen. Für die Studie hat Mozilla diese getestet. Die Bilanz: Keine der verbreiteten Methoden werde den Anforderungen angemessen gerecht. Vorschriften zur Auszeichnung von Inhalten liefen oft ins Leere, so Ramak Molavi Vasse'i. Wenn die Branche mit Selbstregulierung nicht vorankomme, müsse es mehr Druck geben.
Sichtbare und unsichtbare Wasserzeichen
Bei möglichen Methoden zur Kennzeichnung von Inhalten, die von Software generiert wurden, unterscheidet Mozilla im Report zwischen für den Menschen sicht- und hörbaren Methoden sowie maschinenlesbaren.
Für Nutzerinnen und Nutzer sichtbare Markierungen könnten KI-Inhalte durch allgemein verständliche Symbole als solche erkennbar machen und für mehr Transparenz sorgen. Für die Unternehmen seien solche Wasserzeichen oder Tags leicht umzusetzen, heisst es in der Studie. Allerdings zeige sich in der Praxis, dass sie oft irreführend und schwer zu entdecken seien. "Sie wälzen die Verantwortung an die Endnutzerinnen und -Nutzer ab", so Mozilla.
Wer Falschinformationen verbreiten möchte, könnte schlicht KI-Tools verwenden, die Inhalte nicht kennzeichnen. Zudem seien Markierungen einfach zu manipulieren und würden keine absolute Sicherheit bieten.
Technische Wasserzeichen, die automatisch in von KI erzeugte Inhalte eingebettet werden, seien die robustere Lösung. Denn sie seien schwer zu fälschen oder zu entfernen, so die Studie.
Aber auch hier gibt es Vorbehalte. Je nach Methode könne die Einbettung komplex sein. Gleichzeitig könnte die Erkennung solcher Markierungen auf den Endgeräten viel Rechenpower benötigen. Durch schlichtes Kopieren eines Textes oder mittels Screenshots eines KI-Bildes könnten sie zudem für gewisse Use Cases einfach umgangen werden.
Die vollständige Studie
"In Transparency We Trust?" ist online als PDF verfügbar. Darin geht Mozilla auch auf mögliche Lösungsansätze wie "Slow AI" ein. Gemeint ist damit Technologie, die die soziale Verantwortung der Unternehmen bei der Entwicklung neuer Tools und Technologien von Anfang an miteinbezieht. Beispielsweise könnten Erkennungssysteme für generierte Inhalte auf ihre Wirksamkeit getestet werden, bevor ein KI-System auf den Markt gebracht wird.