Es braucht bessere Mass­nahmen gegen Deepfakes

26. Februar 2024 um 14:01
image
Nein, Papst Franziskus ging nicht in weisser Bomberjacke spazieren. Das Bild ist ein Fake. Quelle: Reddit / Midjourney

Derzeit wird laut der Mozilla Foundation eine Technologie in Umlauf gebracht, bei der Massnahmen gegen den böswilligen Einsatz nicht durchdacht und eingebaut werden.

Eine Studie der Mozilla Foundation warnt vor erheblichen Defiziten bei den Methoden, die KI-generierte Bilder, Videos und Audioaufnahmen als solche kennzeichnen. Generative KI habe eine transformative Wirkung, weshalb es dringend transparente und zuverlässige Möglichkeiten brauche, um die Verbreitung von Falschinformationen zu verhindern, so die Autoren.

Angst vor Wahlmanipulation

Etwa erhöhen KI-Technologien das Risiko von Identitätsdiebstahl durch Phishing. Daneben weist die Studie auf die Gefahr von Manipulationen hin. Insbesondere in diesem Jahr mit der US-Präsidentschaftswahl und der Europawahl besteht grosse Sorge, dass mithilfe von KI erstellte Fälschungen verwendet werden könnten, um ihren Ausgang zu beeinflussen.
Erst kürzlich hat OpenAI Sora vorgestellt, ein KI-Tool, das anhand von Texteingaben Videos produziert. Die sichtbare Markierung, die auf eine KI-Herkunft hinweise, sei bei Sora klein und schwer zu sehen, kritisierte die Mozilla-Forscherin Ramak Molavi Vasse'i.
Facebook kündigte eben an, vor den Europawahlen im Juni ein Spezialistenteam einsetzen zu wollen. Damit sollen Bedrohungen erkannt und Massnahmen in Echtzeit ergriffen werden, erklärte das Unternehmen. Vor knapp zwei Wochen hatten sich der ChatGPT-Entwickler OpenAI, dessen Grossaktionär Microsoft, Google und weitere Technologiefirmen verpflichtet, im Kampf gegen Wahlbeeinflussung mit KI zusammenzuarbeiten.

Verbreitung nicht einvernehmlicher Pornografie

Der Mozilla-Bericht verweist auf eine Studie des Online-Security-Unternehmens Deeptrace Labs aus dem Jahr 2019. Diese ergab, dass 96% der Online-Deepfakes pornografisch waren und diese in erster Linie Frauen erniedrigen und objektivieren. Der Begriff Deepfake wurde erstmals 2017 auf Reddit von einem Nutzer geprägt, der einige KI-Tools verwendete, um Gesichter in pornografischen Videoclips durch die von bekannten Persönlichkeiten zu ersetzen.
Bei einem alarmierenden Vorfall in Spanien im September 2023 erhielten laut der Studie mehr als 20 Mädchen, einige von ihnen erst elf Jahre alt, explizite KI-generierte Bilder von sich selbst zugeschickt.

Massnahmen nicht durchdacht

KI-generierte Inhalte können für persönliche Angriffe, Belästigung oder Mobbing eingesetzt werden, so die Bilanz von Mozilla. Ein generelles Problem sei, dass derzeit eine Technologie in Umlauf gebracht werde, bei der Massnahmen gegen einen böswilligen Einsatz nicht von Anfang an durchdacht und eingebaut würden, schreibt Mozilla.
Weltweit kommen Vorschriften auf, die bestimmen, dass KI-generierte Inhalte eindeutig identifiziert und gekennzeichnet werden müssen. Für die Studie hat Mozilla diese getestet. Die Bilanz: Keine der verbreiteten Methoden werde den Anforderungen angemessen gerecht. Vorschriften zur Auszeichnung von Inhalten liefen oft ins Leere, so Ramak Molavi Vasse'i. Wenn die Branche mit Selbstregulierung nicht vorankomme, müsse es mehr Druck geben.

Sichtbare und unsichtbare Wasserzeichen

Bei möglichen Methoden zur Kennzeichnung von Inhalten, die von Software generiert wurden, unterscheidet Mozilla im Report zwischen für den Menschen sicht- und hörbaren Methoden sowie maschinenlesbaren.
Für Nutzerinnen und Nutzer sichtbare Markierungen könnten KI-Inhalte durch allgemein verständliche Symbole als solche erkennbar machen und für mehr Transparenz sorgen. Für die Unternehmen seien solche Wasserzeichen oder Tags leicht umzusetzen, heisst es in der Studie. Allerdings zeige sich in der Praxis, dass sie oft irreführend und schwer zu entdecken seien. "Sie wälzen die Verantwortung an die Endnutzerinnen und -Nutzer ab", so Mozilla.
Wer Falschinformationen verbreiten möchte, könnte schlicht KI-Tools verwenden, die Inhalte nicht kennzeichnen. Zudem seien Markierungen einfach zu manipulieren und würden keine absolute Sicherheit bieten.
Technische Wasserzeichen, die automatisch in von KI erzeugte Inhalte eingebettet werden, seien die robustere Lösung. Denn sie seien schwer zu fälschen oder zu entfernen, so die Studie.
Aber auch hier gibt es Vorbehalte. Je nach Methode könne die Einbettung komplex sein. Gleichzeitig könnte die Erkennung solcher Markierungen auf den Endgeräten viel Rechenpower benötigen. Durch schlichtes Kopieren eines Textes oder mittels Screenshots eines KI-Bildes könnten sie zudem für gewisse Use Cases einfach umgangen werden.
Die vollständige Studie "In Transparency We Trust?" ist online als PDF verfügbar. Darin geht Mozilla auch auf mögliche Lösungsansätze wie "Slow AI" ein. Gemeint ist damit Technologie, die die soziale Verantwortung der Unternehmen bei der Entwicklung neuer Tools und Technologien von Anfang an miteinbezieht. Beispielsweise könnten Erkennungssysteme für generierte Inhalte auf ihre Wirksamkeit getestet werden, bevor ein KI-System auf den Markt gebracht wird.


Loading

Mehr erfahren

Mehr zum Thema

image

Mozilla kritisiert Online­platt­formen wegen mangelnder Transparenz

Die EU hat Facebook, X oder Snapchat besondere Transparenz­pflichten bei Werbung auferlegt. Einem Mozilla-Bericht zufolge sind deren Tools aber ungenügend.

publiziert am 16.4.2024
image

Erstes deutsches Bundesland setzt einen KI-Beirat ein

In Sachsen soll sich ein Beirat für digitale Ethik mit dem Einsatz von KI befassen. Ein solcher sei "dringend notwendig", so die Landesregierung.

publiziert am 15.4.2024
image

Microsoft erhöht die Preise für Dynamics deutlich

Um 10 bis 15% steigen die Kosten für einzelne Microsoft-Dynamics-Module. Die neuen Preise gelten ab Oktober.

publiziert am 15.4.2024
image

Wo sich der Grossteil der Cybercrime-Aktivitäten abspielt

Eine Forschungsarbeit der Universität Oxford zeigt die globalen Cybercrime-Hotspots. Dies soll dem privaten wie öffentlichen Sektor helfen, Ressourcen gezielt einzusetzen.

publiziert am 12.4.2024