Wann kommen die ersten Deepfake-Politikerinnen?

23. Februar 2022, 13:54
  • innovation
  • künstliche intelligenz
  • deep tech
image
In der oberen Reihe sind die echten, unten die gefälschten Gesichter. Foto: Pnas.org

Es wird immer schwieriger, zwischen Deepfake-Gesichtern und richtigen Menschen zu unterscheiden. Speziell ist, dass Letzteren weniger vertraut wird.

Ob es sich um die Fotografie eines echten Menschen oder ein computergeneriertes Porträt handelt, ist nahezu unmöglich zu entscheiden. Algorithmus-generierte Deepfakes sehen immer echter aus und wirken – tatsächlich – vertrauenswürdiger.
Zu diesem Schluss kommt eine Peer-Review-Studie der Universitäten in Lancaster und Berkeley. Die Wissenschaftlerin Sophie J. Nightingale und ihr amerikanischer Kollege Hany Farid untersuchten in 3 verschiedenen Experimenten, ob und wie richtige Gesichter von Deepfakes unterschieden werden können.

Die Unterscheidung von Fakes und echten Porträts ist zufällig

Deepfakes nutzen eine Form der künstlichen Intelligenz, um vorhandene Bilder oder Videos zu kombinieren und zu überlagern, um gefälschte Bilder von Personen zu erstellen. In einem ersten Versuch, sollten 315 Teilnehmende beurteilen, ob ein Foto echt oder Algorithmus-basiert ist. Die Gruppe hatte laut Forschungsbericht in weniger als der Hälfte der Fälle recht (48,2%). In der zweiten Runde erhielten 219 neue Teilnehmende Feedback zu ihren Vermutungen, was die Trefferquote auf 59% erhöhte. Ob sie richtig lagen oder nicht, war also nichts anderem als dem Zufall überlassen: "Computergenerierte Gesichter sind nicht zu unterscheiden von echten", bilanzieren die Forschenden ihre Experimente.

Das Deepfake-Durchschnittsgesicht ist vertrauenswürdig

Im dritten Experiment mit 223 Teilnehmenden sollte die Vertrauenswürdigkeit der Gesichter beurteilt werden. Dabei wurden die gefälschten Gesichter im Schnitt als vertrauenswürdiger eingestuft als echte. Nightingale und Farid glauben, dass dies daran liegt, dass Deepfake-Gesichter dem "typischen Durchschnittsgesicht" nahekommen.
Während es beim Aufkommen von Deepfake im Jahr 2017 noch erste Versuche gab, diese zu bekämpfen, werden diese heute kommerzialisiert, wie ein Report aus Indien zeigt. Sophie J. Nightingale und Hany Farid schreiben, dass aktuelle Techniken aufgrund der hohen Datenflut nicht in der Lage seien, Deepfakes zu erkennen. Es ist also nur eine Frage der Zeit, bis besonders vertrauenswürdige Deepfake-Gesichter für Marketingzwecke verwendet werden. Und schon bald in der Politik?

Loading

Mehr zum Thema

image

In Zürich werden auch die Stühle smart

Im Rahmen von Smart City Zürich testet die Stadt neue Sensoren. Diese sollen an öffentlichen Stühlen Sitzdauer, Lärmpegel und mehr messen.

publiziert am 8.8.2022
image

Tessiner Startup xFarm sammelt 17 Millionen

Die Finanzierungsrunde des Anbieters einer Plattform für das Management von Bauernhöfen wird von Swisscom Ventures angeführt.

publiziert am 8.8.2022
image

ETH hat Augmented Reality für Zahnmediziner entwickelt

Game Developer des ETH Game Technology Centers haben eine Augmented-Reality-App programmiert, die in der Zahnmedizin die Prozesse des Knochenumbaus spielerisch vermittelt.

publiziert am 5.8.2022
image

Threema kippt Google mehr und mehr aus seinen Diensten

Der Schweizer Messenger-Anbieter publiziert mit "Threema Libre" eine Android-Version, die ohne proprietären Google-Code auskommt.

publiziert am 4.8.2022