Wann kommen die ersten Deepfake-Politikerinnen?

23. Februar 2022, 13:54
  • innovation
  • künstliche intelligenz
  • deep tech
image
In der oberen Reihe sind die echten, unten die gefälschten Gesichter. Foto: Pnas.org

Es wird immer schwieriger, zwischen Deepfake-Gesichtern und richtigen Menschen zu unterscheiden. Speziell ist, dass Letzteren weniger vertraut wird.

Ob es sich um die Fotografie eines echten Menschen oder ein computergeneriertes Porträt handelt, ist nahezu unmöglich zu entscheiden. Algorithmus-generierte Deepfakes sehen immer echter aus und wirken – tatsächlich – vertrauenswürdiger.
Zu diesem Schluss kommt eine Peer-Review-Studie der Universitäten in Lancaster und Berkeley. Die Wissenschaftlerin Sophie J. Nightingale und ihr amerikanischer Kollege Hany Farid untersuchten in 3 verschiedenen Experimenten, ob und wie richtige Gesichter von Deepfakes unterschieden werden können.

Die Unterscheidung von Fakes und echten Porträts ist zufällig

Deepfakes nutzen eine Form der künstlichen Intelligenz, um vorhandene Bilder oder Videos zu kombinieren und zu überlagern, um gefälschte Bilder von Personen zu erstellen. In einem ersten Versuch, sollten 315 Teilnehmende beurteilen, ob ein Foto echt oder Algorithmus-basiert ist. Die Gruppe hatte laut Forschungsbericht in weniger als der Hälfte der Fälle recht (48,2%). In der zweiten Runde erhielten 219 neue Teilnehmende Feedback zu ihren Vermutungen, was die Trefferquote auf 59% erhöhte. Ob sie richtig lagen oder nicht, war also nichts anderem als dem Zufall überlassen: "Computergenerierte Gesichter sind nicht zu unterscheiden von echten", bilanzieren die Forschenden ihre Experimente.

Das Deepfake-Durchschnittsgesicht ist vertrauenswürdig

Im dritten Experiment mit 223 Teilnehmenden sollte die Vertrauenswürdigkeit der Gesichter beurteilt werden. Dabei wurden die gefälschten Gesichter im Schnitt als vertrauenswürdiger eingestuft als echte. Nightingale und Farid glauben, dass dies daran liegt, dass Deepfake-Gesichter dem "typischen Durchschnittsgesicht" nahekommen.
Während es beim Aufkommen von Deepfake im Jahr 2017 noch erste Versuche gab, diese zu bekämpfen, werden diese heute kommerzialisiert, wie ein Report aus Indien zeigt. Sophie J. Nightingale und Hany Farid schreiben, dass aktuelle Techniken aufgrund der hohen Datenflut nicht in der Lage seien, Deepfakes zu erkennen. Es ist also nur eine Frage der Zeit, bis besonders vertrauenswürdige Deepfake-Gesichter für Marketingzwecke verwendet werden. Und schon bald in der Politik?

Loading

Mehr zum Thema

image

«Wir wollten unser Teamwork moderner gestalten»

Gemeinsam mit der novaCapta hat die Erni Gruppe Ihre Arbeitswelt digitalisiert. Welche Herausforderungen dabei gemeistert wurden und welche Rolle die Bausteine von Microsoft spielen, verraten uns Andreas Wermelinger und Pascal.

image

Die Mondbasis soll aus dem 3D-Printer kommen

Ein Startup soll im Auftrag der Nasa einen riesigen 3D-Drucker entwickeln, der Mondgestein verwenden kann, um Bauteile zu drucken.

publiziert am 30.11.2022
image

Innovationspark Dübendorf erhält 100 Millionen Franken

Auf dem alten Flugplatz soll ein Hub für Startups und Forschung entstehen. Der Zürcher Kantonsrat hat 97 Millionen Franken für die Entwicklung bewilligt.

publiziert am 29.11.2022
image

Die Schaltsekunde wird abgeschafft

Schaltsekunden haben schon mehrmals zu grossen Problemen in IT-Systemen geführt. In rund 13 Jahren sollen sie aber Geschichte sein.

publiziert am 22.11.2022