Darum fördern Facebooks Algorithmen Spaltung und Hass

8. Oktober 2021, 13:32
  • regulierung
  • facebook
  • usa
  • international
  • justiz
image

Whistleblowerin Haugen hat vor dem US-Kongress ausgesagt: Die Modelle von Facebook müssten grundüberholt werden – gegen das Geschäftsinteresse des Konzerns.

Frances Haugen, eine ehemalige Produktmanagerin von Facebook, hat vor dem US-Kongress ausgesagt. Die Whistleblowerin liess es an deutlichen Worten nicht missen: "Facebook weiss, dass ein auf dem Engagement der User basiertes Ranking ohne Integritäts- und Sicherheitssysteme gefährlich ist", erklärte sie. Der Konzern habe dieses bis heute in vielen Sprachen nicht eingeführt. "Das reisst Familien auseinander. Und in Ländern wie Äthiopien schürt es buchstäblich die ethnische Gewalt."
Das Problem geht darauf zurück, dass Machine-Learning-Modelle, die für die Förderung des User-Engagements ausgelegt sind, Kontroversen, Fakenews und extreme Meinungen priorisieren. Sie sind schliesslich dazu da, User am Bildschirm zu halten, und wer wird von Skandalen und Katastrophen schon nicht gepackt?
Bekannt ist mittlerweile, dass Facebook zur Eskalation der Gewalt gegen die muslimische Minderheit der Rohingya in Myanmar beigetragen hat. Im Herbst 2017 kam es zu Pogromen im früheren Burma, mehr als 650'000 Menschen wurden vertrieben. 2018 gestand Facebook eine Mitschuld ein, nachdem der Konzern seine Rolle lange heruntergespielt hatte.
Laut Haugen untersucht das Techunternehmen seine Rolle in der Polarisierung von Gesellschaften mindestens seit 2016. Und dennoch kriegt Facebook seine Algorithmen offenbar nicht in den Griff – oder will es einfach nicht.

Wie funktioniert das Rankingverfahren?

Erst Mal muss man bei Facebook von Algorithmen in Mehrzahl sprechen: Der Konzern nutzt hunderte, vielleicht tausende, wie die 'MIT Technology Review' schätzt. Einige werden eingesetzt, um Anzeigen und Inhalte an die User-Vorlieben anzupassen, andere sollen verbotenen Content löschen oder entpriorisieren. Die Algorithmen basieren auf Machine Learning, die Modelle werden mit Unmengen an Daten gefüttert, die die User auf der Plattform erzeugen und mit ihrem veränderlichen Verhalten steuern.
Die Algorithmen, die schliesslich eingesetzt werden, werden innerhalb von Facebook nicht von einem bestimmten Team entwickelt, sondern von den jeweiligen Entwicklern in ihrem Zuständigkeitsbereich. Dieser Entscheid sei von Facebook früh getroffen und dafür ein Tool namens FBLearner Flow eingesetzt worden, so dass sich auch Ingenieure ohne grosse ML-Erfahrung die Modellentwicklung erschliessen könnten, heisst es im Bericht des Tech-Magazins.
Die dadurch erzeugte Komplexität, Fragmentierung und Konkurrenzsituation soll wesentlich dazu beitragen, dass Facebook die Newsfeeds nicht in den Griff kriegt, also schädlicher Content nicht entfernt wird. Mehrere ehemalige Angestellte bestätigten dies gegenüber der 'MIT Technology Review'. Sie wiesen darauf hin, dass Facebook deshalb mittels Experimenten und Messungen versucht, das Problem zu lösen. Der Konzern testet demnach neue Modelle an kleineren Gruppen und schaut, wie sich die Metriken verändern. Killerargument gegen den Einsatz eines Algorithmus: Eine Reduktion des Engagements der Social-Media-User.

Geschäftsmodell schlägt Ethik

Da ist es wenig hilfreich, wenn die Minderung der politischen Polarisierung zum Nachlassen des Userengagements beiträgt. Genau das soll aber 2017 eine Arbeitsgruppe unter dem damaligen Chief Product Officer Chris Cox herausgefunden haben. Die Gruppe habe, so die 'MIT Technology Review', mehrere Vorschläge für "freundlichere" Algorithmen ausgearbeitet, einige jedoch als "wachstumsfeindlich" klassifiziert. Die meisten seien dann nicht weiterverfolgt, die Arbeitsgruppe aufgelöst worden. In Kurzform: Das Geschäftsmodell schlug ethische Bedenken.
Die Befunde seien mehrfach bestätigt worden. Auf Engagement trainierte Modelle hätten über die Zeit die User mit immer extremeren Standpunkten beliefert, heisst es im Bericht. Der Trend zum Skandalcontent liegt also nicht lediglich am Algorithmen-Komplex, sondern an bewussten Entscheidungen des Facebook-Managements.

Die Grenzen der Sprachmodelle

Verschärft wird das Problem durch die Barrieren von Sprachmodellen: Haugen sagte vor dem US-Kongress, dass die Phänomene der Polarisierung und Aufhetzung in Ländern stärker seien, in denen nicht Englisch gesprochen werde, sondern eine Sprache, die von Facebooks Integritätssystem nicht abgedeckt werde. Ihr Fazit: Sich auf sprachbasierte, inhaltsspezifische Systeme zu stützen, die per KI automatisiert Hetze herausfiltern, ist zum Scheitern verurteilt.
Die 'MIT Technology Review' berichtet, dass den Facebook-Mitarbeitenden beim Ausbruch des Krieges in Äthiopien im letzten Herbst die Situation entglitt. Der Konzern kriegte die Flut an Fehlinformationen nicht in den Griff und die Plattform geriet in einen Teufelskreis: Die Fakenews und Lügen wurden zugleich, sofern sie nicht rausmoderiert wurden, zu Trainingsdaten der Machine-Learning-Modelle und verstärkten so das System der Hetze und der Fehlinformation.

Algorithmen sollen nicht mehr auf User-Engagement abzielen

Haugen, die nun für einiges Aufsehen gesorgt hat, sprach sich öffentlich gegen die Zerschlagung von Facebook aus und auch dagegen, dass Techplattformen juristisch für die Inhalte verantwortlich gemacht werden sollen. Stattdessen soll eine Regelung beschlossen werden, die ein Inhalts-Ranking anhand des zu erwartenden Engagements verhindert. Zudem soll Facebook zu einem chronologischen Newsfeeds zurückkehren.
Klar ist nun: Wenn Facebook das grundlegende Design seiner Algorithmen nicht ändert, wird es keine nennenswerte Verbesserung der Probleme der Plattform geben. Ob der Konzern das gegen seine Geschäftsinteressen selbständig umsetzen wird, ist fraglich. Darum sprach Haugen nicht nur vor dem US-Kongress, sondern kontaktierte auch europäische Gesetzesgeber.

Loading

Mehr zum Thema

image

Bundesgericht befasst sich mit der Public-Cloud-Vergabe

Die Beschwerde einer Privatperson gegen den Grossauftrag des Bundes an 5 Hyperscaler geht nach einer Rüge des Bundesgerichts zurück ans Verwaltungsgericht. Gefordert wird der vorläufige Abbruch des Projekts.

publiziert am 15.8.2022
image

Wegen Korruption verurteilter Samsung-Chef begnadigt

Die Begnadigung soll Lee Jae-yong laut Justizminister erlauben, einen Beitrag zur "Überwältigung der wirtschaftlichen Krise" des Landes zu leisten.

publiziert am 12.8.2022
image

Bundesrecht nun auch im XML-Format

Die Bundeskanzlei veröffentlicht das Bundesrecht ab sofort auch als maschinenlesbare XML-Daten. Damit können Inhalte in eigene Anwendungen übernommen werden.

publiziert am 11.8.2022
image

USA wollen mit 280 Milliarden die Chip-Produktion ankurbeln

Präsident Biden unterzeichnete ein entsprechendes Gesetzespaket. Mit den Fördergeldern soll die Abhängigkeit von Asien reduziert werden.

publiziert am 10.8.2022