Gefährdet Facebook die Demokratie?
In der langjährigen, subjektiven Wahrnehmung erweist sich der durchschnittliche Facebook-Beitrag als mittlerer Problemfall: manchmal ganz lustig, hin und wieder interessant, oft aufregend, bisweilen aber aus den falschen Gründen. Und wenn es im sozialen Netzwerk politisch wird, drohen gröbere Unschärfen bis -tiefen sowie eine möglicherweise ansteckende Grenzwertigkeit.
Nun ist diese Wahrnehmung nicht nur subjektiv, sondern auch sehr weit verbreitet, weshalb Facebook (wie auch Instagram, YouTube, Twitter, TikTok) als demokratiepolitisch problematisch gilt: Es besteht der Verdacht, dass sich in den Echokammern und Filterblasen der algorithmisch gestalteten Social-Media-Welt die politische Polarisierung anstaut. Demnach würden die Algorithmen der sozialen Netzwerke irreführende, aber emotional packende Nachrichten gegenüber wahrhaften, aber möglicherweise fad differenzierenden Botschaften bevorzugen und dadurch den Boden für die Donald Trumps dieser Welt bereiten.
Bleibt die Frage: Stimmt das?
Denn die subjektive Wahrnehmung ist kaum zu verallgemeinern, und niemals führt sie zu wissenschaftlich haltbaren Erkenntnissen. Dafür gibt es Studien, Forschungsinstitutionen und Spezialisten, Leute wie Drew Dimmery. Der Politikwissenschafter und Data Scientist ist seit 2021 wissenschaftlicher Koordinator des Forschungsverbunds Data Science an der Universität Wien, zuvor war er in einer internen Forschungsabteilung des Social-Media-Konzerns Meta (zu dem Facebook und Instagram gehören) in New York tätig.
In dieser Funktion war er im Herbst 2020 an einem spektakulären Experiment beteiligt, dessen erste Ergebnisse soeben in mehreren Aufsätzen in den Fachmagazinen „Science“ und „Nature“ veröffentlicht wurden. Die Studien wurden von einem Team von Wissenschafter:innen der Unis Stanford, Princeton, des Dartmouth College und weiterer Hochschulen gemeinsam mit Meta-Mitarbeitern durchgeführt. Forschungsfragen und -ansätze gingen von den akademischen Teams aus, die Mitwirkenden aus dem Social-Media-Konzern beteiligten sich am Studiendesign, an der technischen Durchführung und der Auswertung der Daten. Tatsächlich war diese – nicht unumstrittene – Kooperation nötig, weil die internen Strukturen von sozialen Netzwerken und deren Algorithmen in der Regel Betriebsgeheimnisse und der Forschung nicht zugänglich sind.
Was passiert, wenn der Feed sich ändert?
„Man muss wissen, dass einige der besten Social-Media-Forscher der Welt für Meta arbeiten“, erklärt Drew Dimmery im profil-Gespräch: „Diese Leute haben natürlich den wissenschaftlichen Ehrgeiz, ihre Forschung der Welt bekannt zu machen. Allerdings bleibt sie meist intern. Darum haben sie auch so heftig dafür gekämpft, das Meta-Management von diesem Projekt zu überzeugen.“ Warum dieses schließlich genehmigt wurde, könne er nicht beurteilen, er vermutet ein gewisses Bedürfnis nach Transparenz: „Die Menschen bei Meta wissen, dass der Algorithmus nicht allmächtig ist. Wenn Meta aber einfach interne Studien zu diesem Thema veröffentlichen würde, würde man das zu Recht skeptisch betrachten. Doch in diesem streng abgesicherten, wissenschaftlichen Prozess kann transparent werden, wie sich der Algorithmus wirklich auswirkt.“
Übrigens würden auch bei Facebook selbst die wenigsten Mitarbeiter durchschauen, wie die eigenen Algorithmen genau funktionieren – auch weil es eben nicht den einen, zentralen Code gibt: „Das sind sehr komplexe, adaptive Systeme, die über viele Jahre gewachsen sind und experimentell weiterentwickelt werden: Wie ändert sich das Gesamtsystem, wenn wir dieses oder jenes Detail verändern?“
Nun die Preisfrage: Wie verändert sich die politische Haltung von Facebook-Usern, wenn man den Algorithmus einfach ausschaltet?
Genau das untersuchten die Forscher in der Studie. Ein gewichtetes Sample erwachsener US-amerikanischer Facebook-User:innen (knapp 24.000 Personen) wurde im Herbst 2020 – in den drei Monaten rund um die Wahl zum US-Präsidenten – zufällig in zwei Gruppen eingeteilt: eine Kontrollgruppe, deren Facebook-Feed unangetastet blieb, und eine Gruppe, deren Feed zum Studienzweck verändert wurde. Die Online-Aktivitäten aller Teilnehmenden wurden registriert, zusätzlich wurden diese in mehreren Wellen nach ihren politischen Ansichten und Aktivitäten befragt. Die Versuchsgruppe sah nur einen stur chronologischen, ansonsten nicht algorithmisch gefilterten Nachrichtenfeed: die neuesten Posts – von befreundeten Personen, Gruppen oder Seiten – zuoberst, ältere weiter unten. Eine Reihung nach vorherigen Interaktionen oder bekannten Interessen, wie sie der Algorithmus normalerweise vornimmt, unterblieb. Damit sollte die angenommene Echokammer-Funktion unterdrückt werden und die hypothetische Polarisierung eingeschränkt bleiben.
Übrigens durchschauen auch bei Facebook selbst die wenigsten Mitarbeiter, wie die eigenen Algorithmen genau funktionieren – auch weil es eben nicht den einen, zentralen Code gibt. Studien-Autor Drew Dimmery: „Das sind sehr komplexe, adaptive Systeme, die über viele Jahre gewachsen sind und experimentell weiterentwickelt werden: Wie ändert sich das Gesamtsystem, wenn wir dieses oder jenes Detail verändern?“
Das Ergebnis nach dreimonatiger Versuchsdauer: Die Gruppe mit dem chronologischen Feed verbrachte signifikant weniger Zeit auf Facebook als die Kontrollgruppe, sah weniger Inhalte von Freunden und dafür mehr von institutionellen Seiten oder Gruppen und interagierte deutlich weniger mit den angezeigten Inhalten (durch Likes oder Kommentare). Die chronologischen, also nicht gefilterten Feeds zeigten mehr politische Inhalte an (plus 15 Prozent) und davon wesentlich mehr aus ideologisch moderaten oder differenzierenden Quellen (plus 36,7 Prozent). Die stärksten Veränderungen zeigten sich aber beim Anteil an Inhalten aus nicht vertrauenswürdigen Quellen: plus 68,8 Prozent im chronologischen, nicht gefilterten Feed.
In den qualitativen Befragungsrunden offenbarten die Proband:innen nach dem dreimonatigen Feed-Wechsel keine signifikanten Effekte, was eine gesellschaftliche Spaltung oder themenspezifische Polarisierung betraf, und auch keine Veränderungen in Bezug auf ihr politisches Engagement (online wie offline). Auch die weiteren Forschungsgebiete (Vertrauen in Medien und Institutionen, Wahrnehmung von Polarisierung insgesamt, Einstellung zu politischen Parteien und Kandidaten) blieben ohne signifikante Ergebnisse.
Weitere Teilstudien mit verändertem Design (einmal wurden sogenannte Reshares, also Inhalte, die von Freunden oder befreundeten Gruppen geteilt werden, eingeschränkt; einmal Nachrichten, die von politisch nahestehenden Freunden oder Gruppen stammen) brachten vergleichbare Ergebnisse. Unterm Strich lässt sich damit – wissenschaftlich sehr gut abgesichert – sagen: Veränderungen von Social-Media-Algorithmen haben zwar einen starken Einfluss auf die Zusammensetzung des konsumierten Inhalts, aber keine kurzfristigen Auswirkungen auf bestehende politische Ansichten oder Aktivitäten.
Die Wurzel der Polarisierung
Über die Gründe für dieses doch nicht ganz erwartete Ergebnis konnten die Forscher:innen nur spekulieren: „Es ist möglich, dass solche Effekte eine länger andauernde Intervention benötigen (als die drei Monate, die das Experiment lief, Anm.)“, schreiben sie in einem der nun publizierten Papers, bleiben aber grundsätzlich bei ihrem Fazit: „Diese Ergebnisse lege nahe, dass Social-Media-Algorithmen nicht die Wurzel von Phänomenen wie einer steigenden politischen Polarisierung sind.“
Den Co-Autor Drew Dimmery haben die Resultate übrigens gar nicht so sehr überrascht: „Ich glaube, vor diesen Studien herrschte eine simplistische Sicht auf die Art, wie Algorithmen den Medienkonsum und die Wahrnehmung der Menschen beeinflussen. Algorithmen sind nicht einfach Verstärker von Weltanschauungen, es ist sehr viel komplizierter.“ Dimmery widerspricht aber auch der naheliegenden Schlussfolgerung, dass Algorithmen gar keinen Einfluss haben. „Tatsächlich haben diese Studien bestätigt, dass politische Meinungen sehr schwer zu beeinflussen sind. Außerdem sind Social Media nur ein kleiner Teil von dem, was die Leute täglich wahrnehmen. Insofern wäre es wirklich seltsam, wenn Algorithmen diese ungeheure Macht hätten, die ihnen manchmal zugeschrieben wird.“
„Die Informationen, die wir auf Social Media sehen, sind wohl mehr ein Spiegel unserer Identität als eine Quelle unserer Ansichten“, resümieren die Studienautoren. Mit anderen Worten: Die Henne hat sich ihr Ei möglicherweise selbst gelegt.