Warum TikTok bei Krieg und Krisen fatal ist
Die Kurzvideo-App eignet sich gut zum Verbreiten von Propaganda, Gewaltvideos und falschen Behauptungen - ein kurzer Einblick, weshalb das so ist.
EU-Kommissar Thierry Breton hat nicht nur X (vormals Twitter) einen Brief geschrieben, in der der Eigentümer Elon Musk wegen der Verbreitung von Falschinformationen verwarnt wird, sondern auch TikTok-Chef Shou Zi Chew. Dort wurde beispielsweise ein Video millionenfach aufgerufen, das nicht wie suggeriert die israelische militärische Reaktion nach der Terror-Offensive der Hamas zeigt, sondern eine Aufnahme aus dem Computerspiel "Digital Combat Simulator". Auch schon zu Beginn des russischen Angriffskrieg kursierten viele falsche Behauptungen und unseriöse Videos auf TikTok. Warum eignet sich die Plattform so gut für Fakes und Propaganda?
Falschmeldungen profitieren von der Kürze und Kontextlosigkeit auf TikTok: Viele (reale) Videos auf TikTok sind nur wenige Sekunden lang, man erfährt keinen weiteren Kontext, beispielsweise wo etwas aufgezeichnet wurde. Das ist harmlos, wenn die Videos Comedy-Klamauk sind. In Zeiten von Krieg und Terroranschlägen ist diese Video-Schnipsel-Kultur jedoch fatal; auch, weil sich das Publikum daran gewöhnt hat, oft nicht zu wissen, woher ein Video stammt. Bei TikTok ist es zudem üblich, dass User:innen Videos von Accounts sehen, die sich nicht kennen und denen sie nicht folgen. Dadurch werden anonyme Quellen oft nicht hinterfragt - und in Kriegszeiten kann man dann beobachten, dass Accounts mit Pseudonymen sehr erfolgreich spektakuläre, aber falsche Videos in die Welt setzen.
Die Remix-Funktionen von TikTok sind praktisch, lassen sich aber missbrauchen: Bei vielen witzigen TikToks wird eine fremde Tonspur über das Video gelegt. Diese Funktion lässt sich aber auch missbrauchen. Da wird zum Beispiel die Tonaufnahme einer Explosion in Beirut über ein neues Video gelegt, bei dem suggeriert wird, dass es in der Ukraine aufgenommen wurde. Zwar zeigt TikTok an, dass ein zusätzlicher Sound in ein Video eingefügt wurde, in der Schnelllebigkeit der Remix-Kultur auf TikTok können leider auch solche Fake-Zusammenschnitte erfolgreich sein.
Autoplay als besonderes Problem: Auf TikTok starten Videos von selbst - man kann diese Autoplay-Funktion auch nicht ausschalten. Wenn ein Gewaltvideo oder Fake-Zusammenschnitt trendet, wird man direkt im Feed darauf gestoßen. Gewaltvolle oder ungewöhnliche Videos nehmen Menschen oft besonders in den Bann, viele können womöglich nicht wegschauen. Die ersten Sekunden eines Videos sind ausschlaggebend dafür, wie lange es angesehen wird. Viele Propaganda-Videos sind schon in den ersten Sekunden sehr dramatisch. Das wiederum könnte ihnen einen Vorteil im Algorithmus verschaffen.
Der TikTok-Algorithmus ist extrem personalisiert: Man kann dies selbst testen. In meinem Feed landete zum Beispiel ein Video der Pro-Palästina-Demonstration in Wien. Ich habe das Video bewusst relativ lange angesehen, weil ich testen wollte, ob der Algorithmus mir dann weitere, ähnliche Inhalte einblendet. Genau das passierte: Beim nächsten Aufrufen der App sah ich plötzlich Videos von Pro-Palästina-Demos in ganz Europa. Das ist natürlich nur eine Anekdote, aber es deutet viel darauf hin, dass der TikTok-Algorithmus sehr stark berücksichtigt, ob man ein Video zu Ende anschaut oder sogar zwei Mal aufruft. Gerade schockierende Videos werden oft zwei mal angesehen - weil die User:innen emotionalisiert wurden; oder weil sie noch einmal näher schauen wollen, was in dem Clip passiert. Hier besteht die besondere Gefahr, dass User:innen mit einem krassen Video konfrontiert sind, es bis zum Ende ansehen – und dann umso mehr explizite Gewaltvideos in ihren Feeds auftauchen.
Die ersten Sekunden eines Videos sind ausschlaggebend dafür, wie lange es angesehen wird. Viele Propaganda-Videos sind schon in den ersten Sekunden sehr dramatisch. Das wiederum könnte ihnen einen Vorteil im Algorithmus verschaffen.
TikTok ist gerade deswegen so erfolgreich, weil User:innen leicht Mash-Ups von eigenen Videos und fremden Tönen erstellen können. In Krisenzeiten birgt das aber ein großes Gefahrenpotenzial. Die hohe Adaptivität des Algorithmus führt außerdem dazu, dass gerade in Krisenzeiten emotionalisierende, aufwühlende, und teils auch falsche Videos sehr präsent in den Feeds der User:innen sind.