#brodnig: Lowtech statt Hightech
Vielleicht erinnern Sie sich: Vor ein paar Jahren gab es ziemliche Angst vor sogenannten Deepfakes. Das sind Videos, die komplett erfunden werden. Berühmt ist eine Aufzeichnung, in der vermeintlich der frühere US-Präsident Barack Obama spricht – und am Ende erkennt man: In Wirklichkeit ist das Video fingiert. Tatsächlich sitzt jemand anderer vor der Kamera, und eine clevere Software wandelt Gesicht und Stimme so um, dass er im Video aussieht wie Obama.
Gerade im Angriffskrieg Russlands auf die Ukraine herrscht Sorge vor solchen Deepfakes – allerdings halte ich solche Hightech-Videomanipulationen derzeit nicht für das zentrale Problem. Gerade russische Kanäle setzen auf das glatte Gegenteil: Sie stiften Verwirrung mittels Lowtech – mittels grobkörniger Aufnahmen. Es gibt viele erschütternde Videos, die die Leichen von Butscha zeigen. Russische Kanäle verwenden optisch unscharfes Bildmaterial, um die Existenz von Leichen anzuzweifeln.
So haben das russische Verteidigungsministerium und das russische Außenministerium auf dem Kanal Telegram ein
Video aus Butscha verbreitet. Man sieht darin Leichen auf der Straße liegen, aus einem Fahrzeug filmt jemand die Toten. Zu ihrer Version des Videos behaupten russische Kanäle, dass man auf dem rechten Straßenrand eine Leiche sehen würde, die „die Hand bewegen“ würde. Und zweitens, dass sich im Spiegel des Autos auch noch eine weitere Leiche bewegen würde. Gleich vorweg: Diese Behauptungen sind falsch. Es gibt eine hochauflösende Version dieses Videos – sie wurde vom russisch-ukrainischen Anwalt Ilya Novikov am 2. April auf Facebook hochgeladen. In der Hochauflösung erkennt man: Am Straßenrand bewegt sich keine Leiche – sondern die Windschutzscheibe des Autos ist dreckig. Ein weißer Fleck, vermutlich ein Regentropfen, lässt Teile des Bildes verschmiert wirken. Kurz ist von dem weißen Fleck auf der Windschutzscheibe auch eine Leiche überdeckt.
„Was wir sehen, ist Regen auf einer Windschutzscheibe“, erklärt der Digitalforensiker Hany Farid von der University of California, Berkeley, gegenüber der Nachrichtenagentur AP. Auch die Behauptung, eine zweite Leiche würde sich bewegen, ist absurd: Im Seitenspiegel kommt es zu einer Verzerrung (auch der Straßenrand wölbt sich gewissermaßen in der Reflexion des Spiegels).
Kurz gesagt: Die russische Propaganda ist inhaltlich schwach – ein Vergleich mit Aufnahmen in hoher Auflösung zeigt sofort, wie substanzlos diese Behauptungen sind. Allerdings ist das ein beliebter Trick: Man benutzt schlechtes Videomaterial, um absurde Behauptungen aufzustellen. Zum Beispiel kursierten Ende Dezember 2020 Bilder der US-Vizepräsidentin Kamala Harris, als sie ihre erste Corona-Impfung erhält. Davon wurde auf Facebook ein Video in schlechter Auflösung hochgeladen – das Bild war so grobkörnig, dass man die Nadel der Impfung nicht mehr erkennen konnte. Prompt behaupteten Impfgegner:innen, dass sich Kamala Harris gar nicht impfen hätte lassen, sondern das Video eine Fake-Impfung zeige. Ebenso werden jetzt mittels schlechtem Bildmaterial die Toten von Butscha geleugnet.
Den russischen Kanälen gelingt es tatsächlich, Verwirrung zu säen. Zwar gehe ich davon aus, dass die allermeisten österreichischen Bürger:innen der Kreml-Propaganda kein Vertrauen schenken: Jedoch gibt es Nischen im Netz, wo solche russischen Ablenkungsversuche auf empfängliches Publikum stoßen. Die Corona verharmlosende Szene hat zum Teil einen Pro-Putin-Kurs eingeschlagen: In Postings wird die Behauptung weiterverbreitet, Leichen im Video von Butscha würden sich bewegen. Teile der Corona verharmlosenden und der verschwörungsaffinen Szene verbreiten seit Wochen solche Pro-Putin-Propaganda. Zwar ist das eine winzige Minderheit im Netz, doch solche Nutzer:innen treten oft sehr lautstark auf und versuchen, solche Behauptungen dann auch vehement auf anderen Kanälen wie Twitter, Facebook oder Zeitungsforen einzuschleusen. Aufgebrachte Minderheiten im Netz wirken oft größer, als sie sind, weil sie vehementer posten als der Rest der Bevölkerung.
Gleichzeitig müssen wir wachsam sein, ob die Täuschung noch durchtriebener wird – und auch im Ukraine-Krieg komplexere Formen der Irreführung auftauchen wie Deepfake-Videos. Zum Beispiel kursierte Mitte März bereits ein solches komplett erfundenes Video. Man sah Präsident Wolodymyr Selenskyj, der der ukrainischen Bevölkerung rät, „die Waffen niederzulegen und zu euren Familien zurückzukehren. In diesem Krieg lohnt es sich nicht zu sterben.“ Natürlich hat Selenskyj seine Truppen nicht zur Kapitulation aufgerufen – wie er selbst in einem Statement richtigstellte.
Zum Glück war diese Fälschung schlecht gemacht: Selenskyjs Kopf wirkt zu seinem Körper seltsam hinzuretuschiert, seine Mimik erinnert an Videospiele aus den 1990er-Jahren, in denen menschliche Gesichter noch nicht so gut animiert werden konnten. Es gab also schon Deepfakes zur Ukraine, diese waren aber leicht als solche erkennbar. Mit jedem Jahr werden Videobearbeitungsprogramme intelligenter, man muss fürchten, dass künftig Deepfakes einfacher verbreitbar werden. Nur in der jetzigen Situation muss ich sagen: Leider reicht oft schon Lowtech aus, um Verwirrung zu stiften.