BOTCAST

Bullshit für alle

Die Manipulation kann sehr subtil sein. Der Chatbot sagt uns, was wir hören wollen, und plötzlich erscheint uns eine bestimmte Option in einem besseren Licht. Wir glauben, dass wir die Entscheidung aus eigenem Antrieb getroffen haben. In Wirklichkeit hat die KI unseren Willen in eine bestimmte Richtung gelenkt.

Drucken

Schriftgröße

Manipulation ist eine Form der Einflussnahme, die meist unbemerkt bleibt und uns in den unterschiedlichsten Kontexten begegnet – von der Werbung über soziale Medien bis hin zu persönlichen Beziehungen. In der Regel werden dabei emotionale, kognitive oder soziale Strategien eingesetzt, um unsere Wahrnehmung und unser Urteilsvermögen zu verzerren.

Psychologische Mechanismen spielen bei Manipulation eine Schlüsselrolle. Ein Beispiel ist der „Bestätigungsfehler“, unsere Tendenz, Informationen zu bevorzugen, die unsere bestehenden Überzeugungen stützen, und widersprüchliche Fakten zu ignorieren. Solche kognitiven Verzerrungen machen uns anfällig für gezielte Beeinflussung.

Heutige KI-Chatbots wie ChatGPT können Texte erzeugen, die inhaltlich und sprachlich kaum von menschlichen Äußerungen zu unterscheiden sind. So können sie emotional ansprechende und moralisch aufgeladene Argumente formulieren. Das kann helfen, komplexe Inhalte zu vermitteln, über Sprach- und Bildungsbarrieren hinweg. Die rhetorische Überzeugungskraft stellt aber auch eine Bedrohung dar. Wie Studien zeigen, können solche Chatbots, die auf großen Sprachmodellen basieren, in politischen Diskussionen genauso überzeugend oder sogar überzeugender wirken als Menschen. Dies birgt Gefahren für demokratische Prozesse und den öffentlichen Diskurs.

Social-Media-Plattformen nutzen bereits heute KI-Algorithmen, um zielgerichtete Werbung und Inhalte zu liefern, die auf individuelle Präferenzen zugeschnitten sind. Solche personalisierten Botschaften erhöhen die Wahrscheinlichkeit, dass Nutzer auf manipulative Inhalte reagieren, ohne sich dessen bewusst zu sein. Und je mehr wir mit der Plattform interagieren, desto besser kann der Algorithmus vorhersagen, welche Art von Inhalten er uns liefern muss. Eine Folge kann die Verbreitung von schädlichen, polarisierenden Inhalten sein.

Auch ChatGPT & Co lernen aus der Interaktion mit den Nutzern, welche Interessen und Vorlieben diese haben. Sprachmodelle können die politische Ausrichtung einer Person erkennen und ihre Antworten entsprechend anpassen. In politischen Kampagnen könnte diese Überzeugungskraft genutzt werden, um Desinformation zu verbreiten oder die öffentliche Debatte zu verzerren. Der Philosoph und Ethiker Luciano Floridi prägte für diese neuen Formen der KI-gestützten Beeinflussung den Begriff „Hypersuasion“.

Hypersuasion basiert auf der Nutzung großer Datenmengen und personalisierter Kommunikation, um das Verhalten und die Überzeugungen von Menschen gezielt zu steuern, indem man etwa individuelle Schwachstellen und bestimmte kognitive Muster ausnutzt. Floridi warnt daher vor den ethischen und politischen Risiken der Hypersuasion, vor allem vor der Gefahr des Missbrauchs durch böswillige Akteure.

Eine manipulative Wirkung kann auch der „Bullshit“ oder „Botshit“ haben, der durch Chatbots erzeugt wird. Unter „Bullshit" versteht man Inhalte, die keinen Bezug zur Wahrheit haben und nur dazu dienen, überzeugend zu wirken. Tatsächlich erzeugen LLMs (Large Language Models) immer wieder Texte, die sprachlich kohärent erscheinen, inhaltlich aber leer oder irreführend sind. Das tun sie nicht aus Täuschungsabsicht, sondern als Folge der Art und Weise, wie LLMs trainiert werden: Sie generieren den wahrscheinlichsten Text aufgrund statistischer Muster, ohne Rücksicht auf den Wahrheitsgehalt.

Problematisch wird es, wenn „Botshit“-Inhalte massenhaft und automatisiert verbreitet werden, etwa über soziale Medien. Das kann das Vertrauen in die digitale Kommunikation insgesamt untergraben. Stärkere Regulierung, bessere Modelle und mehr Transparenz könnten in Zukunft dazu beitragen, die Qualität von KI-generierten Inhalten zu verbessern. Es geht aber nicht ohne Medienkompetenz.

Wir müssen Menschen in die Lage versetzen, manipulative oder irreführende Inhalte zu erkennen und kritisch zu hinterfragen. Es braucht eine neue digitale Aufklärung – und das heißt letztlich, keinem digitalen Inhalt unbesehen zu vertrauen. Egal wie überzeugend ein Text oder ein Bild auch daherkommt: Es könnte einfach nur manipulativer „Botshit“ sein.

Thomas Vašek

Thomas Vašek

war in den 1990er-Jahren Investigativjournalist bei profil. Heute ist er Co-Chefredakteur der Zeitschrift „human“, die sich mit den Auswirkungen von KI auf Wirtschaft, Gesellschaft und Kultur beschäftigt.