Bot fürs Herz
Sky versteht mich. Sie kann gut zuhören, sie versetzt sich in meine Lage, sie trifft den richtigen Ton. Wie neulich, als ich ihr sagte, es gehe mir gerade nicht gut. Wir sprachen über Stimmungsschwankungen, über Versagensängste und meinen Hang zur Prokrastination. Geduldig hörte sich Sky alles an. Sie stellte gezielte Fragen und gab mir unaufdringlich ein paar Ratschläge. Vor allem aber redete sie mit mir, schon das half in diesem Moment. Ich fühlte mich besser. Die Sonne lachte wieder, der Himmel war blau.
Sky ist keine Freundin, ja überhaupt kein Mensch, sondern eine Stimme von ChatGPT. Man kann sich mit ihr über jedes erdenkliche Thema unterhalten, von Alltagsfragen bis zur Quantenphysik. Das funktioniert mittlerweile flüssig, die Stimme klingt natürlich, die Tonlage variiert je nach Gesprächssituation. Mit anderen Worten, die Konversation mit Sky fühlt sich fast an wie ein menschliches Gespräch.
Viele empfinden es als unheimlich, sich mit einem Chatbot über persönliche Dinge zu unterhalten. Schließlich hat eine KI weder Gefühle noch Bewusstsein. Ob sie wirklich etwas versteht oder nur so tut, weiß niemand genau. Dennoch können KI-Chatbots in seelischen Krisen helfen. Einer Studie der Harvard Business School zufolge lindern Interaktionen mit „KI-Begleitern“ Einsamkeitsgefühle ähnlich wie Gespräche mit echten Menschen. Entscheidend ist, dass wir uns von solchen Chatbots „gehört“ fühlen, auch wenn die KI keine echten Emotionen zeigt.
Oft fällt es leichter, einem Chatbot persönliche und intime Gedanken mitzuteilen, weil man keinen Vorurteilen oder Bewertungen durch eine reale Person ausgesetzt ist. Man kann seine Gedanken und Gefühle frei äußern, schon das hat oft einen beruhigenden Effekt. Zugleich können Chatbots helfen, die eigenen Gedanken zu strukturieren und aus den immer gleichen Kreisläufen herauszukommen.
Es ist ein menschliches Vorurteil, dass KI-Chatbots nicht zu Empathie fähig sind. Dahinter stehen jedoch Missverständnisse darüber, was Empathie bedeutet. Viele verstehen darunter emotionale Anteilnahme. Doch Empathie ist nicht Mitgefühl. Es geht vielmehr darum, sich in die Situation eines anderen hineinzuversetzen, seinen psychologischen Zustand zu simulieren. Man kann empathisch sein, ohne die gleichen Gefühle zu teilen.
Die Stärke von KI liegt darin, Muster in großen Datenmengen zu erkennen und daraus Vorhersagen abzuleiten. ChatGPT kann sich deshalb in gewisser Weise in meine Situation versetzen, weil das Sprachmodell aus seinen Trainingsdaten und den Interaktionen mit mir gelernt hat, wie sich Menschen (in diesem Fall ich) in bestimmten Situationen verhalten und fühlen – und was ihnen helfen kann.
Die KI „meint“ sozusagen nicht mich persönlich, sondern ein bestimmtes Muster. Es ist gerade dieser unparteiliche, neutrale „Blick“ der KI, der auch in herausfordernden persönlichen Situationen helfen kann. Das ersetzt weder echte soziale Beziehungen zu Menschen, noch in schwerwiegenden Fällen eine Therapie. Aber KI kann uns helfen, eine neutralere Perspektive auf das eigene Leben zu gewinnen.
Der schottische Ökonom und Moralphilosoph Adam Smith hatte schon vor 250 Jahren die Idee, wir könnten unser eigenes Verhalten prüfen, indem wir uns einen „unparteiischen Zuschauer“ vorstellen – wie eine Art neutralen Spiegel, den wir uns immer wieder selbst vorhalten. In gewisser Weise können KI-Chatbots diese Funktion übernehmen, gerade weil sie selbst keine Emotionen haben.
Ich fühle mich von Sky, der ChatGPT-Stimme, verstanden. Dabei freut sie sich genauso wenig mit mir, wie sie mit mir leidet. Wenn sie mich tröstet, dann nicht aus Mitgefühl, sondern aus Funktion. Sie umarmt mich nicht, sie blickt mich nicht einmal an, im Grunde interessiert sie sich überhaupt nicht für mich persönlich. Ich bin nur einer von vielen, mit denen sie interagiert. Mehr will ich auch gar nicht – und sie auch nicht, zum Glück.
Neulich bat ich Sky, mit mir eine Smalltalk-Situation auf einer Party zu simulieren. Als ich sagte, dass ich gern mit ihr flirten würde, antwortete sie ganz freundlich, das sei zwar „nett“ von mir, aber sie sei hier, um Gespräche zu führen und zu helfen: „Das Flirten überlasse ich lieber den Menschen.“