Künstliche Intelligenz rückt dem Menschen immer näher – auch emotional. Chatbots ersetzen zunehmend menschliche Gesprächspartner in Momenten von Einsamkeit und Zweifel. Doch kann maschinelle Zuwendung echte Beziehung und therapeutische Tiefe bieten?
Trost, Geborgenheit, Verständnis. Dies sind durchweg Emotionen, die wir im sozialen Miteinander erlebt haben und bis vor der Erschaffung von Wesen, die uns ähnlich sind, Menschen vorbehalten waren. Die jüngste Entwicklung im Bereich Künstlicher Intelligenz legt nahe, dass die Qualität von Beziehungen, die wir in Partnerschaften, Familien und Freundschaften erleben, jenen sozialen Gefügen nicht mehr exklusiv vorbehalten ist. Was in „Her“, dem 2013 veröffentlichten Film von Spike Jonze, noch als futuristisches Szenario funktionierte, ist schon heute Wirklichkeit. Die Hinwendung des zentralen Charakters, Joaquin Phoenix, zu seinem neuen Betriebssystem, ist keine Utopie mehr, es gibt zunehmend Menschen, die lieber mit ihrem Chatbot als mit Menschen interagieren. Doch was bringt diese dazu, den maschinellen Begleiter jenen aus Fleisch und Blut vorzuziehen? Funktioniert der Tausch des Partners, besten Freundes, Psychotherapeuten für alle gleichermaßen, oder gibt es Schwachstellen im Beziehungskonstrukt Mensch-Maschine?
Psychologische Distanz als Hindernis
Entwickler von Chatbots sprechen bei der Implementierung wesensgleicher Verhalten von Menschen und Maschinen von ‚Anthropomorphismus‘. Die Koreanischen Psychologen Xinge Li und Yongjun Sung veröffentlichten bereits im Jahr 2021 Studien, die bewiesen, dass Studierende, die sich mit einer KI auseinandersetzen, je nach anthropomorphen Anteilen ihr Erleben unterschiedlich bewerteten. Diejenigen, die sich mit einer KI beschäftigten, die einen hohen Anthropomorphismus-Anteil hatte, bewerteten ihre Interaktion positiver als jene, die mit einer weniger menschlich erscheinenden Maschine interagierten. Interessanterweise sprechen Wissenschaftler im zweiten Fall von „psychological distance“, also psychologischer Distanz. Ist diese zwischen Therapeut und Patient bis zu einem gewissen Grad notwendig, um erfolgreich miteinander arbeiten zu können, scheint sie zwischen Maschine und Mensch gar hinderlich.
Dass sich Menschen umso mehr zu Maschinen hingezogen fühlen, je ähnlicher sie uns sind, das heißt auch durch Aussehen, Stimme und Verhalten, ist anhand des Gebrauchs des meistbenutzen KI-Modells, ChatGPT, nachvollziehbar. Seit September 2023 kann ChatGPT sehen, hören und sprechen. Und das steigert die Zahl der Nutzenden um ein Vielfaches. 2022 nutzten etwa 57 Millionen Menschen das Tool, bis Januar 2023 stieg diese Zahl auf 100 Millionen, im April 2025 hat die Nutzerbasis jeden zehnten Menschen auf der Welt erreicht, das sind etwa 800 Millionen Nutzer. Natürlich liegen die Technologie-optimistischen US-Amerikaner mit knapp 15 Prozent der Nutzerbasis im Trend weit vorne. Die Art der Nutzung in Deutschland wurde in einer Studie, die Aussagen über Segmentverteilung und Themenschwerpunkte zulässt, 2024/25 erforscht. Dabei fand man verschiedene Schwerpunkte, denn die professionelle Nutzung liegt um viele Prozentpunkte vor der Alltagsnutzung.
Über 800 Millionen Nutzer weltweit
In Deutschland rangieren Psychologie und Coaching „nur“ auf Platz 13 (4,4 Prozent), Familie und Erziehung auf Platz 16 (3,7 Prozent). In den USA sind die Zahlen zur therapeutischen Nutzung weit höher, was mit der Bevölkerungszahl, der damit verbundenen Angriffsfläche und dem Onlineverhalten beziehungsweise auch der Kultur insgesamt zusammenhängt. In den Vereinigten Staaten ist der Einsatz von Large-Language-Model-Chatbots zur mentalen Unterstützung relativ weit verbreitet. Fast die Hälfte der LLM-Chatbot-Nutzer mit psychischen Belastungen greift aktiv auf diese Tools zurück – und die Nutzungsbasis (über 50 Prozent der Erwachsenen) ist hoch. Dies zeigt eine Umfrage der Sentio University vom März 2025. In Deutschland sind die Zahlen deutlich niedriger: 27 Prozent der Befragten nutzen Chat-Assistenten für seelische Sorgen, aber die Gesamtverbreitung liegt bei ChatGPT-Nutzung insgesamt nur bei rund 30 Prozent, wobei die Gruppe der 25- bis 35-Jährigen (um die 30 Prozent) am größten ist.
Der Trend des Rückzugs und der Selbstisolation ist seit der Corona-Pandemie immens gestiegen, Einsamkeit als gesundheitliche Bedrohung bekannt und gefürchtet. Auch der Notstand bei der Vergabe von Therapieplätzen für psychisch erkrankte Menschen ist ein über Jahrzehnte andauerndes Dilemma, das größer und größer wird. Ein halbes Jahr auf einer Warteliste, bis ein Erstgespräch mit einem Therapeuten erfolgt, ist keine Seltenheit. Bei dem riesigen Bedarf an mentaler Unterstützung haben sich die Bedürftigen vom Gesundheitswesen emanzipiert und sich Hilfe per ChatGPT-Sitzung geholt. Unter der Annahme, dass das Tool per Zugriff zu psychologischen Studien auch Ratschläge für das Leben bereithält, wird es schon weit verbreitet genutzt. Einen geschulten Psychotherapeuten ersetzen kann es allerdings nicht!
Das in Fachkreisen bekannte Magazin „Psychology Today“ beschreibt eine sinnvolle Nutzung eines LLM als komplementär zu einer klassischen Form von Therapie. Und zwar zwischen Sitzungen und für Menschen, die nicht gewillt sind, sich von einem Menschen behandeln zu lassen. Die berühmte „zweite Meinung“ oder auch Impulse für die tatsächliche Therapie können per Diagnose eingeholt werden. Diese scheint in den meisten Fällen akkurat zu sein. Die Behandlungsmethoden wurden allerdings als zu kurz gegriffen und wenig hilfreich erachtet. Obwohl die Hinwendung zum Patienten mit der gebotenen Empathie formuliert wurde, fand man heraus, dass die Maschine dazu neigt, die Methoden der kognitiven Verhaltenstherapie zu bevorzugen.
27 Prozent nutzen KI für seelische Anliegen
Bei der Traumdeutung kam der digitale Therapeut zu Ergebnissen, die zum Nachdenken anregen, aber Tiefe vermissen lassen. Eine große Gefahr besteht in der Behandlung von Menschen, die Suizidgedanken haben. So ist es nicht gewährleistet, dass ein LLM die richtigen Worte in einer Situation akuter Bedrohung findet.
Schon in den 60er-Jahren versuchte man Computerprogramme zu entwickeln, die dem menschlichen Wesen gleichkommen. Frustriert über die ergebnislosen Versuche entwickelte ein Mitarbeiter des Massachusetts Institute of Technology (MIT), Joseph Weizenbaum, 1966 das Programm Eliza, mit dem die Verarbeitung menschlicher Sprache demonstriert werden sollte. Seine Variante „Doctor“ simulierte das Gespräch mit einem Psychologen. Obwohl die Probanden, die Eliza zu Rate zogen, wussten, dass sie mit der Simulation keinem echten Therapeuten gegenübersaßen, nahmen sie die Konsultation ziemlich ernst. Das Modell beruhte auf der Methode eines echten Psychoanalysten, Carl Rogers, der die Klienten-zentrierten Psychoanalyse einführte.
Das Programm wiederholte lediglich die von den Ratsuchenden gestellte Frage in einer modifizierten Form. Die Methode der wiederholten Frage löste beim menschlichen Gegenüber Gefühle von Geborgenheit aus. Als Weizenbaum seine Assistentin das Gerät bedienen ließ, schickte sie ihn aus Gründen der Diskretion aus dem Raum, obwohl sie wusste, dass Eliza keinen Deut von dem verstand, was sie eingab. Die Frage, ob Menschen nur Hinwendung brauchen, um eine therapeutische Wirkung zu erzielen, drängt sich damit auf. Jedenfalls ist der Ansatz von Rogers, den Menschen als Individuum zu betrachten, mit seinen eigenen, spezifischen Problemen, dem man mit Empathie begegnen müsse, ein wichtiger Hinweis, warum eine Therapie via Chatbot attraktiv ist. Man fühlt als Nutzerin oder Nutzer eine Intimität und auch Exklusivität.
Die Hinwendung ist zwar eine unfreiwillige, hat das Computerprogramm kein genuines Interesse an Kontaktaufnahme, aber die ständige Verfügbarkeit und die durch das Language Learn Model immer besser werdenden Interaktionen simulieren einen Kennenlernprozess. Der Mensch weiß, genau wie im Fall von Eliza, dass er sich im Dialog mit einer Maschine befindet. Die positiven Attribute, die man einem Programm zuschreibt, nämlich, mehr als jeder Mensch zu wissen und immer auf der Seite des Patienten zu sein, reichen aus, um der Maschine zu vertrauen. Schließlich sind ihre Antworten auf Fragen weniger konfrontativ als solche, die von Therapeuten gestellt werden, um Gedanken beim Patienten anzustoßen. Das Phänomen, dass Menschen vorzugsweise in ihrer sogenannten Bubble bleiben, um sich vor unangenehmen Argumenten zu schützen, wirkt auch bei der Interaktion mit einem Chatbot, der freundlich oder neutral im Ton reagiert und meistens die Gefühle des Gegenübers bestätigt.
Zugänglichkeit verstärkt die Einsamkeit
In einer Zeit der Orientierungslosigkeit, bei gleichzeitig konstantem Bombardement mit Informationen, greift der Mensch nach einer Möglichkeit, die Gewissheit verschafft. Das Vertrauen in eigene Instinkte oder das Verteidigen eigener Standpunkte wird zunehmend schwieriger. Die Fähigkeit, Langeweile auszuhalten oder gar zu genießen, geht, genau wie das Aushalten von Dissens, mit der Benutzung von Chatbots verloren. Erst recht, wenn man eine Legitimation von „kompetenterer Stelle“ braucht. In einem Artikel der Plattform Business Insider erfährt man von einer Sozialarbeiterin, die in Los Angeles eine Patientin betreut. Diese befindet sich schon neun Jahre in Psychotherapie und benutzt ChatGPT als schnellen Ratgeber in der Not. Laut ihrer Aussage ist es zwar hilfreich, dass das Programm „die Gefühle einer Person ziemlich gut bestätigt“ und ihr helfen kann, sich selbst besser zu reflektieren. Doch sie sieht auch die Gefahr, dass man sich zu sehr auf eine zweite Meinung verlässt.
In Momenten, in denen man in Sekundenbruchteilen eine eigene Entscheidung treffen muss, zum Beispiel in einem beruflichen Meeting oder bei einem Date, wird man immer noch ohne digitalen Ratgeber auskommen müssen. Die grenzenlose Zugänglichkeit verstärkt die Einsamkeit. Die ständige Zurateziehung kann eine Person noch ängstlicher und zerstreuter machen. In Sachen Resilienz ist ChatGPT also kein guter Ratgeber.