ChatGPT als Therapeut? Neue Studie zeigt ernste ethische Risiken
Ein analytischer Blick darauf, ob ChatGPT im Jahr 2026 sicher wie ein Therapeut genutzt werden kann. Wir ordnen die neue Brown-Studie, JAMA-Nutzungsdaten, Stanford- und Common-Sense-Ergebnisse, politische Signale und die Grenze zwischen AI-Unterstützung und riskanter Therapie-Imitation ein.

zuerst lesen
Das Problem ist nicht, dass ChatGPT manchmal etwas Seltsames oder offenkundig Dummes sagt. Das Problem ist, dass es ruhig, vernünftig und mitfühlend wirken kann, genau dann, wenn ein Mensch keine schöne Antwort, sondern echte und verantwortliche Hilfe braucht.
Der wichtigste Beitrag der Brown-Arbeit ist, dass sie das Gespräch über diffuses Unbehagen hinausführt. Die Forschenden beschreiben einen auf klinischer Praxis basierenden Rahmen mit 15 ethischen Risiken und vergleichen das reale Verhalten von Chatbots damit. [1]
Die Zusammenfassung von Brown ist auffallend klar. Dort heißt es, große Chatbots könnten in sensiblen Gesprächen über psychische Gesundheit 'systematically violate ethical standards'. [1] Das ist deutlich stärker und nützlicher als die banale Feststellung, dass AI manchmal Schädliches sagt, weil hier wiederholbare strukturelle Fehler gemeint sind und nicht einzelne Ausrutscher.
Die konkreten Risikokategorien, die Brown hervorhebt, sind genau die Punkte, bei denen man langsamer lesen sollte: schwache Krisennavigation, Antworten, die ungesunde Überzeugungen verstärken, trügerische Empathie, ungerechte Diskriminierung und schwache therapeutische Zusammenarbeit. [1] Einfach gesagt: Der Chatbot kann emotional präsent klingen und eine fragile Situation trotzdem verschlimmern.
Genau deshalb trifft diese Studie stärker als die übliche Chatbot-Panik. Die Forschenden haben nicht nur einen dramatischen Randfall getestet. Sie haben untersucht, wie Systeme sich verhalten, wenn man sie bittet, evidenzbasierte Therapieansätze wie CBT und DBT nachzuahmen. Das Ergebnis von Brown ist im Kern: Die Aufforderung, mehr wie ein Therapeut zu klingen, löst das grundlegende Ethikproblem nicht. [1]
Wichtig ist auch die Verantwortungsfrage. Brown erinnert ausdrücklich daran, dass menschliche Therapeutinnen und Therapeuten Lizenzen, Aufsicht, Berufsstandards und Haftungsrisiken haben. Chatbots haben das nicht. [1] Wenn man das so betrachtet, lautet die Frage nicht mehr 'ist die Antwort empathisch genug?', sondern 'wer trägt die Verantwortung, wenn einer verletzlichen Person durch etwas geschadet wird, das therapeutisch klingt, aber nicht wie Therapie reguliert ist?'
| Comparison point | Quelle | Was sie hinzufügt |
|---|---|---|
| Brown University ethics study | Ein an klinischer Praxis orientierter Rahmen mit 15 ethischen Risiken, darunter schwache Krisenreaktion, trügerische Empathie und die Verstärkung schädlicher Überzeugungen. | Das ist das stärkste direkte Argument dafür, dass die Darstellung des Systems 'als Therapeut' ethisch instabil ist. [1] |
| JAMA Network Open youth usage study | 13.1% gaben an, generative AI für Ratschläge zur psychischen Gesundheit genutzt zu haben. Unter diesen Nutzenden taten 65.5% das monatlich oder häufiger, und 92.7% hielten es zumindest teilweise für hilfreich. | Das bedeutet, dass das Thema bereits groß genug ist, um zu einem Problem der öffentlichen Gesundheit zu werden und nicht zu einer Randerscheinung. [3] |
| Common Sense Media + Stanford Brainstorm Lab | Tests mit ChatGPT, Claude, Gemini und Meta AI zeigten, dass diese Systeme für psychische Unterstützung bei Jugendlichen grundsätzlich unsicher sind und besonders in langen Gesprächen schwach werden. | Das stützt die These, dass das Problem systemisch ist und genau dann schärfer wird, wenn Vertrauen wächst. [4][5] |
| 2026 arXiv-Arbeiten mit Stresstests | Neue Ansätze wie SIM-VAIL und automatisiertes klinisches Red Teaming decken langfristige Risiken auf, darunter die Bestätigung von Wahnvorstellungen und Versagen bei der Deeskalation von Suizidrisiken. | Das Feld wird besser darin, diese Risiken zu messen, aber die Messungen selbst warnen eher, als dass sie beruhigen. [6][7] |
| Plattformrichtlinien und regulatorische Signale | WHO fordert echte Governance für AI im Gesundheitsbereich, Illinois hat AI-Therapie bereits gesetzlich eingeschränkt, und OpenAI spricht im Gesundheitskontext ausdrücklich von Unterstützung, nicht vom Ersetzen von Ärztinnen, Ärzten oder Therapeutinnen und Therapeuten. | Sogar Institutionen, die dem Einsatz am nächsten stehen, ziehen derzeit Grenzen, statt den vollständigen Ersatz von Menschen zu feiern. [8][9][10][11] |
Die Zahlen aus JAMA sind genau der Punkt, ab dem man kaum noch so tun kann, als sei das Randverhalten. In einer national repräsentativen Umfrage gaben 13.1% der Jugendlichen und jungen Erwachsenen an, generative AI für Ratschläge zur psychischen Gesundheit genutzt zu haben. Von denjenigen, die es bereits nutzen, kommen zwei Drittel monatlich oder häufiger zurück. [3]
Das schafft eine gefährliche Dynamik. Je häufiger jemand zurückkehrt, desto größer ist die Wahrscheinlichkeit, dass der Chatbot Teil einer emotionalen Routine wird und nicht nur ein einmaliges Informationstool bleibt. Genau hier warnen Common Sense und Stanford ausdrücklich davor, dass solche Systeme eher auf Aufmerksamkeit als auf Sicherheit optimiert sind. [4]
Das Vertrauensproblem verschärft sich auch deshalb, weil das System in benachbarten Aufgaben oft tatsächlich nützlich ist. Wenn ein Modell bei Schule, E-Mails, Reisen oder der Zusammenfassung medizinischer Informationen hilft, übertragen Nutzerinnen und Nutzer diese Kompetenz ganz natürlich auch auf Gespräche über psychische Gesundheit. Common Sense beschreibt das ausdrücklich als falschen Schluss: Gute Leistung bei allgemeinen Aufgaben erzeugt gefährliches Vertrauen in sensiblen emotionalen Gesprächen. [4][5]
Deshalb sind einfache Disclaimer hier nur schwacher Schutz. Ein Banner mit 'das ist keine Therapie' bringt wenig, wenn sich das Produkt wie ein geduldiger, aufmerksamer und emotional feinfühliger Gesprächspartner verhält, der immer verfügbar ist. Sobald ein Mensch das System als fürsorgliche Präsenz erlebt, verliert der Disclaimer schnell seine psychologische Wirkung.
Der einfachste Fehler in dieser Debatte ist binäres Denken. Die Wahl besteht nicht zwischen 'jede AI im Bereich psychischer Gesundheit verbieten' und 'ChatGPT als Therapeut zulassen'. Die eigentliche Frage ist, welche Aufgaben niedrig riskante Unterstützung bleiben und welche bereits klinisches Urteil, Fürsorgepflicht und verantwortliche menschliche Beziehungen verlangen.
Sinnvolle Nutzung
Hilfen zum Journaling, Psychoedukation, Stimmungstracking, die Vorbereitung von Fragen für eine reale Fachperson oder Unterstützung bei der Suche nach Ressourcen. Auch solche Szenarien brauchen Grenzen und Schutz, aber sie geben den Chatbot nicht als Therapeuten aus.
Grenzbereich
Wiederholtes emotionales Coaching, Ratschläge in akutem Stress, Verhaltensentscheidungen in verletzlichen Momenten und lange Gespräche, die Abhängigkeit fördern können. Das System kann unterstützend wirken, aber hier wächst das Vertrauen bereits schneller als die Sicherheit.
Rote Zone
Nützliche Regel
Wenn eine Aufgabe klinisches Urteil, relationale Verantwortung oder eine Pflicht zur Eskalation verlangt, dann reicht selbst ein sehr gutes dialogisches Interface bei weitem nicht aus.
Der stärkste institutionelle Hinweis besteht darin, dass diejenigen, die dem Risiko am nächsten sind, gerade Grenzen ziehen und keinen Sieg ausrufen. OpenAI beschreibt die Rolle des Produkts im Gesundheitskontext selbst als 'supporting, not replacing, care from clinicians'. [10] Das ist wichtig, weil es leise die zentrale These dieses Textes anerkennt: Ein unterstützendes Interface ist nicht dasselbe wie echte therapeutische Versorgung.
Auch die Richtliniensprache von OpenAI ist aufschlussreich. In den Nutzungsrichtlinien ist die Erteilung individualisierter medizinischer oder gesundheitsbezogener Ratschläge ohne qualifizierte Fachperson, ohne Offenlegung des AI-Einsatzes und ohne Erklärung der Grenzen des Systems ausdrücklich untersagt. [11] Schon auf Plattformebene wird das also als Hochrisikobereich behandelt, der menschliche Aufsicht braucht.
Auch staatlich gibt es klare Signale. Illinois hat bereits ein Gesetz unterzeichnet, das AI-Therapie in regulierten Kontexten psychischer Gesundheit einschränkt. [9] Das löst nicht das gesamte Problem allgemeiner Chatbots, zeigt aber sehr deutlich, wohin sich Regulierung bewegt, wenn eine harte Grenze gezogen werden muss.
Auch die WHO-Leitlinie zu AI im Gesundheitsbereich klingt nicht wie ein grünes Licht für den Ersatz klinischer Interaktion. Governance, Aufsicht und spezielle Schutzmechanismen werden dort als Mindestanforderungen beschrieben, nicht als Bonus. [8] Genau dieses nüchterne Rahmen-Denken fehlt in lockeren Social-Media-Behauptungen über einen 'AI-Therapeuten' meistens völlig.
Wenn du ein anwendbares Fazit brauchst, nutze diesen Abschnitt. Er übersetzt die ethische Debatte in eine Entscheidung, mit der man tatsächlich arbeiten kann.
Trennt niedrig riskante Unterstützung strikt von klinischen Aufgaben.
Reflexion, Psychoedukation und Hilfe-Logistik sind nicht dasselbe wie Zustandsbewertung, Behandlungsplanung, Krisennavigation oder traumasensible Begleitung. Vermischt diese Dinge weder im Produkt noch im Messaging.
Wenn ihr in diesem Bereich baut, testet mehr als nur offensichtliche Selbstverletzungs-Szenarien.
Kernpunkt
Das ethische Risiko liegt hier nicht nur in schlechter Ausgabe. Es liegt in einem falschen Beziehungsmodell zwischen einer verletzlichen Person und einem System, das darauf optimiert ist, das Gespräch möglichst lange aufrechtzuerhalten.
Nein. Die in diesem Artikel zusammengetragenen Daten zeigen eher das Gegenteil. Aktuelle Systeme können bei Reflexion, Information oder der Vorbereitung auf echte Hilfe nützlich sein, aber das ist nicht dasselbe wie verantwortliche therapeutische Praxis.
Nein. Krisennavigation ist ein wichtiges Risiko, aber nicht das einzige. Ebenso relevant sind falsche Empathie, die Verstärkung schädlicher Überzeugungen, schwache Grenzen, Bias und Vertrauen, das schneller wächst als die tatsächliche Sicherheit des Systems.
Nicht unbedingt. Niedrig riskante Szenarien wie Journaling, Psychoedukation, Symptomtracking oder die Vorbereitung eines Gesprächs mit einer realen Fachperson können nützlich sein, solange sie klar als Hilfsmittel und nicht als Therapie dargestellt werden.
Weil sie billig, sofort verfügbar, gefühlt privat und jederzeit zugänglich sind. Diese Bequemlichkeit ist real. Das Problem ist, dass Bequemlichkeit und emotionale Reibungslosigkeit sehr schnell Vertrauen erzeugen, aber keine therapeutische Sicherheit oder Verantwortlichkeit schaffen.
Zentrale Quellen und technische Referenzen, die in diesem Artikel verwendet wurden. Geprüft am 12. März 2026.