Die therapeutische Grenze: Künstliche Intelligenz in der psychischen Gesundheitsversorgung
- nicolebruehl
- 29. Apr.
- 6 Min. Lesezeit

Geschrieben von Manas K. Deb, PhD, MBA – Co-Founder, MI4People gGmbH
Psychische Erkrankungen sind weltweit ein gravierendes und weit verbreitetes Problem – mit tiefgreifenden Folgen für Einzelne, Familien, Gemeinschaften und Volkswirtschaften. Laut aktuellen WHO-Statistiken leben global etwa eine Milliarde Menschen – rund jede achte Person – mit einer psychischen Störung. Am häufigsten treten Angststörungen und Depressionen auf, dicht gefolgt von Essstörungen. Psychische Erkrankungen beeinträchtigen das tägliche Leben, verschlechtern die körperliche Gesundheit und verkürzen die Lebenserwartung um bis zu 20 Jahre. Auch Suchtverhalten, Obdachlosigkeit, Suizid sowie chronische Erkrankungen wie Herzleiden und Diabetes stehen in engem Zusammenhang. Allein die Produktivitätsverluste durch Angst und Depression werden weltweit auf über eine Billion US-Dollar pro Jahr geschätzt.
Trotz der dramatischen Auswirkungen auf das Leben und die Wirtschaft sind psychische Gesundheitsdienste häufig unterfinanziert, und der Zugang zu Therapien bleibt unzureichend: Mehr als 70 % aller psychischen Störungen – von denen viele schon im Jugendalter beginnen – bleiben unerkannt oder unbehandelt. Selbst in wohlhabenden Ländern wie den USA kommt nur ein:e Therapeut:in auf mehrere hundert Betroffene; in ärmeren Ländern ist die Lage noch gravierender. Hinzu kommen Stigmatisierung und Diskriminierung, die viele davon abhalten, Hilfe zu suchen. Es liegt daher nahe, moderne Technologien zur Unterstützung einzusetzen. Ein Artikel der Harvard Business Review (April 2025) nennt die Therapie als einen der wichtigsten Anwendungsbereiche für generative KI im Jahr 2025.
Evolution der KI und maschinellen Intelligenz in der Therapie psychischer Störungen
Die Erforschung des Einsatzes maschineller Intelligenz in der medizinischen Versorgung körperlicher Erkrankungen begann bereits vor über einem halben Jahrhundert – mit regelbasierten Expertensystemen wie MYCIN und INTERNIST. In den 1960er-Jahren zeigte dann ELIZA, eines der ersten auf psychische Gesundheit zugeschnittenen Systeme, erstmals das Potenzial von Gesprächsagenten im therapeutischen Kontext – wenn auch in sehr einfacher Form.
Seitdem hat sich die Künstliche Intelligenz rasant weiterentwickelt: Moderne Systeme kombinieren maschinelles Lernen mit Natural Language Processing, um große Datenmengen zu analysieren, Muster zu erkennen und klinische Entscheidungen zu unterstützen. Heute können sie Ärzt:innen und Therapeut:innen dabei helfen, frühe Anzeichen von Depression, Angststörungen oder PTBS zu erkennen – etwa durch die Analyse von Sprache, Text oder Gesichtsausdrücken. So identifizieren Machine-Learning-Algorithmen depressive Symptome anhand von Tonfall, Sprechweise oder Mimik und ermöglichen dadurch frühere und präzisere Interventionen.
Auch mobile Gesundheitsanwendungen setzen zunehmend auf KI – etwa zur Bereitstellung individualisierter kognitiver Verhaltenstherapie (CBT). Das verbessert die Zugänglichkeit zu psychischer Unterstützung erheblich.
Der Debüt-Auftritt von „Therabot“ (und die Entstehungsgeschichte dahinter)
Am 27. März 2025 veröffentlichte das New England Journal of Medicine AI die Ergebnisse der ersten klinischen Studie zu einem generativen KI-gestützten Therapiewerkzeug namens „Therabot“, entwickelt von einem Team psychiatrischer Forscher:innen und Psycholog:innen an der Geisel School of Medicine des Dartmouth College. An der Studie nahmen Personen teil, die mit schweren Depressionen, Angststörungen oder bestimmten Essstörungen diagnostiziert worden waren. Die Teilnehmenden interagierten über eine Konversations-App auf ihrem Smartphone mit Therabot – sie konnten Gespräche beginnen, wann immer sie es brauchten, und reagierten auf von der App gestellte Impulse. Die Ergebnisse der Studie zeigten deutliche Vorteile: Bei Depressionen sank die Symptomlast um über 50 %, bei Angststörungen um über 30 % und bei schwer behandelbaren Essstörungen um fast 20 %. Die Forscher:innen kamen zu dem Schluss, dass die Leistung von Therabot vergleichbar mit der von menschlichen Therapeut:innen war. Außerdem berichteten die Teilnehmenden, dass sie die App als „freundlich und vertrauenswürdig“ empfanden – ähnlich wie gute menschliche Therapeut:innen.
Ebenso bemerkenswert wie die Therapieerfolge ist die Entstehungsgeschichte hinter Therabot: Bereits ab 2019 – mit der ersten Generation generativer KI-Technologien – begann das Team damit, das KI-Modell von Therabot zunächst mit allgemein verfügbaren Internetinhalten zu trainieren, wie es bei grundlegenden generativen KI-Modellen üblich ist. Die anfänglichen Ergebnisse waren jedoch unzuverlässig und oft wenig hilfreich oder mehrdeutig in der Reaktion auf Patient:innen. In den darauffolgenden Jahren trainierten die Forschenden das KI-Modell gezielt mit Inhalten aus der kognitiven Verhaltenstherapie (CBT), was letztlich die herausragende Leistungsfähigkeit ermöglichte, die in der Studie beobachtet wurde. Diese Trainingsstrategie ähnelt dem Aufbau fachspezifischer KI-Modelle – wie etwa „physics-aware“ KI-Systemen zur Lösung ingenieurwissenschaftlicher Probleme.
Großes Potenzial für breit gefächerte Hilfe durch KI in der Behandlung psychischer Störungen
Über die direkte therapeutische Interaktion hinaus wird Künstliche Intelligenz zunehmend zur Unterstützung bei der Diagnose psychischer Erkrankungen eingesetzt.
Machine-Learning-Algorithmen analysieren dabei Daten aus Sprache, Text, Mimik und physiologischen Signalen, um Marker psychischer Belastung zu erkennen.
So zeigte eine Studie aus dem Jahr 2018 in den Nature Partner Journals: Digital Medicine, dass ein KI-Modell den Ausbruch einer Psychose mit einer Genauigkeit von über 90 % vorhersagen konnte – allein durch die Analyse von Sprachmustern.
Darüber hinaus wird KI auch zur Vorhersage von Suizidrisiken eingesetzt:
Forschende an der Vanderbilt University entwickelten einen Machine-Learning-Algorithmus, der in der Lage ist, Personen mit hohem Suizidrisiko bis zu zwei Jahre im Voraus zu identifizieren – basierend auf Daten aus elektronischen Gesundheitsakten.
Diese prädiktiven Fähigkeiten könnten frühzeitige Interventionsstrategien ermöglichen, die andernfalls schwer umsetzbar wären.
Auch in klinischen Abläufen unterstützen KI-Tools Therapeut:innen zunehmend bei administrativen Aufgaben und klinischen Entscheidungsprozessen. Beispielsweise können Computer-Vision-Systeme heute Mimik und Stimmungs¬signale während Therapiesitzungen analysieren und Therapeut:innen zusätzliche Hinweise auf den emotionalen Zustand ihrer Klient:innen liefern. Ein Beispiel dafür ist das von Microsoft Research entwickelte System AffectAura, das emotionale Signale erfasst und Visualisierungen erstellt, die sowohl Therapeut:innen als auch Patient:innen helfen, emotionale Muster zu erkennen.
Wir von MI4People gGmbH haben gemeinsam mit dem Therapieverbund Ludwigsmühle – einer deutschen gemeinnützigen Organisation, die Menschen mit Suchtproblemen unterstützt – ein datengestütztes, KI-gestütztes Projekt namens HOPE gestartet (siehe: https://www.mi4people.org/hope). Ziel von HOPE ist es, Therapiedaten von suchtkranken Patient:innen zu analysieren, Therapeut:innen bei der Erstellung erfolgsversprechender Therapiepläne zu unterstützen und Hilfesuchenden passende Therapieeinrichtungen zu vermitteln.
Ein Wort der Vorsicht
Künstliche Intelligenz und generative KI verfügen über ein enormes Potenzial, um einen bedeutenden Beitrag zur Behandlung psychischer Störungen zu leisten. Angesichts einer geschätzten weltweiten Marktgröße von etwa einer halben Billion US-Dollar für entsprechende Therapien und der heutigen Leichtigkeit, KI- und GenAI-Anwendungen zu entwickeln, erscheinen zunehmend neue Tools auf dem Markt – sowohl von etablierten Gesundheitsdienstleistern als auch von jungen Start-ups. Dieser regelrechte „Goldrausch“ bringt jedoch eine Vielzahl ernsthafter Bedenken mit sich, insbesondere da die Zielgruppen häufig aus besonders verletzlichen Menschen bestehen:
Qualität - Viele der verfügbaren Apps wirken oberflächlich – sie sind oft nur einfache Benutzeroberflächen, die auf generischen KI-Modellen basieren, die mit frei verfügbaren Internetinhalten trainiert wurden. Eine sorgfältige wissenschaftliche Validierung fehlt häufig (siehe auch die obigen Ausführungen zum Therabot-Training).
Ohne geeignete Schutzmechanismen können sogenannte „Halluzinationen“ und Fehlinterpretationen auftreten, was zu falschen oder sogar gefährlichen Antworten für Patient:innen führen kann.
Datenschutz und Datensicherheit - Psychische Gesundheitsdaten gehören zu den sensibelsten personenbezogenen Informationen überhaupt. Die Erhebung, Speicherung und Nutzung solcher Daten durch KI-Systeme wirft erhebliche ethische Fragen auf – etwa im Hinblick auf Privatsphäre, informierte Einwilligung und Datensicherheit. Datenlecks oder der Missbrauch von Gesundheitsdaten könnten großen Schaden anrichten oder Diskriminierung nach sich ziehen. Deshalb ist ein robustes Rahmenwerk für Datenschutz und Daten-Governance unerlässlich. Zwar existieren regulatorische Vorgaben wie HIPAA in den USA und die DSGVO in der EU sowie Richtlinien der American Psychological Association (APA), doch kommt es entscheidend auf ihre konsequente Umsetzung an, um die sichere Nutzung von KI/GenAI im psychischen Gesundheitswesen zu gewährleisten.
Bias und ethische Überlegungen - Fehlende Vielfalt in Trainingsdaten führt zu verzerrten Ergebnissen von KI-Modellen. Das kann dazu führen, dass bestimmte Bevölkerungsgruppen falsch diagnostiziert, diskriminiert oder vernachlässigt werden – mit gravierenden ethischen Implikationen. Eine Verbesserung der Trainingsdatenqualität sowie Transparenz über die Datenherkunft („Data Provenance“) und regelmäßige Bias-Audits sind entscheidend, um Fairness zu gewährleisten.
Risiko der „Entmenschlichung“ der Behandlung - Der menschliche Faktor – Empathie, Intuition und tiefes Verständnis – ist essenziell für erfolgreiche Patient-Therapeut-Interaktionen. Auch wenn KI heute in der Lage ist, Daten zu verarbeiten und Analysen bereitzustellen, fehlt ihr nach wie vor das tiefe emotionale Verständnis, das menschliche Therapeut:innen auszeichnet. Eine Überbetonung technischer Systeme in der psychischen Gesundheitsversorgung könnte daher zu einer Entmenschlichung der Behandlung führen, was schwerwiegende Folgen hätte.
Trotz dieser Herausforderungen sind viele der Risiken kontrollierbar.
Eine durchdachte Gestaltung und Nutzung von KI/GenAI sowie ein konsequenter Human-in-the-Loop-Ansatz – also die ständige Einbindung von Menschen in Entscheidungsprozesse – sind entscheidend, um die Hürden zu überwinden.
Ein Whitepaper des Human-Oriented Artificial Intelligence Center der Stanford University aus dem Jahr 2023 („A Blueprint for Using AI in Psychotherapy“) schlägt hierfür eine schrittweise Integration vor: Zunächst unterstützt die KI Therapeut:innen bei klar definierten Aufgaben, dann folgt eine Phase der Zusammenarbeit bei Therapieentscheidungen, und schließlich – auf lange Sicht – eine vollständige Übernahme administrativer und klinischer Aufgaben durch KI-Systeme. Dieser Ansatz ähnelt der Entwicklung autonomer Fahrzeuge.
Zum Abschluss
Mit ihren Fähigkeiten zur menschenähnlichen Kommunikation, dem Umgang mit Mehrdeutigkeit und der rationalen Ableitung von Antworten bieten KI- und GenAI-Systeme ein enormes Potenzial für die Unterstützung bei Therapien psychischer Störungen.Zudem ermöglicht die Einbindung verschiedenster Technologien wie Augmented Reality (AR) und Virtual Reality (VR) zusätzliche Anwendungsmöglichkeiten, etwa in immersiven Therapieszenarien.Gleichzeitig helfen innovative Datenschutztechnologien wie Differential Privacy und Föderiertes Lernen dabei, die sensiblen Nutzerdaten besser zu schützen. Dieses gewaltige Potenzial wird zusätzlich durch sogenannte „agentische KI“ verstärkt – Systeme, die in der Lage sind, komplexe Aufgaben eigenständig und intelligent zu bearbeiten. Auch wenn vollautonome, ausgereifte KI/GenAI-Tools für den Einsatz in der psychischen Gesundheitsversorgung möglicherweise noch einige Jahre Entwicklungszeit benötigen, zeigt sich bereits heute: Mit dem derzeitigen technologischen Reifegrad – kombiniert mit verantwortungsvollem menschlichem Eingreifen und Überwachung – können KI- und GenAI-Systeme schon jetzt einen erheblichen Beitrag leisten, um die bestehenden Herausforderungen in der psychischen Therapie zu bewältigen und die Versorgung zu verbessern.
Mit herzlichen Grüßen,
MI4People Team
Kommentarer