Etwa 18 bis 25 Prozent der österreichischen Bevölkerung leiden unter Angstsymptomen oder Schlafstörungen. Die Nachfrage nach Therapiemöglichkeiten steigt stetig – ebenso die Wartezeiten. Viele suchen Hilfe bei der KI.
Wenn ich spazieren gehe, spreche ich einfach mit der KI. Ich lasse alles raus, was mich beschäftigt und belastet. Irgendwie bringt die KI dann Struktur in das Ganze. Das ist, um ehrlich zu sein, ziemlich beeindruckend. Weil die KI sowohl alte als auch aktuellen Gespräche beachtet und sortiert“, heißt es in einem Post in den sozialen Medien und in einem anderen: „Meine Therapeutin hat es begrüßt, dass ich zwischen den Sitzungen mit der KI arbeite. Das Ergebnis: Depression geheilt! Mit therapeutischer und KI-Begleitung.“

Intelligente Hilfe.
KI gestützte Systeme
zeigen besonders in der Frühintervention Wirkung.
Hallo KI
Paolo Raile ist Psychotherapiewissenschaftler an der Sigmund Freud Privatuniversität (SFU) in Wien: „Alles, was Menschen einfach mal loswerden wollen, funktioniert mit KI gut.“ Das zeigen auch Studien mit Chatbots zur Stimmungsbeobachtung und Frühintervention wie „Woebot“, der in England seit 2017 eingesetzt wird, um Menschen mit Depressionen zu helfen. In einer ersten randomisierten Studie zeigten die Anwender des Chatbots „Therabot“ gegenüber einer Kontrollgruppe und bei Nachuntersuchung eine signifikant stärkere Verringerung der Symptome. „KI-gestützte Systeme wie Wysa, das geführte Meditationen, personalisierte Selbsthilfeprogramme und psychologische Reflexionen kombiniert, zeigen besonders in der Frühintervention Wirkung.“ „KI hat oft Schwierigkeiten mit dem Erkennen von Humor oder Sarkasmus, und auch Mimik, Gestik oder Anspannungen sind für KI-Modelle nicht sichtbar, jedoch unverzichtbare Bestandteile einer Psychotherapie. Die therapeutische Interaktion ist noch sehr beschränkt und richtige Gespräche wie bei Freud auf der Couch sind noch Zukunftsmusik“, sagt Raile.
Das liebe Recht
Florian Madner ist auf Fragen zu künstlicher Intelligenz spezialisierter Rechtswissenschaftler an der SFU: „Grundsätzlich sind spezialisierte KI-Systeme, die wissenschaftlich entwickelt und geprüft sind, positiv zu sehen. Sie können helfen, psychische Unterstützung niederschwelliger und ortsunabhängig zugänglich zu machen.“ Dies gelte vor allem für Phasen, in denen man nicht sofort einen Therapieplatz bekommt oder Hemmungen hat, den ersten Schritt zu einer Psychotherapie zu setzen.
Aus juristischer Sicht stellen sich beim Einsatz von KI in der Psychotherapie gleich etliche Fragen, beispielsweise zur EU-Verordnung über KI (KI-VO), zum Datenschutz, zum Medizinprodukterecht und zum strengen österreichischen Berufsrecht. Madner führt aus: „Die juristischen Fragestellungen reichen von den Pflichten bei der Planung des Einsatzes über den Umgang mit sensiblen Daten bis hin zu Haftungsfragen, wenn etwas passiert.“ Er sieht die Gefahr eher dort, wo allgemeine KI-Anwendungen für therapeutische Zwecke eingesetzt werden, also Systeme, die gar nicht für diesen sensiblen Bereich entwickelt wurden. Das führe dazu, dass manche KI-Systeme, die therapeutische Zwecke erfüllen, rechtlich keine Medizinprodukte sind und damit auch nicht die Sicherheitsstandards erfüllen, die sie eigentlich sollten. „Ein klassisches Beispiel dafür ist ChatGPT, das ausdrücklich deklariert, kein Medizinprodukt zu sein, dessen Antworten aber durchaus bis in den Bereich von Therapie- oder sogar Medikationsempfehlungen reichen können“, so Madner.
Und was sagt ChatGPT selbst dazu? „ChatGPT kann als Werkzeug für Selbstreflexion hilfreich sein, ähnlich wie ein digitales Tagebuch mit Rückfragen –, aber es ist kein Ersatz für Psychotherapie. Wer es nutzt, sollte sich dessen bewusst sein: Es kann ein Begleiter sein, aber kein Gegenüber mit Verantwortung, Empathie oder therapeutischer Erfahrung.“
Quellen und Links:
Studie DUK 2021 – www.donau-uni.ac.at/de/aktuelles/news/2021/psychische-belastung-bei-jugendlichen-weiterhin-hoch
Fitzpatrick et al. (2017): Zeigten, dass Menschen durch tägliche Chats mit dem Bot „Woebot“ signifikante Verbesserungen bei Depressionen erlebten (im Vergleich zu einer Kontrollgruppe mit Psychoedukation).
mental.jmir.org/2017
ai.nejm.org/doi/full/10.1056/AIoa2400802, 2025, NEJM AI 2025;2(4), Heinz, MV, Mackin DM, Trudeau BM et al. Randomized Trial of a Generative AI Chatbot for Mental Health Treatment