Viele Arbeitsprozesse in den P-Berufen (Psychiatrie, Psychologie und Psychotherapie) erfolgen nach wie vor analog. Technische Unterstützung wird bislang nur zurückhaltend genutzt.
Persönliche Gespräche stehen bei den Berufen der psychischen Gesundheit – Psychiatrie, Psychologie und Psychotherapie – unverändert im Mittelpunkt. Natascha Ditha Berger erzählt von ihrem Berufsalltag als Psychotherapeutin: „Ich organisiere die klinische Dokumentation, mit allen Vor- und Nachteilen rein handschriftlich. Nur bei Verwaltung und Abrechnung setze ich auf IT.“ John G. Haas, Psychologe, Autor und Digitalist, hat für den Berufsverband der österreichischen PsychologInnen (BÖP) einige am Markt befindlichen IT-Anwendungen verglichen: „Die Wahl der passenden Praxissoftware ist eine strategische Entscheidung, die Vertrauen zum jeweiligen Anbieter erfordert. Rechtliche Konformität und der Schutz der Patientendaten haben oberste Priorität.“

Vorsichtige Näherung.
Menschliche Aufsicht und Kontrolle über KI-Systeme werden zunehmend wichtiger. Regularien wie der AI-Act sollen für Rahmenbedingungen sorgen.
Potenziale
Paolo Raile, Psychotherapiewissenschaftler an der Sigmund Freud Privatuniversität (SFU) in Wien, erörtert in seinem Buch die neuen Möglichkeiten der KI. Seiner Meinung nach könnte KI das Verlaufsmonitoring, die Therapievor- und -nachbereitung sowie die Hilfestellung bei Reflexion und Hypothesenbildung unterstützen. Darüber hinaus kann KI die Zusammenfassung aktueller Leitlinien, Forschungsergebnisse oder therapeutischer Methoden erleichtern. „Besonders beeindruckend ist das Potenzial von KI in der Forschung durch die rasche Möglichkeit, Muster zu erkennen und neue Hypothesen zu generieren.“ Raile betont, dass Patientendaten nicht in ChatGPT eingegeben werden dürfen. Stattdessen sollten sie anonymisiert werden oder besser sichere Server bzw. lokal installierte KI genutzt werden. Lenz Husmann, Mitbegründer von Freudio.com, einer Praxissoftware für Psychotherapie, erklärt: „Wir betrachten Anwendungen kritisch, bei denen KI zu stark in den therapeutischen Prozess eingreift, Entscheidungen mitgestaltet oder gar versucht, Therapeuten zu ersetzen. Da fallen unbelegte Wirksamkeit, Halluzinationen der Modelle und Datenschutzbedenken zusammen.“
Negative Alltagserfahrungen
Natascha Berger hat KI-Systeme aus Interesse getestet und findet: „KI-gestützte Zusammenfassungen sind bisher noch wenig praxistauglich.“ Der Psychologe John G. Haas meint, dass sich selbst erfahrene PsychologInnen bei der Erkennung von Simulation, Dissimulation und Aggravation schwer tun würden. Wie sollte hier eine KI zu haltbaren Diagnosen kommen können? Er mahnt zur großen Vorsicht: „Heutige KI-Systeme weisen weder einen Erfahrungsschatz noch Rahmenbedingungen oder Bewusstheit auf, um die menschliche Psyche simulieren, geschweige denn emulieren zu können.“ KI-Systeme greifen auf Korpora, also auf Datensammlungen, die repräsentativ für bestimmte Sprachverwendungen, Kommunikationsformen oder Wissensbestände sind, zurück. Diese werden in ihren unterschiedlichen Prägungen zum Training von KI-Systemen herangezogen. Der Faktor der sogenannten „human oversight“, also die menschliche Aufsicht und Kontrolle über KI-Systeme, beispielsweise in Form von KI-Ethik oder dem EU-AI-Act, wird zunehmend wichtiger. „Indikationsstellung, Krisenmanagement, Diagnosen sowie Behandlungsplanung müssen unter klarer ärztlicher bzw. klinisch-psychologischer Verantwortung bleiben. Die KI darf hier höchstens unterstützen.“ Dies wird am Beispiel der Suizidvorhersage deutlich: „KI kann Hinweise auf Risiko oft gut erkennen, aber die Glaubwürdigkeit und Unmittelbarkeit zuverlässig zu beurteilen, gelingt letztlich nur im Zusammenspiel mit klinischer Expertise und nicht allein durch KI.“
Quellen und Links:
John Haas Softwarevergleich:
www.pioe.at/public/archiv/2025.pdf
Paolo Raile Buch:
www.waxmann.com/buecher/KI-in-der-Psychotherapie-wissenschaft
