- Wissen
- Psychotherapie
Der KI-Chatbot als Therapeut
Glaubwürdige Gesprächsführung ist noch keine kompetente Psychotherapie
Psychotherapien sind mehr als nur Zuhören oder Fragen beantworten. Es sind therapeutische Konzepte, die sich mit Gefühlen, dem Denken und den daraus folgenden Handlungen und Verhaltensweisen von Menschen befassen. Interaktionen in therapeutischen Sitzungen leben von der Interpretation des Gesagten – über die Bedeutung eines Wortes oder Satzes hinaus. Und um gehört und verstanden zu werden, bedarf es einer Beziehung und interpersoneller Kompetenzen.
Der Mangel an Psychotherapeut*innen lässt die Frage aufkommen, ob Künstliche Intelligenz dazu auch in der Lage ist. Was also, wenn anstelle einer menschlichen Therapeutin künftig ChatGPT das Therapiegespräch führt? Die Versuchung ist groß, auch in diesem Bereich KI zu etablieren.
Vor der Pandemie litten fast ein Drittel der erwachsenen Europäer*innen an psychischen Erkrankungen. In keinem europäischen Land ist das psychotherapeutische Angebot ausreichend. Hierzulande liegt die durchschnittliche Wartezeit auf einen Therapieplatz für Erwachsene bei mehr als einem halben Jahr. Noch schlimmer trifft es Kinder und Jugendliche. Nur etwa 20 Prozent der Therapeut*innen mit Kassenlizenz sind auf diese Altersgruppe spezialisiert. Und in den USA werden mehr als elf Millionen Menschen trotz Bedarfs nicht therapiert.
Es verwundert also nicht, dass zum Thema KI als Psychotherapieersatz seit Jahren geforscht wird. In einer aktuellen Studie aus den USA wollten Forscher*innen herausfinden, ob die Studienteilnehmer*innen merken, ob der Therapeut in einem Paartherapiegespräch ein Mensch oder eine KI war. Dafür wurden ihnen 18 Paartherapieszenen mit menschlichen und künstlichen Therapeut*innen vorgespielt. Wem das bekannt vorkommt, liegt richtig. Alan Turing, Vordenker der theoretischen Informatik und Computertechnologie, schlug 1950 den berühmten Turing-Test vor. Mit ihm sollte geprüft werden, ob eine Maschine dem Menschen gleichwertige Denkfähigkeiten besitzt.
In der aktuellen Studie erkannten die Teilnehmenden kaum einen Unterschied zwischen Mensch und Maschine. Die therapeutische Wirksamkeit der KI-generierten Antworten schätzten sie höher ein.
Was heißt das nun für die Praxis? Nicht viel, denn die Studie beschäftigte sich mit Paartherapien und nicht mit Psychotherapien. Anders als Paartherapien hätten Psychotherapien, so Lasse Sander vom Institut für Medizinische Psychologie und Medizinische Soziologie der Albert-Ludwigs-Universität Freiburg, das Ziel, »Symptome einer psychischen Erkrankung zu reduzieren«. Dass dafür mehr als nur Sprachmodelle erforderlich sind, macht auch Harald Baumeister, Leiter der Abteilung für Klinische Psychologie und Psychotherapie am Institut für Psychologie und Pädagogik der Universität Ulm, deutlich: »Sprachlich sollten KI-Chatbots nicht mit Psychotherapie gleichgesetzt werden«. Die aktuelle Studie zeige, dass generative KI in der Lage sei, Sätze so zu produzieren, »dass sie von unbeteiligten Dritten nicht oder kaum von den Sätzen der Psychotherapeut*innen unterscheidbar sind und tendenziell als wohlformulierter eingeschätzt werden«. Auch für Johanna Löchner, Professorin für Klinische Psychologie und Psychotherapie des Kindes- und Jugendalters, Friedrich-Alexander-Universität Erlangen-Nürnberg, ist fraglich, »ob Chatbots [die] Rolle eines empathischen und vielleicht auch konfrontativen, motivierenden Gesprächspartners« spielen könnten. Andere Studien zeigen, dass digitale Anwendungen dann wirksamer als »Selbsthilfe-Angebote« seien, wenn Menschen involviert wären.
Sander von der Uni Freiburg bezweifelt den Siegeszug der KI in der Psychotherapie. Letztere erfülle »eine Reihe weiterer Funktionen« und befriedige menschliche Bedürfnisse. Was also treibt die KI-Forschung in diesem Bereich an? Sander fasst es kurz und knapp zusammen: KI sei »ressourcenschonend und 24/7 verfügbar«. Doch was, wenn es auch hier bald nur noch um Effizienz geht? Es ist zu befürchten, dass ein Wechsel von digitalen Zusatzangeboten zu digitalen Ersatztherapien nicht nur überhaupt, sondern vor allen Dingen schneller kommt als gedacht. Vor zwei Jahren zeigte ein Versuch, so Harald Baumeister, dass im Vertrauen auf ChatGPT auch Leib und Leben von Klientinnen gefährdet sein können.
In keinem europäischen Land ist das psychotherapeutische Angebot ausreichend.
-
Das »nd« bleibt. Dank Ihnen.
Die nd.Genossenschaft gehört unseren Leser*innen und Autor*innen. Mit der Genossenschaft garantieren wir die Unabhängigkeit unserer Redaktion und versuchen, allen unsere Texte zugänglich zu machen – auch wenn sie kein Geld haben, unsere Arbeit mitzufinanzieren.
Wir haben aus Überzeugung keine harte Paywall auf der Website. Das heißt aber auch, dass wir alle, die einen Beitrag leisten können, immer wieder darum bitten müssen, unseren Journalismus von links mitzufinanzieren. Das kostet Nerven, und zwar nicht nur unseren Leser*innen, auch unseren Autor*innen wird das ab und zu zu viel.
Dennoch: Nur zusammen können wir linke Standpunkte verteidigen!
Mit Ihrer Unterstützung können wir weiterhin:
→ Unabhängige und kritische Berichterstattung bieten.
→ Themen abdecken, die anderswo übersehen werden.
→ Eine Plattform für vielfältige und marginalisierte Stimmen schaffen.
→ Gegen Falschinformationen und Hassrede anschreiben.
→ Gesellschaftliche Debatten von links begleiten und vertiefen.
Seien Sie ein Teil der solidarischen Finanzierung und unterstützen Sie das »nd« mit einem Beitrag Ihrer Wahl. Gemeinsam können wir eine Medienlandschaft schaffen, die unabhängig, kritisch und zugänglich für alle ist.