heise+ | Chatbots als Gesprächstherapeuten: Potentiale und Risiken

vor 10 Stunden 1
  1. Chatbots als Gesprächstherapeuten: Potentiale und Risiken
    • Die KI versteht mich!
  2. Jederzeit und leicht verfügbar
  3. Umgang mit dem Risiko
  4. Erste digitale Helfer in der Psychotherapie
  5. KI organisiert Hilfe

ChatGPT gibt Tipps beim Programmieren, verrät, wie man überzeugende Vorträge hält oder Gartenzwerge lackiert, und wenn man es lieb bittet, schreibt es auch die Hausaufgaben über Neandertaler und die Punischen Kriege. Das Haupteinsatzgebiet für die verbreiteten Sprachgeneratoren (Large Language Models, LLM) liegt mittlerweile aber ganz woanders: Im April 2025 veröffentlichte das Magazin Harvard Business Review eine Erhebung, nach der Anwender die KI-Chatbots aktuell am häufigsten in die Rolle eines Therapeuten und seelischen Begleiters drängen. "Die psychologische Beratung ist längst zu einer verbreiteten Nutzungsform von Sprach-KIs geworden, mit all den Gefahren, die darin stecken", sagt Andrea Benecke, Präsidentin der Bundespsychotherapeutenkammer (BPtK).

"KI-Ratschläge können leicht in die falsche Richtung abdriften: Sei es, dass ein Mensch mit Essstörung ermutigt wird, noch weiter abzunehmen, oder dass die KI versteckt geäußerte Suizidgedanken nicht erkennt, beziehungsweise nicht angemessen darauf reagiert", schildert Lasse Sander vom Institut für Medizinische Psychologie an der Universität Freiburg im Gespräch mit c’t.

  • Sprach-KIs dienen vielen Anwendern längst als psychologische Ratgeber und Ersatz für Gesprächstherapeuten.
  • In dieser Rolle scheinen sie nicht einmal schlecht zu funktionieren, ohne speziell dafür trainiert zu sein. In Einzelfällen kommt es aber zu krassen Fehlern.
  • Viele Experten sehen trotzdem Chancen in der Technik; sie könne in Zukunft den Mangel an Psychotherapieplätzen mildern.

Offenbar kann es auch passieren, dass generative Sprachmodelle Wahnvorstellungen bestärken. Die New York Times berichtete erst im Juni 2025 von einem Buchhalter in Manhattan, der nach Chats mit ChatGPT überzeugt war, in etwas wie einer künstlich erzeugten Matrix zu leben und deshalb sogar schadlos vom Hochhaus springen zu können. Er hat es zum Glück nicht ausprobiert. Ein Farmer schilderte den Reportern, wie seine Frau ChatGPT bat, ihr Kontakt zu einer Alien-Rasse zu verschaffen. Der Chatbot erfand verschiedene Aliens und antwortete in deren Namen. Die junge Mutter verbrachte fortan täglich viele Stunden im Chat mit dem Sprachmodell, kapselte sich von ihrer Familie ab und erklärte ihrem Ehemann, sie habe die interdimensionale Kommunikation entdeckt.

Das war die Leseprobe unseres heise-Plus-Artikels "Chatbots als Gesprächstherapeuten: Potentiale und Risiken". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.

Gesamten Artikel lesen