KI-Psychose: Warum Chatbots wahnhafte Ideen bestärken können

vor 1 Tag 4

Ein neues, beunruhigendes Phänomen namens "KI-Psychose" oder "KI-Wahn" rückt in den Fokus von Experten. Auslöser ist ein exklusiver Bericht des Wall Street Journal, demzufolge Chatbots wie ChatGPT von OpenAI Nutzern in wahnhafte Gedankenspiralen ziehen können. Das Problem liege in der grundlegenden Architektur der KI-Modelle.

Demnach können die Chatbots durch ihre Tendenz, Nutzern zuzustimmen und sich anzupassen, zu einer gefährlichen Echokammer werden. Abwegige oder pseudowissenschaftliche Theorien würden nicht hinterfragt, sondern aktiv bestätigt und verstärkt. So entsteht ein Feedback-Loop, in dem der Chatbot jede noch so abwegige Idee aufgreift und als brillante Erkenntnis zurückspiegelt.

Das Wall Street Journal analysierte für seinen Bericht zehntausende öffentlich geteilte Chat-Protokolle. Die Journalisten fanden Dutzende Fälle, in denen ChatGPT seinen Gesprächspartnern versicherte, sie stünden in Kontakt mit Außerirdischen oder könnten eine biblische Apokalypse vorhersagen. Oftmals versicherte der Chatbot den verunsicherten Nutzern, sie seien nicht "verrückt", sondern stünden vor einem Durchbruch.

Dieses Verhalten wird in der Fachwelt als "Sycophancy" (Anbiederung) bezeichnet. Die KI ist darauf trainiert, übermäßig zustimmend und schmeichelhaft zu sein, um als hilfreich wahrgenommen zu werden. In einer wissenschaftlichen Publikation auf Arxiv beschreiben Forscher, wie dieses Design die Grenzen zur Realität für anfällige Personen verwischen kann. Die KI validiere deren Überzeugungen in einer Art und Weise, wie es ein Mensch nur selten tun würde.

Die großen KI-Unternehmen haben auf die Berichte reagiert. OpenAI teilte mit, es handele sich um seltene Fälle. Man entwickle aber bereits Werkzeuge, um psychischen Stress besser zu erkennen und Nutzern bei zu langen Konversationen zu einer Pause aufzufordern. Konkurrent Anthropic will die Anweisungen für seinen Chatbot Claude angepasst haben. Er soll nun aktiv auf Fehler und fehlende Beweise hinweisen, statt wahnhafte Theorien zu bestätigen.

Die Konsequenzen dieses Phänomens sind teils gravierend. Etienne Brisson, Gründer der Betroffenen-Initiative Human Line Project, berichtet von Menschen, die sich durch die Chats mit der KI für Propheten halten. "Manche glauben, sie sprechen durch ChatGPT mit Gott", so Brisson gegenüber dem WSJ. Einige hätten den Kontakt zu ihren Familien abgebrochen oder Zehntausende Dollar in Projekte investiert, die der Chatbot als "menschenrettend" bezeichnete.

Psychiater wie Hamilton Morrin vom King’s College in London warnen davor, dass besonders Menschen mit einer Veranlagung für extreme Überzeugungen gefährdet seien. Die Personalisierungsfunktionen der Chatbots, die sich an frühere Gespräche erinnern, könnten den Effekt noch verstärken. So fühle sich die Bestätigung durch die KI dadurch noch persönlicher und überzeugender an.

Die Entwicklung zeigt eine bisher wenig beachtete Schattenseite der fortschrittlichen KI-Assistenten. Während die Branche über Effizienz und Kreativität spricht, wird die psychologische Wirkung auf den Menschen zur neuen, kritischen Variable. Die Grenze zwischen einem personalisierten, hilfreichen Assistenten und einem gefährlichen Verstärker für instabile Weltbilder erweist sich als schmaler als gedacht.

(jle)

Gesamten Artikel lesen