Alarmierende neue Studie: Das Kindswohl ist gefährdet

vor 3 Stunden 1

KI-Modelle wie ChatGPT oder Character.AI kann man auch als Speichellecker bezeichnen. Weil sie so programmiert sind, dass sie ihre Nutzer nicht etwa hinterfragen, sondern ihnen genau das sagen, was diese hören wollen. Das bleibt nicht folgenlos. So stand 2023 ein Engländer vor Gericht, der Elizabeth II. in Schloss Windsor ermorden wollte. Laut Staatsanwaltschaft wurde er von einer KI namens „Sarai“ dazu angestiftet.

Im selben Jahr nahm sich ein Belgier das Leben, nachdem er mit einem Chatbot namens „Eliza“ wochenlang korrespondiert hatte. Die Chatprotokolle wurden von der Witwe veröffentlicht. Demnach befeuerte der Bot die Ängste des Mannes und bot an, zusammen mit ihm zu sterben. Im Oktober vergangenen Jahres verklagte eine Mutter in Florida Character.AI wegen Totschlags. Sie behauptet, der Algorithmus habe ihren vierzehnjährigen Sohn in eine derart missbräuchliche Beziehung verstrickt, dass dies seinen Suizid ausgelöst habe.

Beunruhigende Nähe zum Chatbot

Vor diesem Hintergrund ist eine Studie bemerkenswert, die sich mit dem blinden Vertrauen von Kindern und Jugendlichen in KI-Modelle wie ChatGPT beschäftigt. Der Algorithmus „erklärt“ Dreizehnjährigen auf Anfrage demnach nicht nur, wie sie sich betrinken und high werden können, sondern gibt auch Anleitungen, wie man Essstörungen verbergen kann, und verfasst auf Wunsch „Abschiedsbriefe“, die ein suizidgefährdeter Jugendlicher seinen Eltern hinterlassen möchte.

Inzwischen nutzen 800 Millionen Menschen allein ChatGPT, gut zehn Prozent der Weltbevölkerung. In Deutschland sind es knapp zwei Drittel aller Kinder und Jugendlichen. Zwar ist es das Privileg der Jugend, sich neuesten Entwicklungen weniger misstrauisch zuzuwenden als Ältere, schon allein, weil sie mit Technologie aufgewachsen sind. Die mangelnde Distanz führt jedoch zu einer riskanten Nähe und beunruhigenden Vertrautheit, die Kinder und Jugendliche heute wie selbstverständlich sagen lässt, sie hätten sich mit ChatGPT „unterhalten“.

Das Alter der Nutzer wird nicht überpfüft

Für die Studie gaben sich Forscher gegenüber ChatGPT als gefährdete Teenager aus. Die Nachrichtenagentur Associated Press hat die Inter­aktionen ausgewertet, ohne sie im Wortlaut zu publizieren. Demnach warnte der Chatbot sein Gegenüber zwar vor riskanten Handlungen, lieferte dann aber detaillierte und persönlich zugeschnittene Pläne, ob für Drogenkonsum oder für Selbstverletzung. Mehr als die Hälfte der 1200 ChatGPT-Antworten stuften die Forscher des „Center for Countering Digital Hate“ als gefährlich ein. Die Befunde müssten alle Alarmglocken schrillen lassen. Denn der Technologie wohnt im interaktiven, personalisierten Austausch ein destruktives Potential inne, vor dem insbesondere die Jüngsten geschützt werden müssen. Doch davon sind wir weit entfernt.

ChatGPT fragt zwar nach dem Alter der Nutzer, überprüft dies jedoch nicht. Daher reicht es auch nicht aus, dass der Chatbot die Wissenschaftler, die sich als Jugendliche ausgaben, auf Krisenhotlines verwies und bei Selbstverletzungsgedanken empfahl, sich an Psychologen oder Personen aus dem Umfeld zu wenden. Die anfängliche Weigerung der KI, die krisenhaften Fragen zu beantworten, konnte nämlich kinderleicht umgangen werden. Die Forscher gaben einfach an, dass ihre Fragen für eine Präsentation oder einen Freund bestimmt seien.

Man arbeite an der emotionalen Überabhängigkeit, die insbesondere bei jungen Menschen sehr verbreitet sei, wird Sam Altman von AP zitiert. Der Open-AI-Chef weiß ganz genau, wie sehr sich junge Leute auf seine Maschinen verlassen. Er zitiert sie selbst mit den Worten: „Ich kann keine Entscheidung in meinem Leben treffen, ohne ChatGPT zu erzählen, was los ist. Es kennt mich. Es kennt meine Freunde. Ich werde tun, was es sagt.“ Altman findet das „schlimm”. Doch was folgt daraus? Dass die KI längst als vertrauenswürdiger Begleiter, ja als Ratgeber angesehen wird, hat unabsehbare Folgen und bedarf dringend der Korrektur.

Vor wenigen Wochen hat ein Bundesgericht in Florida die Klage der Mutter gegen Character.AI zugelassen, obwohl der Anbieter sie mit dem Argument abzuweisen versuchte, die Chatbot-Antworten fielen als freie Meinungsäußerung unter den Ersten Verfassungszusatz. Dem Gericht leuchtete die Begründung nicht ein. Zurzeit befindet sich die Klage im Beweisermittlungsverfahren. Das Urteil könnte wegweisend sein für die Frage nach der grundsätzlichen Verantwortung von KI-Anbietern, insbesondere aber in Hinblick auf die Gefahr für Minderjährige.

Hilfe bei Suizidgedanken

Sprechen Sie mit Menschen.

Wenn Sie daran denken, sich das Leben zu nehmen, versuchen Sie, mit anderen Menschen darüber zu sprechen. Es gibt eine Vielzahl von Hilfsangeboten, bei denen Sie – auch anonym – mit anderen Menschen über Ihre Gedanken sprechen können.
Das geht telefonisch, im Chat, per Mail oder persönlich.

Die Telefonseelsorge

Die Telefonseelsorge ist anonym, kostenlos und rund um die Uhr erreichbar. Die Telefonnummern sind 0 800 / 111 0 111 und 0 800 / 111 0 222.
Der Anruf bei der Telefonseelsorge ist nicht nur kostenfrei, er taucht auch nicht auf der Telefonrechnung auf, ebenso nicht im Einzelverbindungsnachweis.

Hilfe-Chats

Ebenfalls von der Telefonseelsorge kommt das Angebot eines Hilfe-Chats. Den Chatraum kann man auch ohne vereinbarten Termin betreten. Sollte kein Berater frei sein, klappt es in jedem Fall mit einem gebuchten Termin.

Die E-Mail-Beratung

Das dritte Angebot der Telefonseelsorge ist die Möglichkeit der E-Mail-Beratung. Auf der Seite der Telefonseelsorge melden Sie sich an und können Ihre Nachrichten schreiben und Antworten der Berater lesen. So taucht der E-Mail-Verkehr nicht in Ihren normalen Postfächern auf.

Gesamten Artikel lesen