Private Chats bei ChatGPT können geteilt werden. Das geschieht grundsätzlich nur auf Wunsch des Nutzers und mit Absicht. Die Funktion dazu hielt jedoch bisher eine offenbar oftmals falsch verstandene Möglichkeit parat. Dadurch sind zahlreiche Gespräche mit dem KI-Chatbot öffentlich auffindbar gewesen. Wer weiß und wusste, wie das geht, konnte ganz leicht bei Google nach Personen oder Themen suchen. Dabei sollen auch Chats aufgetaucht sein, in denen es um Mord ging, um sexuelle Vorlieben und andere brisante Inhalte.
Um einen Gesprächsverlauf zu teilen, musste man einen öffentlichen Link erstellen. Wer diesen hat, kann freilich auch den Chat lesen. Soweit so gut und noch nicht bei Google auffindbar. Es hat jedoch zusätzlich die Auswahl gegeben: "Make this chat discoverable", oder auf Deutsch "Mache diesen Chat auffindbar". Das haben wohl einige Menschen missverstanden und gedacht, man müsse den Haken setzen, damit der Link zum Teilen funktioniert. Doch stattdessen haben sie den Gesprächsinhalt frei verfügbar gemacht – auch für Suchmaschinen.
Es handelt sich also nicht um eine Fehlfunktion oder gar ein Leak, sondern eher um ein Missverständnis. OpenAI zieht nun zurück und lässt die Auswahl verschwinden. Das hat Dane Stuckey, CISO bei OpenAI, nun bei X bekannt gegeben. Stuckey erklärt auch, die Funktion habe helfen sollen, dass Menschen hilfreiche Konversationen von anderen Menschen finden. Welche Gespräche mit einem Chatbot genau andere Menschen inspirieren sollten, bleibt dabei offen. In den Kommentaren zum X-Beitrag schreibt jemand, es sei eine tolle Möglichkeit für GEO gewesen – Generative Engine Optimization, das neue Pendant zu SEO, Search Engine Optimization.
Doch auch OpenAI hat offenbar nicht genug wirklich sinnvolle Einsätze gefunden. "Sicherheit und Datenschutz stehen für uns an erster Stelle, und wir werden weiter daran arbeiten, dies in unseren Produkten und Funktionen bestmöglich zu berücksichtigen", schreibt Stuckey. Unklar bleibt, was mit den bereits öffentlich auffindbaren Chats passiert. Grundsätzlich liegt die Verantwortung für diese wohl bei den Menschen, die den Haken gesetzt haben. Potenziell könnte OpenAI sie jedoch auch allesamt wieder verstecken.
(emw)