Studie: Twitter löscht Deepfakes bei Meldung als Copyright-Verstoß schneller

vor 3 Stunden 1

X entfernt Deepfakes eher, wenn sie mit der Begründung einer Urheberrechtsverletzung gemeldet werden. Das fanden Forscher der University of Michigan heraus. Demnach hat X, ehemals Twitter, Inhalte, die als nicht einvernehmliche intime Darstellungen gemeldet wurden, erst nach mehreren Wochen oder auch einfach gar nicht von der Plattform gelöscht.

Im Rahmen der Studie posteten die Forscher 50 KI-generierte Nacktfotos auf Twitter. Die Hälfte davon meldeten sie als nicht-einvernehmliche Darstellungen von Nacktheit, die andere Hälfte als Urheberrechtsverletzungen. Alle 25 der als Copyright-Verletzungen gemeldeten Bilder löschte Twitter binnen 25 Stunden von der Plattform. Die Accounts, mit denen die Bilder gepostet wurden, wurden temporär gesperrt.

Die Bilder, die die Forscher als nicht-einvernehmliche Darstellungen von Nacktheit gemeldet hatten, waren drei Wochen nach der Meldung immer noch online. Die Accounts, die diese gepostet hatten, wurden weder gesperrt noch in irgendeiner Form benachrichtigt oder verwarnt.

Offenbar greift im Fall einer Urheberrechtsverletzung in den USA der Digital Millenium Copyright Act (DMCA). Das US-amerikanische Gesetz, das 1998 verabschiedet wurde, sollte einen rechtlichen Rahmen für den Urheberrechtsschutz im digitalen Raum schaffen. Demnach müssen Plattformen bei Meldungen zu Urheberrechtsverletzungen zügig reagieren und die betreffenden Inhalte nach Prüfung löschen. Für Twitter ist das offenbar genug Anreiz, sich den Meldungen zeitnah anzunehmen.

Es gibt in einzelnen Bundesstaaten auch Gesetze gegen die Verbreitung nicht-einvernehmlicher Darstellungen von Nacktheit. Derzeit gibt es Bestrebungen für ein landesweit gültiges Gesetz. Momentan scheinen Anreize für Twitter und andere Plattformen zu fehlen, Meldungen zu bestimmten Darstellungen von Nacktheit und Deepfakes ähnlich schnell zu sperren wie Copyright-Verletzungen.

Nicht einvernehmlich online veröffentlichte Fotos über eine DMCA-Meldung löschen zu lassen, ist laut der Autoren des Papers allerdings nicht jedem Opfer möglich: Das Urheberrecht an einem Foto hält immer die Person, die das Bild gemacht hat. Wurde ein Foto von jemand anderem geschossen, greift der DMCA nicht. Außerdem muss man bei einer solchen Meldung laut 404 Media offenbar relativ umfangreiche Angaben machen. Es gibt zwar Dienste, die man mit derartigen Meldungen beauftragen kann, die damit verbundenen Kosten könne jedoch nicht jedes Opfer stemmen.

Die Autoren der Studie kommen zu dem Schluss, dass ein Gesetz gegen die nicht-einvernehmliche Verbreitung intimer personenbezogener Inhalte Internetplattformen dazu bewegen muss, ähnlich schnell auf solche Meldungen zu reagieren.

Sie benennen die DSGVO als Positivbeispiel: Die Datenschutzgrundverordung habe die Art, wie Plattformen bisher mit den Daten und Inhalten der Nutzer umgegangen seien, aufgemischt. Die darin formulierten Datenschutzanforderungen seien wichtige Schritte in die richtige Richtung. Der Schutz intimer persönlicher Darstellungen erfordert laut der Autoren einen ähnlich verbindlichen rechtlichen Rahmen. Ein Peer-Review der Studie steht noch aus.

In der EU fallen nicht-einvernehmliche Veröffentlichungen von Nacktbildern sowie Deepfakes unter den Digital Services Act, kurz DSA. Der DSA ist seit Februar 2024 vollständig in Kraft und wurde in Deutschland mit dem Digitale Dienste Gesetz umgesetzt. Das Gesetz nimmt Plattformen in die Pflicht, solche Inhalte zeitnah zu moderieren.

Der von Elon Musk geführte Kurznachrichtendienst hatte bereits Ende 2023 Bekanntschaft mit dem Gesetz gemacht. Damals hatte die EU-Kommission ein förmliches Verfahren gegen den Dienst eingeleitet, in dem geprüft wurde, ob X den DSA unter anderem in den Bereichen Risikomanagement, Inhaltsmoderation und Dark Patterns gebrochen haben könnte.

(kst)

Gesamten Artikel lesen