Kindesmissbrauch: Internet-Hotline warnt vor gefährlichem Verbreitungsschema

vor 13 Stunden 2

Die Freiwillige Selbstkontrolle Multimedia-Diensteanbieter (FSM) macht in der aktuellen Jahresstatistik ihrer Internet-Beschwerdestelle auf ein riskantes Schneeballsystem zur Verbreitung von Darstellungen zu sexuellem Kindesmissbrauch aufmerksam. Es seien im vorigen Jahr auffällig viele Meldungen über "ICAP-Seiten" eingegangen, heißt es in dem heise online vorliegenden Bericht, der am Dienstag veröffentlicht werden soll. Bewusst oder indirekt an dieser "Invite Child Abuse Pyramid" Beteiligte stellten personalisierte, äußerlich unauffällige Einladungslinks zur Verfügung. Klickten Nutzer darauf, erhalte der Seitenbetreiber Punkte, um immer neues, tendenziell noch extremeres einschlägiges Material freischalten zu können.

Dementsprechend seien solche Links auch unter .de-Domains teilweise inflationär in den Kommentarspalten sozialer Netzwerke gepostet worden, "um möglichst viele Credits zu erlangen", schreibt die FSM. Da auf ICAP-Seiten unmittelbar bei Aufruf ein eingebettetes Video starte, das Zusammenschnitte schwerster Missbrauchshandlungen in schneller Abfolge zeige, würden Internetnutzer "häufig ungewollt mit diesen Inhalten konfrontiert". Teils gibt die Selbstkontrollinstanz aber wieder Entwarnung: Ende 2024 seien viele dieser Angebote nicht mehr online gewesen.

Das Pyramidensystem stellt laut Experten eine Bedrohung für Kinder und die breite Öffentlichkeit dar. Die darüber beworbenen kommerziellen Seiten beinhalten demzufolge oft Darstellungen von Penetration, Tierquälerei und sadistischen Handlungen. Die Vergabe von Punkten führe tendenziell zu einer exponentiellen Verbreitung der schädlichen Inhalte. Da die Links wahllos auf sozialen Medien, in Chats und sogar scheinbar harmlosen Apps verbreitet würden, sei das Risiko groß, dass auch Unbeteiligte, einschließlich Kinder, mit dem Material konfrontiert würden. Das Schema sei ein lukratives Geschäftsmodell für Kriminelle. ICAP-Seiten gelten als schwer zu bekämpfen, da sie schnell von einem Hosting-Anbieter zum nächsten wechseln und unter verschiedenen Domains wieder auftauchen können.

Bei der FSM-Hotline gingen 2024 insgesamt 25.536 Beschwerden über illegale oder jugendgefährdende Onlineinhalte ein. Gegenüber dem Vorjahr stellt das einen Rückgang dar (2023: 30.573). Trotzdem handelte sich um die zweithöchste Zahl an Meldungen seit 1997. In 68 Prozent der Fälle (17.395 Eingaben) stellte das dreiköpfige juristische Prüfteam Verstöße gegen deutsche Jugendmedienschutzgesetze fest und spricht damit von begründeten Beschwerden.

Allgemeine Pornografie, die Kindern und Jugendlichen ohne Altersverifikationssystem (AVS) frei zugänglich war, stand bei der Zahl der Meldungen wieder an erster Stelle. Solche Inhalte machten mit 8529 Fällen 49 Prozent aus (2023: 39 Prozent). Der zweitgrößte Anteil geht auf das Konto von Darstellungen des sexuellen Missbrauchs Minderjähriger mit 46 Prozent (8077 Fälle). Die Zahl dieser Beschwerden ist im Vergleich zum Vorjahr rückläufig: 2023 kamen 12.918 Fälle auf 57 Prozent der begründeten Eingaben.

Die FSM führt das insbesondere darauf zurück, dass es 2024 weniger Massenmeldungen ausländischer Partnerorganisationen etwa über den Hotline-Verbund Inhope gegeben habe. KI-generierte Darstellungen sexuellen Kindesmissbrauchs machten der Statistik zufolge nur einen Bruchteil der Meldungen aus. Nutzer hätten sich aber über KI-Bildgeneratoren beschwert, die genutzt werden könnten, um entsprechende Inhalte anzufertigen. "Virtuelle Kinderpornografie" hat unter den Missbrauchsdarstellungen nur einen Anteil von 1,7 Prozent. Die Internet Watch Foundation meldete jüngst dagegen einen hohen Anstieg von einschlägigen KI-erzeugten Bildern.

Informationen zu Missbrauchsmaterial, die auf deutschen Servern gespeichert sind, leitet die FSM sofort an das Bundeskriminalamt weiter und wendet sich im Notice-and-Takedown-Verfahren auch an den Hostprovider. Von der Meldung bei der Beschwerdestelle bis zur Löschung des Inhalts vergingen 2024 im Durchschnitt 1,5 Tage (2023: 1,2 Tage). Insgesamt liegt die Entfernungsquote in diesem Bereich bei 100 Prozent. Bei im Ausland gehosteten Missbrauchsdarstellungen informiert die Hotline den Hostprovider und leitet die Meldung zusätzlich an Inhope weiter. Die Löschquote lag dabei vier Wochen nach Erstmeldung bei 93 Prozent (2023: 87 Prozent).

Gesondert hervorheben die Prüfer, dass sich "Meldungen zu Videos mit Tierquälerei zu Unterhaltungszwecken" gehäuft hätten. Gezeigt werde oft die Tötung einer bestimmten Art von Primaten und vor allem deren Jungtiere im südostasiatischen Raum. Sie seien als "schwer entwicklungsgefährdend" eingestuft worden. Extremistische Inhalte auf Facebook, X, TikTok & Co. "waren oft codiert", merkt die FSM weiter an. So würden sie etwa hinter Emojis und anderen bildlichen Darstellungen verborgen.

Im Vergleich zum Vorjahr angestiegen sind die begründeten Beschwerden im Bereich Hasskriminalität, nämlich von 120 auf 222 Fälle. Das entspricht etwas über einem Prozent der gesamten berechtigten Eingaben. Es handelte sich erneut überwiegend um Darstellungen von Kennzeichen verfassungswidriger rechtsextremistischer oder islamistischer Organisationen. Darunter fielen auch KI-generierte Inhalte – hauptsächlich im Umfeld des Gaza-Kriegs.

(dahe)

Gesamten Artikel lesen