Traurig blickt das Mädchen in die Kamera. Die blonden Haare sind zu zwei Zöpfen geflochten, die gestreifte Häftlingskleidung ist akkurat zugeknöpft. An der Lippe ist eine kleine Wunde zu erkennen. Laut dem Beschreibungstext dieses Facebook-Beitrags handelt es sich um die 14 Jahre alte Czesława Kwoka, die 1942 nach Auschwitz deportiert und Anfang des folgenden Jahres im Konzentrationslager ermordet wurde. Das Bild des polnischen Mädchens wurde mit Künstlicher Intelligenz (KI) erstellt.
Der Vergleich mit den echten Registrierungsfotos, die von Kwoka in Auschwitz gemacht wurden und heute in der Gedenkstätte ausgestellt sind, offenbart die Problematik solcher KI-Bilder. Zu lang die Haare, zu makellos die Haut, zu ordentlich die Kleidung. Auf den echten Fotos ist die Wunde an der Lippe deutlich größer, die Haare Kwokas sind kurz geschoren. Das beschönigte KI-Bild hat auf Facebook mehr als 20.000 Likes erhalten. Rund 130.000 Nutzer folgen der Seite, die es veröffentlicht hat.
Gedenkstätten wenden sich in offenem Brief an die Plattformbetreiber
KI-generierte Holocaustbilder fluten die sozialen Medien. Vor allem auf Facebook und Tiktok werden sie verbreitet. Manche zeigen reale Personen, rekonstruieren historische Aufnahmen oder färben Schwarz-Weiß-Fotografien ein. Andere zeigen erfundene Szenen aus Konzentrations- und Vernichtungslagern.
Das beschönigte Registrierungsbild von Czesława Kwoka wurde mit KI erstellt.Facebook/Unknown UnhiddenSo etwa fünf junge Mädchen, die im Lager einen Schneemann bauen. Einen Mann in einer Baracke, der mit einem kleinen Jungen einen Löffel Suppe teilt. Eine Krankenschwester, die befreite Häftlinge mit Medizin versorgt. All diese Bilder sind mit Beschreibungstexten versehen, die die Geschichten der Abgebildeten erzählen. Doch diese Menschen und Szenen hat es so nie gegeben.
Paweł Sawicki von der Gedenkstätte Auschwitz-Birkenau beobachtet die zunehmende Verbreitung solcher Inhalte mit Sorge: „Wir haben es mit immer mehr fabrizierten Bildern zu tun. KI-generierte Fotos und Videos vom Holocaust stellen eine Verfälschung von Geschichte dar. Es ist ein großes Problem, dass die Plattformen nicht ausreichend dagegen vorgehen.“
Erst kürzlich forderten deutsche Gedenkstätten, die Teil des Netzwerks „Digital History and Memory“ sind, die Plattformbetreiber in einem offenen Brief dazu auf, ihre Richtlinien zu KI-Inhalten zu verschärfen.
Das Phänomen, dass KI-generierte Beiträge massenhaft auf Social Media verbreitet werden, nennt man „AI-Slop“ (KI-Schrott). Eine Untersuchung des KI-Dienstleisters Originality.ai hat ergeben, dass Ende 2024 mehr als 41 Prozent der Beiträge auf Facebook KI-generiert waren. Vor der Einführung von ChatGPT und anderen KI-Anwendungen lag dieser Wert noch bei durchschnittlich fünf Prozent.
Laut einer Studie der gemeinnützigen Organisation AI Forensics von 2025 war jedes vierte Video auf Tiktok von einer KI erstellt worden. Mehr als 80 Prozent der auf Tiktok veröffentlichten KI-Inhalte sind nach Angaben von AI Forensics obendrein in einem fotorealistischen Stil gehalten.
Die Bilder verharmlosen und romantisieren die NS-Verbrechen
„Es ist ein großes Problem von generativer KI, dass massenhaft fotorealistische Bilder und Videos produziert werden“, sagt Christoph Bareither, Professor für Empirische Kulturwissenschaft an der Universität Tübingen. „Es werden vermeintlich authentische Inhalte gezeigt, die aber in keiner Weise authentisch sind, sondern durch starke Emotionalisierung Aufmerksamkeit auf sich ziehen sollen.“
Diese Emotionalisierung wird dadurch verstärkt, dass bestimmte Topoi bedient werden: eine Verharmlosung der NS-Verbrechen, das Fördern antisemitischer Stereotype und Beschönigen von Tätererzählungen. Gleichzeitig romantisieren zahlreiche Beiträge die historischen Ereignisse auf groteske Weise.
Im Beschreibungstext des Bildes, auf dem der Mann seine Suppe mit einem Jungen teilt, heißt es, dieser Akt verdeutliche „die tiefgreifende Symbolik kleiner Gegenstände in Momenten extremen Leidens“.
Zu dem Bild, das die Mädchen mit dem Schneemann zeigt, wird eine ganze Geschichte gesponnen: „Als ein Wachmann den Schneemann zerstört, wird die allgegenwärtige Macht und Grausamkeit des Lagers noch verstärkt, doch die Kinder entscheiden sich, ihn in dieser Nacht wieder aufzubauen.“
Auch wenn heute noch viele KI-Bilder als Fakes enttarnt werden können, wird das in Zukunft immer schwieriger werden. „Die größte Gefahr ist, dass die Verbreitung solcher Bilder dazu führen kann, dass die Authentizität echter Holocaustaufnahmen angezweifelt wird“, sagt Mykola Makhortykh. Er forscht an der Universität Bern zum Einfluss von Künstlicher Intelligenz auf die Erinnerungskultur.
Diese Sorge teilt auch Paweł Sawicki: „Solche Bilder können zur Holocaustleugnung beitragen und Menschen in die Karten spielen, die die historischen Ereignisse infrage stellen.“
Hinter den Beiträgen stecken sogenannte „Content-Farms“
In Auschwitz wurden nach Angaben der Gedenkstätte mehr als 40.000 Fotos gemacht, um die Menschen zu registrieren. Authentische Bilder, die die Realität in den Lagern zeigen, gibt es dagegen kaum. Die meisten Aufnahmen sind Propagandafotos der Nationalsozialisten oder wurden von den Alliierten nach der Befreiung gemacht.
Czesława Kwoka wurde 1942 nach Auschwitz verschleppt.Gedenkstätte Auschwitz-BirkenauUm den KI-Fakes entgegenzuwirken, sind immer mehr Institutionen mit eigenen Kanälen auf Social Media aktiv, so auch die KZ-Gedenkstätte Neuengamme. „Ich bin überzeugt, dass auch Gedenkstätten digital auffindbar sein müssen, um so eine Rolle im Alltag der Menschen zu spielen“, sagt Iris Groschek, die den Onlineauftritt der Gedenkstätte verantwortet.
Die Gedenkstätte Auschwitz-Birkenau klärt auf Facebook und Linkedin über KI-Fakes auf, betreibt aber keinen Tiktok-Kanal. Weil es wegen der Kürze der Videos sehr schwierig sei, Inhalte von guter Qualität zu produzieren, sagt Sawicki. Aber auch aus Datenschutzbedenken.
„Für die Gedenkstätten ist das eine riesige Herausforderung. Wie weit lassen sie sich auf die Strategien von Emotionalisierung ein? Einerseits sollen sie die historische Faktenbasis bewahren, andererseits aber auch Menschen erreichen, um ihnen ihr Wissen zu vermitteln“, sagt Christoph Bareither.
„Algorithmische Sortiersysteme sind darauf ausgerichtet, möglichst viel Interaktion mit den Inhalten herbeizuführen. Je länger die Menschen dabeibleiben, desto mehr Werbung kann angezeigt werden und desto mehr Einnahmen generieren die Plattformen“, sagt er. Das führe dazu, dass die Empfehlungssysteme der Plattformen hochgradig emotionalisierende Inhalte bevorzugen, die zum Teilen und Kommentieren anregen.
Die Inhaltsproduzenten folgten dieser Logik. Nach Angaben von AI Forensics verbreiten automatisiert agierende Kanäle mehr als 80 Prozent der KI-Inhalte auf Tiktok. Die britische Rundfunkanstalt BBC hat im vergangenen Jahr zu KI-generierten Holocaustbildern auf Facebook recherchiert, dass hinter den meisten dieser Beiträge ein Netzwerk pakistanischer Produzenten steckt, sogenannte Content-Farms.
KI-Bilder stellen keinen Verstoß gegen Metas Richtlinien dar
Wie gehen die Plattformbetreiber also gegen solche Beiträge und Kanäle vor? Meta, der Mutterkonzern von Facebook und Instagram, äußerte sich auf Anfrage nicht, wie mit KI-generierten Holocaustinhalten auf den eigenen Plattformen umgegangen wird, und verwies auf die allgemeinen Richtlinien des Konzerns. Demnach lösche die Plattform Beiträge, die „menschenverachtende Sprache“ und „schädliche Stereotype“ verwendeten. Dazu zähle man die „Verleugnung des Holocausts“.
In Metas KI-Richtlinien steht lediglich, dass KI-generierte oder durch KI veränderte Inhalte gekennzeichnet werden können, nicht jedoch gekennzeichnet werden müssen. Erforderlich sei eine Kennzeichnung zwar bei Inhalten, die „fotorealistische Videos oder realistisch klingende Audios enthalten“, für Bilder gelte diese Anforderung jedoch nicht.
Etwas besser sieht es bei Tiktok aus. Eine Sprecherin teilte auf Anfrage der F.A.Z. mit, KI-Inhalte, die sich auf den Holocaust beziehen, würden als solche gekennzeichnet. Außerdem stelle die Plattform bei entsprechenden Beiträgen die Option „Fakten über den Holocaust lernen“ bereit. Grundsätzlich seien KI-generierte Inhalte, die sich auf historische Ereignisse beziehen, auf der Plattform zulässig, sofern sie „keine hasserfüllten, missbräuchlichen oder extremistische Narrative fördern und keine Fehlinformationen enthalten“.
Der Beschreibungstext zu diesem KI-generierten Bild erfindet eine ganze Geschichte.Facebook/History IconFür die Überprüfung der Beiträge setze man auf eine Kombination aus automatisierten Systemen und menschlichen Moderationsteams. Dabei gehe man besonders sensibel vor, „um sicherzustellen, dass das historische Leid der Opfer weder trivialisiert, verzerrt noch falsch dargestellt wird“. Doch wer legt fest, was trivialisiert? Was verzerrt?
Eine lückenlose Kennzeichnung der Beiträge ist der erste Schritt. Nach Vorgabe der im August 2024 in Kraft getretenen KI-Verordnung der Europäischen Union, deren Regeln jährlich gestaffelt und Stück für Stück ausgerollt werden, müssen die Plattformbetreiber vom 2. August dieses Jahres an alle KI-generierten Texte, Fotos und Videos kenntlich machen.
Jeder Zehnte kennt den Begriff „Holocaust“ nicht
In der Theorie klingt das einfach, in der Realität ist es das nicht. Studien zeigen, dass viele Social-Media-Plattformen nicht alle Inhalte zuverlässig kennzeichnen oder entfernen. Mitunter gingen blockierte Kanäle wieder online. Wie die Aufsichtsbehörden solche Verstöße kontrollieren und sanktionieren, wird sich zeigen.
Die Gefahr, dass KI-generierte Holocaustbilder die historischen Ereignisse verfälschen und verharmlosen, ist unverkennbar. Laut dem Holocaust Knowledge and Awareness Index der Jewish Claims Conference wissen 40 Prozent der 18 bis 29 Jahre alten Befragten in Deutschland nicht, wie viele Menschen im Holocaust ermordet wurden. Jeder Zehnte gab an, den Begriff „Holocaust“ nicht zu kennen.
„Wir müssen uns auch die Frage stellen, welchen Effekt solche Bilder auf uns haben, welche Emotionen sie hervorrufen, wie sich unsere Einstellungen gegenüber den geschichtlichen Ereignissen verändern“, sagt Mykola Makhortykh. „Es gibt Studien, die zeigen, dass Menschen abstumpfen können, wenn sie vermehrt mit Aufnahmen von Gewaltverbrechen konfrontiert werden.“
Umso wichtiger ist es, dass die Plattformbetreiber KI-generierten Holocaustbildern Einhalt gebieten. Die Erinnerungsarbeit muss in den Händen der Institutionen bleiben und darf nicht von Content-Erstellern auf Social Media vereinnahmt werden.

vor 3 Stunden
1







English (US) ·