Deepfake-Pornos in Südkorea: Wer sein Gesicht zeigt, wird Opfer

vor 1 Tag 2

Ein Foto des Gesichts. Mehr braucht es nicht, um zum Opfer zu werden. Der bei Instagram geteilte Schnappschuss, das Urlaubsselfie bei Facebook, das Porträt auf der Internetseite des Arbeitgebers. Aus all diesen Bildern lässt sich mithilfe Künstlicher Intelligenz (KI), oft verpackt in handlichen Apps und bedienfreundlichen Programmen, ein Pornofilm erstellen. Rasend schnell und kostenlos. Dafür wird das Gesicht des Opfers von der KI auf einen Körper „projiziert“, der dann in Videos sexuelle Handlungen vollzieht. Für Laien ist der Fake immer seltener erkennbar.

Zugang zu allen FAZ+ Beiträgen
5 Monate für 5 € pro Monat testen

Zugang zu allen FAZ+ Beiträgen
5 Monate für 5 € pro Monat testen

  • Mit einem Klick online kündbar

Ole Kaiser


Gesamten Artikel lesen