Die Inhalte sind eklig: Unter bestimmten Hashtags werden auf Instagram tausende Bilder von Kindern und Jugendlichen in knapper Unterwäsche, Badesachen oder bestimmten Posen verbreitet. Die Bilder wurden mit Künstlicher Intelligenz erstellt. Das zeigen Recherchen von "VOLLBILD".
KI-Inhalte führen zu echter Kinderpornografie
Über die Accounts, die die Bilder auf Insta teilen, kommt man oftmals auf Community-Plattformen. Diese sind in den Profilen verlinkt. "VOLLBILD" hat herausgefunden, dass darunter auch eine japanische Seite ist. Diese ist dem BKA bekannt. User verlinken dort wiederum Seiten, die echte Kinderpornografie verbreiten. Das hat die "Internet Watch Foundation" bestätigt.
KI-Pornografie: Ein Trigger für Pädophile
Professor Klaus Michael Beier ist Direktor des Instituts für Sexualwissenschaften und Sexualmedizin an der Charité in Berlin. Er sagt: KI-Kinderpornografie und echte Kinderpornografie täusche pädophilen Menschen vor, dass Kinder sogar Sex mit Erwachsenen wollen würden. Dazu passt auch eine Studie der finnischen NGO "Protect Childen". An dieser haben 8.000 Menschen teilgenommen, die sich Kinderpornografie angesehen haben. Ein Drittel davon hat danach Kontakt zu Kindern gesucht.
Hier kannst du dir die "VOLLBILD"-Doku zu dem Thema anschauen:
Wenn du sexualisierte Gewalt erfährst, kann dir hier geholfen werden: