Künstliche Intelligenz

"VOLLBILD"-Recherche: So wird KI für Kinderpornografie missbraucht!

Die KI-Bilder werden auf Insta geteilt und führen auch zu einer Seite, über die reale Kinderpornografie geteilt wird.

Die Inhalte sind eklig: Unter bestimmten Hashtags werden auf Instagram tausende Bilder von Kindern und Jugendlichen in knapper Unterwäsche, Badesachen oder bestimmten Posen verbreitet. Die Bilder wurden mit Künstlicher Intelligenz erstellt. Das zeigen Recherchen von "VOLLBILD".

Newszone-Logo

Wie groß das Problem KI-Kindepornografie schon jetzt ist, hörst du hier:

Dauer

Wie groß das Problem KI-Kindepornografie schon jetzt ist, hörst du hier:

KI-Inhalte führen zu echter Kinderpornografie

Über die Accounts, die die Bilder auf Insta teilen, kommt man oftmals auf Community-Plattformen. Diese sind in den Profilen verlinkt. "VOLLBILD" hat herausgefunden, dass darunter auch eine japanische Seite ist. Diese ist dem BKA bekannt. User verlinken dort wiederum Seiten, die echte Kinderpornografie verbreiten. Das hat die "Internet Watch Foundation" bestätigt.

KI-Pornografie: Ein Trigger für Pädophile

Professor Klaus Michael Beier ist Direktor des Instituts für Sexualwissenschaften und Sexualmedizin an der Charité in Berlin. Er sagt: KI-Kinderpornografie und echte Kinderpornografie täusche pädophilen Menschen vor, dass Kinder sogar Sex mit Erwachsenen wollen würden. Dazu passt auch eine Studie der finnischen NGO "Protect Childen". An dieser haben 8.000 Menschen teilgenommen, die sich Kinderpornografie angesehen haben. Ein Drittel davon hat danach Kontakt zu Kindern gesucht.

Hier kannst du dir die "VOLLBILD"-Doku zu dem Thema anschauen:

Wenn du sexualisierte Gewalt erfährst, kann dir hier geholfen werden:

Stand
Autor/in
Niklas Behrend
Niklas Behrend
Melissa Koser
Profilbild Melissa Koser

Quellencheck

Wo haben wir unsere Infos her? Wir sagen es dir!

Most Wanted