Generierte Fotos und Filme: Doku deckt auf, wie Kinder mithilfe von KI missbraucht werden

Die dritte Staffel des investigativen Formats "Vollbild" (SWR) startet am Montag, 8. Januar, in der ARD Mediathek. In zwölf neuen Folgen geht es darum, wie groß die Bedrohung von KI ist. Denn die Technologie wird auch missbraucht, um Kinder- und Jugendpornografie zu erstellen. (Bild: SWR / Vollbild)
Die dritte Staffel des investigativen Formats "Vollbild" (SWR) startet am Montag, 8. Januar, in der ARD Mediathek. In zwölf neuen Folgen geht es darum, wie groß die Bedrohung von KI ist. Denn die Technologie wird auch missbraucht, um Kinder- und Jugendpornografie zu erstellen. (Bild: SWR / Vollbild)

Die dunkle Seite der KI: Eine TV-Doku zeigt nun, wie künstliche Intelligenz verwendet wird, um kinder- und jugendpornografische Inhalte zu erstellen. Experten warnen

Künstliche Intelligenz scheint kaum mehr aufzuhalten. Doch schon jetzt warnen Experten vor den Folgen - und die können auch für Kinder und Jugendliche fürchterlich sein, wie nun eine TV-Reportage aufdeckt. Die SWR-Investigativreihe "Vollbild" zeigt, wie KI zunehmend missbraucht wird, um Kinder- und Jugendpornografie zu erstellen.

Dabei geht es nicht mehr nur um komplett künstliche Abbildungen, sondern auch um echte Kinderbilder, die als Vorlage genutzt werden. In zwölf neuen Folgen dreht in der dritten Staffel der Reihe alles um den Vormarsch der Künstlichen Intelligenz. Ab Montag, 8. Januar, sind die Episoden im vier-Wochen-Rhythmus in der ARD Mediathek verfügbar.

Unter dem Titel "Dein Kind im Porno? Unfreiwillig nackt online" klärt die Doku über den möglichen Missbrauch der KI auf: Verheerend sei beispielsweise, dass über Social-Media-Plattformen wie Instagram künstlich generierte pornografische Bilder von Kindern und Jugendlichen verbreitet werden.

KI-generiert oder echt: Wo liegt der Unterschied?

Wie die "Vollbild"-Redakteure und Redakteurinnen herausfinden konnten, posten die Verantwortlichen auf Accounts, die Bilder von Kindern und Jugendlichen in knapper Unterwäsche, Badebekleidung oder in sexualisierten Posen zeigen, auch Links zu externen Plattformen. Dort würden Userinnen und User teilweise auch Abbildungen von explizitem, KI-generierten Kindesmissbrauch finden. Worauf man achten sollte, wie die Beamten mit dem Problem umgehen, und wovor Experten warnen, zeigt die Doku-Reihe.

"Leute verkaufen Zugang zu solchen Bildern oder lassen sich fürs Erstellen bezahlen", erklärt Dan Sexton von der Internet Watch Foundation. "Das ist nichts, was vielleicht in der Zukunft passieren könnte, sondern etwas, das bereits jetzt passiert". Auch wenn sich Soziale Medien gegen Kinderpornografie positionieren, gebe es laut Oberstaatsanwalt Markus Hartmann, der die Zentral- und Ansprechstelle Cybercrime (ZAC) in Nordrhein-Westfalen leitet, vor allem ein Problem: Für die Plattformbetreiber sei es alles andere als leicht, das fragliche Bildmaterial auszumachen.

Das BKA bestätigt diese Befürchtungen auf Anfrage der Vollbild-Redaktion: Alltägliche, reale Fotos könnten teilweise die Grundlage für KI-generierte Pornografie sein. Das macht es schwierig, die künstlichen Bilder von den echten zu unterscheiden - ressourcentechnisch ein großes Problem.