Erpresst mit Sex-Video: wie Kriminelle künstliche Intelligenz nutzen

Erpresst mit Sex-Video: wie Kriminelle künstliche Intelligenz nutzen

In Griechenland hat die Zahl von Deepfake-Porno-Videos in den vergangenen Jahren massiv zugenommen. Kriminelle nutzen online verfügbare und kostenlose KI-Tools, um Fotos und Videos aus sozialen Medien in gefälschte Amateur-Pornovideos zu verwandeln. In Hunderten Fällen sind die Opfer minderjährige Schülerinnen und Schüler.

"KΙ hat es den Schurken leicht gemacht", sagt Manolis Sfakianakis, Gründer von CSI Cybersecurity Institute. "Sie finden die KI-Tools, die sehr einfach zu bedienen sind, nehmen Bilder, das Gesicht und fügen es in ein Erotik-Video ein, das sie dann auf verschiedenen Plattformen verbreiten.

Das Ziel der Personen sei es, Rache zu nehmen, Lösegeld zu erpressen oder einfach nur Spaß zu haben, erklärt Sfakianakis. "Wir haben Hunderte Fälle von Kindern, deren Gesichter für Deepfake-Videos verwendet wurden, die unter Mitschülern verbreitet wurden."

In Griechenland wurde der erste Fall, bei dem künstliche Intelligenz zur Erstellung eines gefälschten Sex-Videos verwendet wurde, vor etwa drei Jahren bekannt. Das Opfer war eine minderjährige Schülerin und der Täter ein Klassenkamerad. Die Ergebnisse der Ermittlungen schockierte die Behörden.

CyberX-Geschäftsführerin Kelly Ioannou erklärt, dass ihr Mitschüler Fotos aus ihren sozialen Medien so benutzte habe, dass es so aussah, als würde das Opfer an einem Sex-Video teilnehmen. "Als die Untersuchung abgeschlossen war, fanden wir heraus, dass das Opfer die beste Schülerin der Klasse war, der Täter war der zweitbeste Schüler, und er wollte sie nur in Misskredit bringen."

In den vergangenen zehn Jahren haben sich in Griechenland die Fälle, in denen von Verletzung der Privatsphäre die Rede ist, verdreifacht. Die Regierung will nun ein neues Gesetz auf den Weg bringen, das den Opfern helfen soll, gefälschtes Material so schnell wie möglich im Internet zu löschen.