"Deepfake"-Videos werden zum wachsenden Problem - nicht nur für Promis

Hollywood-Star Scarlett Johansson fiel in der Vergangenheit bereits mehrfach der Deepfake-Technologie zum Opfer. (Bild: Jordan Strauss/Invision/AP Photo)

Deepfakes gehören zu den Schattenseiten des technologischen Fortschritts: Wenn die moderne Videotechnik so fortgeschritten ist, dass man zwischen Realität und Fake nicht mehr unterscheiden kann, kann das leicht zu einem massiven Problem werden – derzeit sind vor allem Prominente betroffen, die weiteren Folgen können aber für jedermann gravierend und enorm belastend sein.

Was sind Deepfakes?

Deepfakes sind durch künstliche Intelligenz generierte Algorithmen, die es ermöglichen, Gesichter genau zu scannen und diese auf bereits vorhandenes Videomaterial zu setzen. Was oft zu witzigen Persiflagen und harmlosen Witzvideos führt, kann aber auch ganz anders ausgenutzt und missbraucht werden. Die US-Schauspielerin Scarlett Johansson beispielsweise kennt die Gefahr von Deepfakes nur allzu gut: Deepfake-Macher benutzen ihr Gesicht immer wieder für Pornos, wollen den Anschein erwecken, der Hollywood-Star hätte in einem solchen Film mitgespielt.

“Hoffnungslos”: Scarlett Johansson hat den Kampf aufgegeben

“Natürlich trifft mich das nicht so sehr, weil Leute im Normalfall davon ausgehen, dass das in einem Porno nicht wirklich ich bin”, erklärte Johansson gegenüber “Washington Post”. Eine legale Verfolgung der Fake-Quellen habe sie mittlerweile aufgegeben. Das sehe sie als “ein sinnloses Unterfangen, vor allem weil das Internet ein riesiges, dunkles Wurmloch ist, das sich selbst auffrisst. Es gibt traurigerweise weit verstörendere Dinge im Darknet. Ich glaube, es liegt an jedem selbst, einen individuellen Kampf für seine Rechte zu führen und Schaden einzuklagen.” Sie habe diesen Weg nur allzu oft versucht, aber: “Tatsache ist, dass es ein hoffnungsloses Unterfangen ist, sich gegen das Internet schützen zu wollen.”

Nicht nur Promis sind von Deepfakes betroffen

Auch Schauspielerinnen wie “Wonder Woman”-Star Gal Gadot und “Game of Thrones”-Darstellerin Maisie Williams sind betroffen, doch Deepfakes sind längst nicht nur eine Gefahr für Prominente. Gefälscht oder nicht: Sie sind ein Mittel zur Belästigung, Bedrohung und Herabwürdigung von Frauen. Dagegen gerichtlich vorzugehen scheint indes nur wenig erfolgsversprechend – obwohl es sich dabei um eine Verletzung der Persönlichkeitsrechte und Persönlichkeitsdiebstahl handelt. Da es sich nicht kontrollieren lässt, welches Video wo landet, kann dies eine absurde Eigendynamik annehmen. Das weiß auch Scarlett Johansson: Einer der Deepfake-Pornos, der ihr Gesicht benutzt, wurde rund 1,5 Millionen mal gesehen. Der Schauspielerin zufolge ist es nur eine Frage der Zeit, bis jeder Gefahr läuft, für derartige Zwecke missbraucht zu werden. Sie befürchtet, dass es für Frauen und Kinder zu spät sein könnte, sich gegen den “nahezu gesetzlosen (Online)-Abgrund” zu schützen.

Ein Video, das anhand einer gerenderten Fake-Rede von Barack Obama zeigt, wie leicht sich Videos fälschen lassen, sorgte für Aufsehen. (Bild: AP Photo)

Die Einsatzmöglichkeiten von Deepfake-Videos sind aber längst nicht nur auf Pornos beschränkt. Wie ein Demonstrationsvideo einer gefälschten Rede von Barack Obama zeigt, lässt sich damit auch Sprache täuschend echt fälschen. Jeder, der die Technologie beherrscht, kann jeder x-beliebigen Person Worte und Sätze in den Mund legen, die für sie zum Problem werden könnten.

Manche Firmen versuchen, dem entgegenzuwirken. Google, deren KI-Software TensorFlow oft für derartige Videos missbraucht wurde, bietet mittlerweile eine Meldefunktion für Deepfake-Videos an. Andere wie Reddit entfernen Foren, bei denen mit Deepfakes gehandelt wird.

Ein Gegenwirken ist auch dringend notwendig: In einschlägigen Foren wird laut “Der Standard” der Service angeboten, Videos mit den gewünschten Gesichtern zu erstellen. Es kann also jeden treffen – ob etwaige Gegenmaßnahmen erfolgreich sein können oder ob man der Technologie ausgeliefert ist und der Grat zwischen Realität und Fake immer mehr verschwimmt, wird sich zeigen.