YouTube und Facebook entfernen Millionen Beiträge

Auf YouTube wurden in den vergangenen Monaten Millionen Beiträge gelöscht. Foto: Britta Pedersen
Auf YouTube wurden in den vergangenen Monaten Millionen Beiträge gelöscht. Foto: Britta Pedersen

Terrorismus, Freizügigkeit, Propaganda: Immer wieder tauchen bei Facebook und YouTube unerwünschte Inhalte auf. Doch die Online-Firmen versuchen, gefährdende Beiträge rechtzeitig zu löschen. Nach eigenen Aussagen erreichen sie dabei inzwischen deutliche Fortschritte.

Redwood City/Menlo Park (dpa) - Software spielt bei YouTube inzwischen die Hauptrolle beim entfernen von Videos von der Plattform. Von den 8,3 Millionen Clips, die im Schlussquartal 2017 gelöscht wurden, entdeckten Maschinen gut 80 Prozent.

Rund drei Viertel dieser 6,7 Millionen Videos seien entfernt worden, bevor sie auch nur einmal von Menschen angesehen wurden, betonte die Google-Videoplattform in einem Blogeintrag. Den Fortschritt dabei illustrierte YouTube mit Videos mit extremistischen Inhalten, die weniger als zehn Mal angesehen wurden, bevor es gelang, sie zu löschen: Anfang 2017 lag der Anteil bei acht Prozent, nun ist es mehr als die Hälfte.

Die YouTube-Software greift dabei zum einen auf eine Datenbank mit bereits bekannten Videos zurück, die bei Versuchen, sie erneut hochzuladen, gestoppt werden. Zugleich analysiert sie auch zunehmend selbst Videoinhalte, um problematische Clips ausfindig zu machen und zur Prüfung zu markieren. Die endgültige Entscheidung wird dabei größtenteils von den Google-Mitarbeitern getroffen.

Bei den von Menschen gemeldeten Videos ging es in dem Quartal in 30 Prozent der Fälle um sexuell freizügige Inhalte und 27 Prozent der Meldungen verwiesen auf Clips mit Spam oder falschen Angaben. Terror-Propaganda war der Grund für 491 000 Meldungen - zwei Prozent der menschlichen Hinweise. Deutschland ist auf Platz fünf der Länder mit den meisten Meldungen von Nutzern nach Indien, den USA, Brasilien und Russland.

Auch Facebook geht nach eigenen Angaben härter denn je gegen extremistische Inhalte auf seiner Plattform vor: Im ersten Quartal 2018 löschte das weltgrößte Online-Netzwerk hunderttausende Beiträge mit Bezug zu den Terrororganisationen Islamischer Staat (IS) und Al-Kaida. Insgesamt seien 1,9 Millionen Beiträge entfernt oder mit Warnhinweisen versehen worden - doppelt so viele wie im vorangehenden Quartal, teilte Facebook mit. 99 Prozent davon wurden demnach nicht von Benutzern gemeldet, sondern von automatisierter Software und eigenen Prüfern entdeckt. Im Durchschnitt seien solche Beiträge für weniger als eine Minute auf der Plattform verfügbar, hieß es.

Zugleich veröffentlichte der Online-Dienst seine Definition von Terrorismus: «Jede Nichtregierungsorganisation, die vorsätzliche Gewalttaten gegen Personen oder Eigentum begeht, um eine zivile Bevölkerung, Regierung oder internationale Organisation einzuschüchtern, um ein politisches, religiöses oder ideologisches Ziel zu erreichen.» Regierungen hingegen dürften nach rechtlichem Verständnis unter bestimmten Umständen rechtmäßig Gewalt anwenden.

Mit dem Aufspüren extremistischer Beiträge befasst sich ein auf Terror-Inhalte spezialisiertes Team. Laut Facebook ist die Gruppe seit Juni vergangenen Jahres von 150 auf 200 Mitarbeiter angewachsen, weitere sollen hinzukommen.

Anfang März hatte die Europäische Kommission neue Richtlinien zur Entfernung terroristischer und anderer illegaler Inhalte auf Facebook und anderen Online-Plattformen erlassen, um den Druck auf die Anbieter zu erhöhen. Eine Statistik zum Löschen von Videos will YouTube künftig regelmäßig vorlegen. Der Google-Videoplattform und andere Online-Firmen war immer wieder vorgeworfen worden, unter anderem extremistischen Inhalte würden nicht schnell genug entfernt.