YouTube und X reagierten vor den Europawahlen nicht auf Desinformation

YouTube und X reagierten vor den Europawahlen nicht auf Desinformation

Youtube und X haben es oft versäumt, vor den Europawahlen gegen Desinformation vorzugehen. Das zeigte eine Analyse von mehr als 1.300 Beiträgen auf verschiedenen Online-Plattformen in 26 EU-Ländern.

Der Bericht, der von Maldita.es veröffentlicht wurde, einer 2018 gegründeten spanischen Organisation zur Überprüfung von Fakten, analysiert, wie fünf sehr große Online-Plattformen - Facebook, Instagram, TikTok, X und Youtube - im Vorfeld der Europawahlen Desinformationen auf dem gesamten Kontinent entlarvt haben.

Die analysierten Beiträge wurden von Fact-Checking-Organisationen, die am Projekt Elections24Check beteiligt sind, in den vier Monaten vor den Wahlen gesammelt, einschließlich des 6. Juni, dem ersten Tag der EU-Wahl.

Am schlechtesten schnitt die Video-Sharing-Plattform YouTube ab. Bei 75 Prozent der desinformierenden Inhalte wurden keine sichtbaren Maßnahmen ergriffen, und in 80 Prozent der Fälle, in denen Maßnahmen ergriffen wurden, wurde ein allgemeiner Hinweis aufgenommen oder die Quelle des Videos als staatliches Medium bezeichnet, ohne zu erklären, warum der Inhalt selbst falsch war. Dem Bericht zufolge wurden einige dieser Videos 500.000 Mal angeklickt.

Ein Sprecher von YouTube sagte Euronews, dass das Unternehmen "strenge Richtlinien gegen schädliche Fehlinformationen hat, an deren strikter Durchsetzung unsere Teams rund um die Uhr arbeiten, auch während der EU-Wahlperiode. Wir haben zudem Wähler in der ganzen EU durch unser Empfehlungssystem mit zuverlässigen Nachrichten- und Informationsquellen versorgt", fügte der Sprecher hinzu.

Europäische Kommission: Auskunftsersuchen an 17 große Online-Plattformen

Auch die Social-Media-Plattform X ergriff in 70 % der Fälle keine sichtbaren Maßnahmen, und nur 15 % der Beiträge, die bereits von unabhängigen europäischen Faktenprüfern markiert worden waren, waren mit erläuternden Kommentaren der Community versehen.

Von den 20 am häufigsten aufgedeckten Beiträgen, bei denen die Plattformen nichts unternahmen, wurden 18 auf X gehostet und jeweils mehr als 1,5 Millionen Mal aufgerufen.

Die Online-Plattformen reagierten insgesamt am seltensten auf Desinformationsbeiträge, die sich gegen Migranten richteten (in 57 % der Fälle wurden keine Maßnahmen ergriffen), gefolgt von Desinformationen über die Integrität von Wahlen (56 %). Sowohl YouTube als auch TikTok hatten eine Reaktionsrate von 0% bei Desinformationen, die sich gegen Migranten richteten.

Große Online-Plattformen sind nach dem EU-Gesetz über digitale Dienste (DSA) verpflichtet, Maßnahmen zur Bekämpfung von Desinformation zu ergreifen, beispielsweise durch Kennzeichnung oder Entfernung von Inhalten.

Im Dezember 2023 leitete die Europäische Kommission im Rahmen des DSA eine Untersuchung über den Umgang von X mit Risikomanagement, Inhaltsmoderation, Dark Patterns, Werbetransparenz und Datenzugang für Forscher ein.

Facebook und Instagram: etwas bessere Leistung

Dem Bericht zufolge konnte die in chinesischem Besitz befindliche Video-Sharing-Plattform TikTok bei 40 % der Beiträge, die Desinformationen enthielten, sichtbare Maßnahmen ergreifen.

Bei Instagram, das zu Meta gehört, waren es 70 % und bei Facebook 88 %. Während die meisten Maßnahmen von Facebook in Bezug auf Desinformationen darin bestanden, die Fakten zu verifizieren, den ursprünglichen Inhalt online zu belassen und den Kontext hinzuzufügen (77 %), bestand die häufigste Maßnahme von TikTok darin, den Inhalt zu entfernen (32 %).

Die Meta-Plattformen sind auch Gegenstand einer laufenden Untersuchung im Rahmen der DSA. Die Kommission erklärte im April, sie sei besorgt, dass sie für russische Netzwerke anfällig seien und nicht über die richtigen Instrumente verfügten, um gegen irreführende Werbung und politische Inhalte auf ihren Diensten vorzugehen.

Die Muttergesellschaft von TikTok, ByteDance, wird ebenfalls untersucht: Im Februar begann die Kommission, den Jugendschutz, die Transparenz der Werbung, den Datenzugang für Forscher und das Risikomanagement für süchtig machende Designs und schädliche Inhalte zu untersuchen.

In einer Stellungnahme gegenüber Euronews sagte ein Sprecher der Kommission, dass die Unternehmen "sehr gut vorbereitet" gewesen seien, nachdem sie ihre Richtlinien für die Wahl von Plattformen im Rahmen der DSA sowie einen Stresstest mit großen Plattformen durchgeführt hätten, und dass es am Wahlwochenende "keine größeren Zwischenfälle" gegeben habe.

Dieser Artikel wurde mit Kommentaren von der Kommission und YouTube aktualisiert.