Twitter-Untersuchung zeigt, woher Rassismus nach EM-Finale kam

Die allermeisten rassistischen Hasskommentare gegen drei Schwarze Fußballspieler der englischen Nationalmannschaft stammten nicht aus dem Ausland.

Rassismus in England kein einheimisches Problem? Eine Twitter-Untersuchung zeigt das Gegenteil. (Bild: Dave Rushen/Getty Images)
Rassismus in England kein einheimisches Problem? Eine Twitter-Untersuchung zeigt das Gegenteil. (Bild: Dave Rushen/Getty Images)

Nach dem Finale der Europameisterschaft, das Italien gewann, kam es online zu rassistischen Hasskommentaren gegen drei Schwarze Spieler und Elfmeter-Fehlschützen der unterlegenen Engländer.

Diese Woche nun, rund einen Monat später, hat die britische Twitter-Niederlassung mehrere Tweets und einen Blogpost zu dem Vorfall veröffentlicht.

Darin teilt das soziale Netzwerk die Ergebnisse einer Untersuchung mit – und widerlegt nicht nur einen populären Erklärungsversuch konservativer Stimmen zur Herkunft des Rassismus, sondern zeigt auch das Problem eines weithin unterstützen Lösungsansatzes, der in Zukunft angeblich digitalen Rassismus verhindern würde, auf.

Keine ausländische Verschwörung

Damals vermuteten viele englische Kommentator*innen, die rassistischen Hasskommentare auf Twitter stammten mehrheitlich aus dem Ausland und seien kein einheimisches Problem. Twitter widerlegt das nun: „Die meisten von uns entfernten Hasskommentare stammten – mit großem Abstand – aus dem Vereinigten Königreich.“

Lesen Sie auch: Rassismus: Elf Festnahmen nach Attacken auf Sancho und Co.

Die Website Mashable erinnert daran, dass damals beispielsweise Dominique Samuels – sie beschreibt sich selbst als Mitte-Rechts – den Ursprung der rassistischen Hasskommentare im Ausland vermutete. Oder Michael Fabricant, Mitglied von Boris Johnsons Conservative Party, der „ausländische Mächte“ verdächtigte, den Rassismus als Instrument zu nutzen, um „unsere Gesellschaft zu destabilisieren“.

Mehrheitlich stolz, nicht hasserfüllt

Insgesamt hat Twitter in der Finalnacht und am Folgetag der Europameisterschaft 1.622 rassistische Tweets automatisiert identifiziert und entfernt. Davon hätten nur zwei Prozent mehr als 1.000 Impressionen generiert.

Was die Untersuchung auch zeigt: Rassist*innen sind eine laute Minderheit, die meisten Briten hingegen waren stolz auf ihre Nationalmannschaft. So wurde das Wort „proud“ laut Twitter am Tag nach dem EM-Finale sehr viel häufiger genutzt als an jedem anderen Tag des Jahres davor.

Petition zur Identifikationspflicht findet viele Unterstützer*innen

Zusätzlich relativiert Twitter einen populären Lösungsansatz, der nach dem Vorfall – wieder einmal – ins Spiel gebracht wurde: Er besagt, die ausweisliche Identifikation solle Voraussetzung zur Nutzung von sozialen Netzwerken werden. Eine Online-Petition mit dem Vorschlag wurde mittlerweile knapp 700.000 mal unterzeichnet. 100.000 wären notwendig gewesen, damit der Vorschlag im Parlament diskutiert wird.

Aber: Eine solche Pflicht hätte den Vorfall sehr wahrscheinlich nicht verhindert. „Von den von uns gesperrten Accounts sind 99 Prozent der Besitzer*innen identifizierbar“, schreibt Twitter.

Kein Empfinden für eigene Privilegien

Netz-Experte Sascha Lobo arbeitet sich regelmäßig an der auch in Deutschland immer wieder diskutierten „Klarnamenpflicht“ im Internet ab. Diese hält er für „ahnungslos bis digitalfeindlich“. Die Forschungslage widerlege die Annahme, Menschen würden „höchstens unter falschem Namen Monstrositäten von sich geben“. Dazu komme, dass Behörden „eindeutige Tatverdachte wegen Überlastung, mangels Netzsachkunde oder aufgrund zynischer Gesamteinstellung“ nicht verfolgten.

Lobo fordert deshalb ein Umdenken: „Anonymität und Pseudonymität im Netz sind in erster Linie Schutzinstrumente“. Klarnamenpflicht würde ohnehin „angreifbare und marginalisierte Menschengruppen“ gefährden. Bei der Debatte würden laut Lobo die Vertreter*innen der Klarnamenpflicht ihre eigene „Position größter Privilegiertheit“ vergessen. Für ihn wäre ein „Klarnamennetz ein Paradies für Stalker, Mobber und Todeslistenfans“.

Twitter will automatisiert Accounts blocken

Twitter präsentiert hingegen einen eigenen Lösungsansatz, an dem der Kurznachrichtendienst arbeitet: Das automatisierte Blocken von Accounts, die „verletzende Sprache“ nutzen. Denn, so heißt es, „Twitter sei kein Ort für rassistische Beschimpfungen“.

Dass das fern der Wahrheit ist, zeigen immer wieder Untersuchungen. Und ob Algorithmen automatisiert in jedem Fall „verletzende Sprache“ von etwa Parodien, Satire oder Berichterstattung der Presse unterscheiden können, darf bislang zumindest angezweifelt werden.

Im Video: Zensur: Chinesische App sperrt LGBTQ-Konten