Hidden Headlines: Wird sich Wikipedia durch KI verändern?

Die Wikipedia könnte in Zukunft dank Künstlicher Intelligenz auf besseren Quellen beruhen. Kürzlich wurde eine KI-Anwendung vorgestellt, die genau das möglich machen soll.

Könnte KI das fehlende Puzzleteil sein, um die Wikipedia zu einer besseren Quelle für Informationen zu machen?
Könnte KI das fehlende Puzzleteil sein, um die Wikipedia zu einer besseren Quelle für Informationen zu machen?

Auf Wikipedia gibt es einen Eintrag, der heißt "Kritik an Wikipedia". Der ist ziemlich lang und spricht zahlreiche Punkte an, darunter "Zensur", "Machtmissbrauch", "Männliche Dominanz", "Lobbyismus" oder "Bezahltes Schreiben".

Ein weiterer Punkt ist auch die "Zweifelhafte Quellenlage". Zumindest die könnte sich in Zukunft dank einer neuen KI-Anwendung verbessern.

Warum der ganze Wirbel?

Im Journal "Nature Machine Intelligence" wurde vergangene Woche eine Studie veröffentlicht: Improving Wikipedia verifiability with AI, also etwa: So könnte KI die Nachprüfbarkeit von Fakten auf Wikipedia verbessern.

Die sei, heißt es, eine inhaltliche Voraussetzung für alle Inhalte, die auf der Online-Enzyklopädie veröffentlicht werden. Jede Behauptung sollte mit Quellen belegt sein. Nur: Die Qualität der Quellen zu bewerten und aufrechtzuerhalten, sei eine große Herausforderung – die jedoch mit Künstlicher Intelligenz gemeistert werden könnte.

Dazu hat ein Team um die Informatiker Fabio Petroni und Samuel Broscheit eine Anwendung programmiert und trainiert. Die prüft automatisch, ob Quellenangaben unter einem Wikipedia-Artikel korrekt sind und ob die Quelle vertrauenswürdig ist. Sollte die KI daran Zweifel haben, schlägt sie eine andere Quelle vor.

KI eröffnet immer mehr Möglichkeiten. (Symbolbild)
KI eröffnet immer mehr Möglichkeiten. (Symbolbild)

Das sind die Reaktionen

In einem Gespräch mit Tech Explore wurde Petroni zu seiner KI, mit Namen SIDE, befragt. Dort sagt er über die Entwicklung: "Maschinen können Menschen zweifellos dabei helfen, bessere Quellen zu finden. Das ist eine Aufgabe, die mit dem Sprachverständnis und der Beherrschung der Online-Suche jetzt möglich wurde."

Die Forschenden gaben SIDE dafür sehr viele Wikipedia-Einträge zu lesen. Danach sollte die KI andere Einträge prüfen, die sie noch nicht gesehen hatte. SIDE prüfte alle Quellen darunter und nannte, falls nötig und möglich, Alternativen.

Die neuen Vorschläge und Ergebnisse wurden dann von erfahrenen Wikipedia-User*innen bewertet. Das Ergebnis: Beurteilte SIDE eine Quelle als wenig glaubwürdig und gab stattdessen eine Alternative, wurde diese in 70 Prozent aller Fälle für besser befunden.

"Wir konnten zeigen", sagt Petroni, "dass bereits existierende Technologien gut genug sind, um Menschen bei ihrer Arbeit mit Wikipedia zu unterstützen." Er hoffe, dass die Untersuchung aber auch in einem größeren Kontext helfen und in Zukunft für mehr vertrauenswürdige Informationen im Netz sorgen könne.

Das ist der Hintergrund

Die Wikipedia sieht sich immer wieder großer öffentlicher Kritik ausgesetzt. Vor rund zwei Jahren sorgte beispielsweise das ZDF Magazin Royale gemeinsam mit Netzpolitik.org für viel Aufmerksamkeit.

Laut der Recherche, für die alle Wikipedia-Artikel der 709 Bundesabgeordneten ausgewertet wurden, schreiben beispielsweise deutsche Politiker*innen selbst mit: "Fast 90 der Artikeltexte stammen nach einer Analyse mit der WikiWho-Methode zu mehr als 50 Prozent von einem einzigen Account – manchmal von den Abgeordneten und ihren Büros selbst." Dabei würde immer wieder versucht, Unangenehmes unter den Teppich zu kehren.

Im Video: Russisches Gericht verurteilt Wikipedia wegen "falscher Informationen" zu einer Geldstrafe