KI-Chatbots verbreiten Fake News zu den Europawahlen
Vier der beliebtesten KI-Chatbots in Europa liefern laut einer neuen Studie keine genauen Informationen über die Europawahlen im Juni.
Democracy Reporting International, eine gemeinnützige Organisation mit Sitz in Berlin, hat verschiedene Fragen zu den Europawahlen in Googles Gemini, OpenAIs ChatGPT 3.5 und 4.0 sowie Microsofts Copilot eingegeben, um zu sehen, welche Antworten sie geben.
Zwischen dem 11. und 14. März stellten die Forschenden den Chatbots 400 wahlbezogene Fragen in 10 verschiedenen Sprachen über die Wahlen bzw. den Wahlprozess in 10 EU-Ländern. Die Fragen waren in einfacher Sprache verfasst, wie sie für den durchschnittlichen Benutzer oder die Benutzerin dieser KI-Chatbots geeignet ist.
Das Ergebnis: Keiner der vier Chatbots war in der Lage, "zuverlässig vertrauenswürdige Antworten" auf typische wahlbezogene Fragen zu geben, obwohl sie darauf programmiert waren, parteiische Antworten zu vermeiden.
"Wir waren nicht sonderlich überrascht", sagte Michael Meyer-Resende, der Geschäftsführer von Democracy Reporting International, gegenüber Euronews Next über die Ergebnisse der Umfrage.
"Wenn man [KI-Chatbots] etwas fragt, für das sie nicht viel Material haben und für das man nicht viele Informationen im Internet findet, erfinden sie einfach etwas".
Die Studie ist die jüngste, die zeigt, dass KI-Chatbots in einem Jahr, das von vielen als das größte Wahljahr der Welt bezeichnet wird, Fehlinformationen verbreiten.
Im vergangenen Dezember veröffentlichte AlgorithmWatch, eine weitere in Berlin ansässige gemeinnützige Organisation, eine ähnliche Studie, die zeigte, dass Bing Chat, der KI-gesteuerte Chatbot der Microsoft-Suchmaschine, eine von drei Wahlfragen in Deutschland und in der Schweiz falsch beantwortet hat.
Angesichts der Ergebnisse der Studie bestätigte Google - dessen Gemini die meisten irreführenden oder falschen Informationen lieferte - gegenüber Euronews Next, dass der Konzern reagiere und nun weitere Einschränkungen für sein großes Sprachmodell (LLM) vorgenommen habe.
Chatbots sind eher hilfreich als präzise
Es gibt bestimmte Bereiche, in denen die Chatbots schlecht abschneiden, wie Fragen zur Wählerregistrierung und zur Stimmabgabe außerhalb des Landes, sagte Resende.
Die Studie ergab zum Beispiel, dass Chatbots im Allgemeinen das Wählen unterstützen, aber betonen, dass es eine persönliche Entscheidung sei: trotz der Tatsache, dass das Wählen in Griechenland, Belgien, Luxemburg und Bulgarien Pflicht ist.
Die Studie fand auch heraus, dass Chatbots oft "halluzinieren" oder Informationen fabrizieren, wenn sie eine Antwort nicht kennen. Es wurden sogar mehrere falsche Wahldaten angegeben.
Drei der Chatbots machten zum Beispiel denselben Fehler, indem sie den Nutzern sagten, dass sie in Portugal per Post wählen könnten, was in Wirklichkeit für portugiesische Wahlberechtigte nicht möglich ist.
In Litauen behauptete Gemini, dass das Europäische Parlament eine Wahlbeobachtungsmission entsenden würde - was nicht stimmt (die einzige EU-Wahlmission, die bisher für 2024 geplant ist, betrifft Bangladesch).
Meyer-Resende interpretiert diese Halluzinationen ähnelnden Ergebnisse als "Tendenz von Chatbots, die eher 'hilfreich' als präzise sein wollen".
Fehlerhafte oder irrelevante Links und Probleme mit den Sprachen
Selbst bei den besten Antworten der Chatbots - so stellt der Bericht fest - enthalten die Artikel oft fehlerhafte oder irrelevante Links, was der Studie zufolge ihre Qualität "schwächt".
Alles wurde noch viel komplizierter, als die Forscher nach Antworten in verschiedenen europäischen Sprachen suchten.
Die Forscher stellten dieselbe Frage in 10 EU-Amtssprachen, und in einigen von ihnen weigerten sich die Plattformen zu antworten (wie Gemini auf Spanisch) oder verwechselten Informationen über lokale Wahlen mit den Europawahlen.
Dies war der Fall, wenn die Fragen auf Türkisch gestellt wurden, der Sprache, in der die meisten ungenauen und falschen Antworten gegeben wurden.
Chatbots gaben auch unterschiedliche Antworten, wenn ihnen dieselbe Frage mehrmals in derselben Sprache gestellt wurde, was die Forschenden als "Zufälligkeit" bezeichneten.
Resende geht deshalb davon aus, dass die Studie von Democracy Reporting International nur schwer zu wiederholen ist.
Unterschiedliche Leistung der Chatbots
Der Bericht ergab, dass Googles Gemini die schlechteste Leistung bei der Bereitstellung genauer und verwertbarer Informationen sowie die höchste Anzahl von Antwortverweigerungen aufwies.
Dennoch beantwortet er immer noch einige Fragen zu Wahlen, obwohl Google Gemini den Dienst im März eingeschränkt hat, um "potenzielle Fehler" bei der Verwendung der Technologie zu vermeiden.
Ein Google-Sprecher sagte Euronews Next, dass diese Einschränkungen auf alle in dieser Studie untersuchten Fragen und alle 10 verwendeten Sprachen ausgeweitet wurden, weil dies der "verantwortungsvolle Ansatz" im Umgang mit den Einschränkungen großer Sprachmodelle sei.
Lieber Suchmaschinen nutzen statt KI-Chatbots
Google fordert seine Nutzer und Nutzerinnen dazu auf, die Google-Suche anstelle von Gemini zu verwenden, um genaue Informationen über die bevorstehenden Wahlen zu finden.
Michael Meyer-Resende von Democracy Reporting International meint, dass dies der Weg sei, den auch die anderen Plattformen gehen sollten.
"Wir denken, dass es besser ist, wenn sie sich weigern zu antworten, als falsche Antworten zu geben", sagte Resende.
Die Non-Profit-Organisation wird ihre Gemini-Tests in den nächsten Wochen wiederholen, um zu sehen, ob Google seinen Verpflichtungen nachkommt, so Democracy Reporting International.
In einer Erklärung an Euronews Next erläuterte Microsoft seine Maßnahmen im Vorfeld der Europawahlen, darunter eine Reihe von Verpflichtungen zum Schutz der Wähler, Kandidaten, Kampagnen und Wahlbehörden", die zum Schutz der Wähler beitragen.
Zu diesen Verpflichtungen gehört es, den Wählern auf Bing "maßgebliche Wahlinformationen" zur Verfügung zu stellen.
"Während keine Person, Institution oder Firma garantieren kann, dass Wahlen frei und fair sind, können wir bedeutsame Fortschritte beim Schutz des Rechts eines jeden auf freie und faire Wahlen machen", heißt es in der Erklärung von Microsoft.
OpenAI reagierte nicht auf die Anfrage von Euronews Next.
Das Unternehmen erklärt auf seiner Website, dass sein Ansatz in Bezug auf wahlbezogene Inhalte darin bestehe, "die Arbeit an der Sicherheit der Plattform fortzusetzen, indem wir genaue Wahlinformationen verbreiten" und die Transparenz des Unternehmens verbessern.
Risikobewertungen sollten veröffentlicht werden
Im Februar verabschiedete die Europäische Kommission den Digital Services Act (DSA), der von sehr großen Online-Plattformen (VLOP) wie Google, Microsoft und OpenAI verlangt, Risikobewertungen für die Verbreitung von Fake News und Fehlinformationen auf ihren Plattformen durchzuführen.
Diese Risikobewertungen würden alle "absichtlichen Manipulationen" ihrer Dienste und deren mögliche Auswirkungen auf "Wahlprozesse" umfassen.
Der DSA wurde damals von Margrethe Vestager, Vizepräsidentin der Europäischen Kommission und zuständig für Wettbewerb, als "großer Meilenstein" und wichtiger Teil der Strategie der Europäischen Union zur "Gestaltung einer sichereren und transparenteren Online-Welt" angepriesen.
Der Bericht von Democracy Reporting International legt jedoch nahe, dass die Anforderungen für die DSA, einschließlich dieser Risikobewertungen Probleme in Bezug auf Wahlinformationen bisher nicht verhindern.
Michael Meyer-Resende forderte daher, dass die Kommission oder die Unternehmen, die hinter den Chatbots stehen, diese Bewertungen veröffentlichen sollten.
"Ich fürchte, sie zögern, [die Risikobewertungen] mit der Öffentlichkeit zu teilen, entweder weil sie es nicht getan haben oder weil sie sich nicht sicher sind, wie viel Detailarbeit sie in dieses Thema investiert haben", sagte Meyer-Resende.
Während die EU-Kommission nicht direkt auf diese Studie reagierte, sagte ein Sprecher in einer E-Mail, dass die Kommission "weiterhin wachsam gegenüber den negativen Auswirkungen von Online-Desinformation, einschließlich KI-gestützter Desinformation" sei.
Einen Monat nach dem offiziellen Start der DSA hat die Kommission ein Auskunftsersuchen an Bing und Google Search gerichtet, um mehr Informationen über deren "Abschwächungsrisiken im Zusammenhang mit generativer KI" zu erhalten.
Brüssel bestätigte gegenüber Euronews Next, dass die Kommission die Informationen, die sie im Rahmen dieser Anfrage erhalten hat, prüft, ging aber nicht weiter darauf ein.
Im März hat die EU-Kommission mit Plattformen wie Google und Microsoft einen Verhaltenskodex zu Fehlinformationen unterzeichnet, in dem sie sich verpflichten, "qualitativ hochwertige und verlässliche Informationen für die Wähler" zu fördern.