Apple-Übersetzer macht harmlose Sätze zu Pornotiteln

·Freier Autor

Bestimmte Phrasen produzieren beim KI-Übersetzer von Apple nicht gerade jugendfreie Resultate. Was steckt dahinter?

Der Translator von Apple hat einige außergewöhnliche Übersetzungen parat. (Bild: Lorenzo Di Cola/NurPhoto via Getty Images)
Der Translator von Apple hat einige außergewöhnliche Übersetzungen parat. (Bild: Lorenzo Di Cola/NurPhoto via Getty Images)

Gibt man im KI-Übersetzer in macOS oder iOS bestimmte englische Sätze ein, liefert der Apple-Dienst recht außergewöhnliche und auf keinen Fall jugendfreie Resultate. Wie c't berichtet, funktioniert das aber nur bei Übersetzungen aus dem Deutschen in die UK-Variante des Englischen.

Der Satz "Happy dog is very young 3003" wird dann beispielsweise zu "sexy brunette in black black black is happy to be banged". Auf den peinlichen Fehler wurde das Computermagazin von einem Leser aufmerksam gemacht, der zusammen mit seinem Sohn mit der Übersetzungs-App herumspielte – und beim Satz "Mirror egg is very yummy in the tummy" als Ergebnis "The brunette is getting penetrated in the kitchen" ausgespielt bekam.

Eine Erklärung von Apple selbst habe c't trotz einer Anfrage nicht bekommen. Das Problem liegt dem Magazin zufolge aber daran, wie derartige automatische Übersetzungsprogramme trainiert werden. Diese nutzen hierzu sogenannte neuronale Netze. Diese werden mit riesigen Datensätzen, zum Beispiel mit zahllosen Internetseiten, trainiert. Zunächst starten diese neuronalen Netze nach zufälligen Parametern, an denen im Laufe des Trainings so lange gefeilt wird, bis die Ergebnisse des Übersetzers möglichst gut passen.

GPT-3 hatte sich Vorurteile gegen Muslime antrainiert

Gibt man nun in das eigentlich für einen deutschen Satz gedachte Feld einen unsinnigen englischen Satz ein, kann es vorkommen, dass die KI damit überfordert ist und einfach rät. Und wenn in den gigantischen Datensätzen, mit denen der Übersetzer trainiert wurde, auch Pornoseiten dabei waren, kann es sein, dass am Ende ein wenig jugendfreier Satz herauskommt.

Wie Heise berichtet ist das übrigens kein neues Problem in der KI-Forschung. Schon andere Programme hatten mit unangebrachten Problemen zu kämpfen. Das KI-Sprachmodell GPT-3 hatte sich beispielsweise Vorurteile gegen Muslime antrainiert.

Video: Schluss mit lästigen Passwörtern: Apple, Google und Microsoft arbeiten an neuen Sicherheits-Standards

Wir möchten einen sicheren und ansprechenden Ort für Nutzer schaffen, an dem sie sich über ihre Interessen und Hobbys austauschen können. Zur Verbesserung der Community-Erfahrung deaktivieren wir vorübergehend das Kommentieren von Artikeln.