Hirnscanner liest Gedanken - zumindest ein bisschen
Austin (dpa) - Mit Hirnscanner und KI haben US-Forscher bei willigen Probanden bestimmte Arten von Gedanken zumindest grob erfassen können. So konnte ein von ihnen entwickelter Decoder mit Hilfe von sogenannten fMRT-Bildern in bestimmten experimentellen Situationen ungefähr wiedergeben, was den Teilnehmern durch den Kopf ging, wie das Team im Fachblatt «Nature Neuroscience» schreibt.
Diese Hirn-Computer-Schnittstelle, bei der keine Operation notwendig ist, könnte irgendwann Menschen helfen, die ihr Sprachvermögen zum Beispiel in Folge eines Schlaganfalls verloren haben, so die Hoffnung der Forscher. Experten sind allerdings skeptisch.
Die Studienautoren der University of Texas betonen, dass mit ihrer Technologie nicht heimlich Gedanken ausgelesen werden könnten.
Wie funktioniert's?
Hirn-Computer-Schnittstellen (Brain-Computer-Interfaces; BCI) beruhen auf dem Prinzip, menschliche Gedanken durch technische Schaltkreise zu lesen, zu verarbeiten und in Bewegungen oder Sprache zu übersetzen. Auf diese Weise könnten etwa Gelähmte per Gedankensteuerung ein Exoskelett steuern oder Menschen mit Locked-In-Syndrom mit ihrer Außenwelt kommunizieren. Viele der entsprechenden Systeme, die derzeit erforscht werden, erfordern jedoch die operative Implantation von Elektroden.
Bei dem neuen Ansatz bildet ein Computer auf Grundlage von Hirnaktivitäten Wörter und Sätze. Diesen Sprachdecoder trainierten die Forschenden, indem sie drei Probanden 16 Stunden lang Geschichten hören ließen, während diese in einem funktionellen Magnetresonanztomographen (fMRT) lagen. Mit einem solchen fMRT können Durchblutungsänderungen von Hirnarealen sichtbar gemacht werden, die wiederum ein Indikator für die Aktivität der Neuronen sind.
Im nächsten Schritt bekamen die Probanden neue Geschichten zu hören, während ihr Gehirn wieder in der fMRT-Röhre untersucht wurde. Der zuvor trainierte Sprachdecoder war nun in der Lage, aus den fMRT-Daten Wortfolgen zu erstellen, die den Forschenden zufolge den Inhalt des Gehörten weitgehend korrekt wiedergaben.
Das System übersetzte dabei die im fMRT aufgezeichneten Informationen nicht in einzelne Wörter. Vielmehr nutzte es die im Training erkannten Zusammenhänge sowie Künstliche Intelligenz (KI), um bei neuen Geschichten die gemessenen Hirnaktivitäten den wahrscheinlichsten Phrasen zuzuordnen
Dieses Vorgehen erklärt Rainer Goebel, Leiter der Abteilung für kognitive Neurowissenschaften an der niederländischen Maastricht-Universität, in einer unabhängigen Einordnung so: «Eine zentrale Idee der Arbeit war es, ein KI-Sprachmodell zu benutzen, um die Anzahl der möglichen Phrasen, die mit einem Hirnaktivitätsmuster im Einklang stehen, stark zu reduzieren.»
Noch fehlerhaft
In einem Pressegespräch zur Studie veranschaulichte Mitautor Jerry Tang das Ergebnis der Tests: So habe der Decoder den Satz «Ich habe meinen Führerschein noch nicht» als «Sie hat noch nicht einmal angefangen, Fahren zu lernen» wiedergegeben. Das Beispiel illustriert laut Tang eine Schwierigkeit: «Das Modell ist sehr schlecht mit Pronomen - woran das liegt, wissen wir aber noch nicht.»
Insgesamt sei der Decoder dahingehend erfolgreich, dass viele ausgewählte Phrasen bei neuen, also nicht trainierten Geschichten Wörter des Originaltextes enthielten oder zumindest einen ähnlichen Bedeutungsgehalt aufwiesen, so Rainer Goebel.
«Es gab aber auch recht viele Fehler, was für eine vollwertige Hirn-Computer-Schnittstelle sehr schlecht ist, da es für kritische Anwendungen - zum Beispiel Kommunikation bei Locked-In-Patienten - vor allem darauf ankommt, keine falschen Aussagen zu generieren.» Noch mehr Fehler wurden generiert, als die Probanden sich eigenständig eine Geschichte vorstellen sollten oder einen kurzen animierten Stummfilm zu sehen bekamen, und der Decoder Ereignisse darin wiedergeben sollte.
Skepsis bei Experten
Für Goebel sind die Resultate des vorgestellten Systems insgesamt zu schlecht, um als vertrauenswürdige Schnittstelle zu taugen: «Ich wage die Vorhersage, dass fMRT-basierte BCIs (leider) wohl auch in Zukunft auf Forschungsarbeiten mit wenigen Probanden - wie auch in dieser Studie - beschränkt bleiben werden.»
Auch Christoph Reichert vom Leibniz-Institut für Neurobiologie ist skeptisch: «Wenn man sich die gezeigten Beispiele des präsentierten und rekonstruierten Textes ansieht, wird schnell klar, dass diese Technik noch weit davon entfernt ist, einen «gedachten» Text zuverlässig aus Gehirndaten zu generieren.» Trotzdem deute die Studie an, was möglich sein könne, wenn sich die Messtechniken verbesserten.
Hinzu kommen ethische Bedenken: Je nach künftiger Entwicklung könnten Maßnahmen zum Schutz der geistigen Privatsphäre nötig sein, schreiben die Autoren selbst. Allerdings zeigten Versuche mit dem Decoder, dass sowohl für das Training, als auch für die folgende Anwendung die Kooperation der Probanden nötig war.
«Wenn diese während des Dekodierens im Kopf zählten, Tiere benannten oder an eine andere Geschichte dachten, wurde der Prozess sabotiert», beschreibt Jerry Tang. Ebenso schnitt der Decoder schlecht ab, wenn das Modell mit einem anderen Menschen trainiert worden war.