Neurowissenschaft
MATJAS SLANIC/ISTOCKPH
24.01.2020 Publikation

Das bessere Gehirn

Die von Elon Musk mitgegründete Firma Neuralink möchte das menschliche Gehirn mit Technik erweitern und zum Beispiel Tele­pathie ermöglichen. Eine Träumerei ist das längst nicht mehr. In der Medizin sind sie nicht mehr wegzudenken, jetzt werden Neuro­wissenschaften auch für den Consumer-Markt entdeckt.

Kontakt
VDE dialog - Das Technologie-Magazin

In dem Science-Fiction-Roman „Die Suche nach der Erde“ von Isaac Asimov muss der Raumschiff-Pilot Golan Trevize nur seine Arme ausstrecken, damit sich der Bordcomputer automatisch mit ihm verbindet. Die Maschine kann die Aktivitäten von Golans Gehirn messen und interpretieren – sie liest seine Gefühle und Gedanken, noch bevor er sie aussprechen kann. Der Pilot steuert das Raumschiff, ohne Hebel und Knöpfe zu bedienen. Sein Wille reicht aus, um es nach links oder rechts zu bewegen. Ein Vorteil dieser Symbiose aus Mensch und Maschine ist die immense Reaktionsgeschwindigkeit. Zwischen der Absicht einer Bewegung und ihrer Ausführung vergehen nur wenige Millisekunden. Der Mensch in Asimovs Roman erweitert mit der Technik seine Fähigkeiten ebenso wie Superhelden in einem Comic. Der aus Südafrika stammende Unternehmer und Investor Elon Musk mag solche Ideen. Seit er mit dem Bezahldienst Paypal reich wurde, investiert er in Zukunftsvisionen: elektrische und selbstfahrende Autos, Raketenflüge zum Mars, Hochgeschwindigkeitszüge unter der Erde. Nun steckte er 100 Millionen Dollar in die US-Firma Neuralink, um Mensch-Maschinen-Schnittstellen wie die aus Asimovs Geschichte wahr werden zu lassen. Musk schweben zum Beispiel telepathische Fähigkeiten vor, sodass sich Menschen mittels Implantaten von Gehirn zu Gehirn gedanklich austauschen können. Die Implantate erfassen die elektrischen Aktivitäten im Gehirn, eine Software interpretiert sie und schickt sie zum Empfänger, wo sie ins Gehirn zurückgespeist wird. Der Mensch brauche solche Fähigkeiten, sagt Musk, um mit künstlicher Intelligenz mithalten zu können. Die Technik ist noch am Anfang, ihre Grenzen sind nicht fassbar – aber erste Anwendungen zeigen, dass das Potenzial vorhanden ist, das Menschsein zu verändern.

Grund für Musks Enthusiasmus ist Neuralinks Ansatz, Gehirnimplantate so sicher und schmerzfrei einzusetzen, als wäre es eine Augenoperation mit Laser. Zudem will Neuralink Signale von Tausenden von Gehirnzellen erfassen. Dazu entwickelte das Unternehmen von Musk einen Roboter, der wie eine Nähmaschine ultradünne Fäden in das Gehirn einbringt. Bislang wurde dies nur an Nagetieren getestet. Die Fäden sind aus zellophanähnlichem Material und entsprechen dem Viertel des Durchmessers eines menschlichen Haares. Sie enthalten leitende Drähte, die winzige Elektroden verbinden. 3000 solcher Elektroden sollen in der Nähe von Neuronen platziert werden, um ihre elektrische Aktivität zu erfassen. Bisher nutzen die Neuralink-Forscher höchstens 265 Elektroden. Je mehr, so die Devise, desto besser versteht man die Gedanken eines Menschen und desto mehr Anwendungen sind denkbar.

Unser Gehirn ist ein neuronales Netzwerk. Es besteht aus ungefähr 100 Milliarden Nervenzellen – den Neuronen – sowie Synapsen, die die Neuronen verknüpfen. Eine Synapse ist eine Lücke zwischen dem jeweiligen Axon eines Neurons, einer Art Leitung für chemische und elektrische Signale, sowie dem Axon des benachbarten Neurons. Die Neuronen tauschen über diese Synapsen Sig­nale aus. Im Gehirn entstehen dabei komplexe Signal-Kreisläufe, die sich laufend verändern, zum Beispiel wenn wir etwas sehen oder hören. Dies ermöglicht es uns, zu denken, zu lernen, zu fühlen. Die Idee hinter Gehirn-Computer-Schnittstellen (englisch: Brain Computer Interface, BCI) ist, grobe Muster in diesen Kreisläufen zu erkennen und zu interpretieren. Meist geht es dabei um die Intention einer Bewegung („Ich möchte meinen Arm heben“) oder um Konzentration („Ich schaue gerade auf ein bestimmtes Wort in einem Satz“).

Hirnaktivitäten lassen Musik erklingen

MindWave Headset

Neurofeedback: Das MindWave Headset misst mit integrierten Sensoren die elektrische Gehirn­aktivität. Per Bluetooth-Schnittstelle werden die Daten an Computer, Laptop, Smartphone oder Tablet übertragen.

| NEUROSKY

Die Forschungen zu BCIs sind alt. 1965 trat der Komponist Alvin Lucier mit einer der ersten BCI-Systeme öffentlich auf. Diese basierte auf der Elektroenzephalografie (EEG), einer Methode, bei der die Elektroden nicht im Gehirn, sondern in einer Kappe auf der Kopfhaut angebracht werden. Sie erfassen Spannungsschwankungen, die sich aus den elektrischen Aktivitäten im Gehirn ergeben. Bei Luciers Auftritt wurden die tieferen Gehirnwellen im Frequenzbereich zwischen 9 und 15 Hertz aufgezeichnet, gefiltert und verstärkt. Lautsprecher übertrugen die Wellen auf Percussion-­Instrumente, die durch die Schwingungen aufklangen. Wie der Science-Fiction-Pilot mit seinem Raumschiff, bildete der Musiker mit den Instrumenten eine Symbiose. Nur vier Jahre später zeigten Forscher der Universität Washington, dass Affen dank solcher Schnittstellen den Zeiger eines Messgerätes mit ihren Gedanken kontrollieren konnten.

Inzwischen hat sich viel getan, aber noch ist die Forschung von Asimovs Piloten Jahre entfernt. „In der heutigen Forschung gibt es bei BCI zwei Ansätze“, differenziert Robert Riener vom Labor für Sensomotorische Systeme der ETH Zürich. „Zum einen entwickeln wir Messsysteme, um aus den Gehirnaktivitäten zum Beispiel Intentionen zu extrahieren und auf Geräte wie Rollstühle oder Prothesen zu übertragen. Zum anderen wollen wir Signale aus der Umgebung in den Körper einspeisen, um ihn darüber zu informieren, was die Prothese gerade macht – ohne dass der Patient hinsehen muss.“

Die Signale, die vom Gehirn zu den Geräten gehen, werden entweder per Implantat direkt im Gehirn oder auf der Kopfhaut beziehungsweise direkt an der Muskulatur eines amputierten Körperteils gemessen – alles hat Vor- und Nachteile. Je näher die Sensorik am Gehirn ist, desto konkretere und selektivere Informationen kann sie erfassen. Allerdings ist das Einsetzen von Implantaten aufwendig und mit Risiken verbunden. Für die Steuerung eines Rollstuhls oder eines Mauszeigers auf einem Bildschirm reichen die EEG-Signale auf der Kopfhaut. „Man benötigt nur wenige Elektroden, aber eine Bewegungsintention lässt sich damit gut erkennen“, so Riener. Auf die gleiche Weise kann sich ein Patient, der nicht sprechen oder schreiben kann, auf einen von mehreren Buchstaben konzentrieren und auf diese Weise Wörter bilden.

Mit MindWave gibt es bereits ein EEG-Gerät auf dem Markt, mit dem sich auf mobilen Geräten Spiele steuern lassen. Der Spieler versucht etwa, einen Pfeil auf eine Zielscheibe oder einen Vogel über Hindernisse zu lenken, was mühsam ist, da das kommerzielle Gerät nur sehr wenige Signale wahrnehmen kann. Man entschied sich für mehr Komfort und gegen zu viele Sensoren.

Das Ziel: ein biophysikalisches Feedback

Mann mit Beinprothese

Sensortechnologie ermöglicht Prothesenträgern feinfühlige Bewegungsabläufe. Das nächste Ziel des Prothesenherstellers Ottobock ist ein biophysikalisches Feedback, das über an den Fußsohlen angebrachte Sensoren Rückmeldung an das Gehirn liefert und so ein Gefühl für die Bewegung vermittelt – selbst bei geschlossenen Augen.

| OTTOBOCK

Was einerseits Spiel ist, wird andererseits in der Medizin eingesetzt: Forscher bemühen sich, EEG-Signale auch zur Steuerung von Exoskeletten zu verwenden. Diese werden am Körper angebracht, um die Muskulatur zu unterstützen. Dafür muss die Messung zuverlässig funktionieren. „Wir müssen die EEG-Kappen nach jedem Aufsetzen häufig kalibrieren, da sie verrutschen“, berichtet Riener. „Es gibt ein Rauschen in den Signalen, und die Genauigkeit liegt bei 90 bis 95 Prozent.“ Wenn sich der Mauszeiger falsch bewege, sei das nicht schlimm, aber würde ein Exoskelett einen Schritt zu viel machen, könne es mit dem Patienten die Treppe herunterstürzen. Um Prothesen zu bewegen, ist es effizienter, die „Befehle“ aus dem Gehirn an der Muskulatur, die von einem Arm oder Bein noch übrig ist, abzufangen und in die Prothese zu übertragen. Damit kann der Träger einer prothetischen Hand zum Beispiel etwas greifen. Für komplexe Bewegungen der einzelnen Finger bräuchte es intramuskuläre Implantate, um die Nervensignale noch genauer ableiten zu können. Bei Ottobock sind erstere Systeme bereits erfolgreich auf dem Markt. Andreas Goppelt, Leiter Forschung & Entwicklung des Prothesenherstellers, hat bereits das nächste Ziel vor Augen: „Für uns ist der nächste große Schritt ein biophysikalisches Feedback – die Rückmeldung der Prothese in das Nervensystem.“ Dafür arbeitet Ottobock mit Oskar Aszmann von der Universität Wien zusammen. „Bei Prothesen ist die Eigenwahrnehmung wichtig“, sagt Aszmann. „Bisher haben die Patienten nur die visuelle Kontrolle – aber bei unserem Körper können wir auch mit geschlossenen Augen die Bewegung nachvollziehen und das ist das Ziel unserer Forschungen.“ Dafür werden zum Beispiel über eine Sensoren-Matrix in dem prothetischen Fuß Informationen über das spezifische Belastungsprofil wieder an den Patienten zurückgeleitet. „Es ist nicht das gleiche Gefühl wie bei echten Füßen“, räumt Aszmann ein, „aber die Leute gewöhnen sich daran, sodass sie nicht mehr darüber nachdenken müssen.“        

Dass solche Technologien nicht nur für Menschen mit Beeinträchtigungen interessant sind, erkennen auch Firmen aus dem Medizinprodukte-Segment. Eine davon ist die Firma Snap in Bochum, die BCIs für die Forschung entwickelt. „Wir wollen in den Consumer-Markt, aber dafür müssen noch einige Herausforderungen angegangen werden“, weiß Geschäftsführerin Corinna Weber. EEG-Kappen mit mehr Sensorik als in MindWave eingesetzt, sind auf der Kopfhaut unangenehm – es wird immer noch mit Gel gearbeitet. „Die Technik muss einfach handelbar und intuitiv sein, sodass Konsumenten nur noch ein Gerät aufsetzen und höchstens einmal kalibrieren müssen.“

Ein realistischer Anwendungsfall für den Consumer-Markt wäre „Silent Speech“, woran Facebook aktuell forscht. Der Konzern möchte, dass Menschen mit dem Gehirn Texte diktieren können, ohne den Umweg über eine eingeblendete Tastatur. Das System wurde vor zwei Jahren auf der Facebook Entwicklerkonferenz F8 vorgeführt: Jemand dachte an ein Wort, das danach automatisch auf dem Bildschirm erschien. Das funktionierte allerdings nur mit ausgewählten Wörtern, auch wenn Weber für die Zukunft optimistischer ist. Interessant sei BCI aber vor allem für virtuelle Realität – um diese zu manipulieren, ohne einen Controller mit der Hand bedienen zu müssen.

Ideen für BCI-Use Cases gibt es reichlich. Forscher der Universität Essex haben ein BCI entwickelt, das den emotionalen Zustand einer Person ermittelt und aus den Gehirnwellen bei negativer Stimmung ein aufbauendes Musikstück generiert. Forscher der Universität Washington stellten ein Tetris-Spiel namens BrainNet für drei Spieler vor. Zwei Spieler konnten die Lücken und den herunterfallenden Block sehen, ihn aber nicht drehen, während der Dritte den Block drehen, aber die Lücke nicht sehen konnte. Um ihn anzuweisen, mussten sich die beiden anderen auf das Wort „ja“ oder „nein“ konzentrieren.

Die Grenze der Einsatzmöglichkeiten ist fließend

Per EEG wurde die Gehirnaktivität erfasst. Eine Technik namens transkranielle Magnetstimulation löste beim dritten Spieler im Falle eines „Ja“ einen Impuls im Gehirn aus. Der Spieler nahm ihn als Lichtblitz im Auge wahr. Es ist eine Vorstufe von Musks Telepathie-Idee. Letzten Endes vermischt sich die Grenze zwischen dem Bemühen, Beeinträchtigungen auszugleichen, Entertainment sowie erweiterten menschlichen Fähigkeiten. „Wir erweitern sie ohnehin schon“, sagt Martin Schüttler, CEO und CTO von corTec – einer deutschen Firma, die zu den Global Playern bei Gehirn-Implantaten zählt. Ein Beispiel ist das Cochlea-Implantat, das die Funktion eines beschädigten Innenohrs ersetzt – es überträgt Audiosignale über den Hörnerv direkt in das Gehirn. Man könne es sogar so umrüsten, dass man Ultraschall höre. In einigen Thea­tern lassen sich die Geräte an die Mikrofonanlage koppeln. Der Ton wird über eine im Raum ausgelegte Induktionsschleife ausgesendet, vom Implantat empfangen und direkt in das Nervensystem des Cochlea-Trägers übertragen. CoreTecc selbst stellt unter anderem Implantate her, die Signale aus dem Inneren des Gehirns per Funk an ein Gerät auf der Kopfoberfläche übertragen, das wiederum an ein KI-System angeschlossen ist. Dieses kann umgekehrt im Gehirn Impulse auslösen – es ist eine Forschungsplattform, mit der neuartige Therapien erkundet werden sollen.

„Neuralink verfolgt einen Ansatz, der viele Entwicklungsrisiken in Kauf nimmt“, resümiert Schüttler. Das Ziel von Musk sei das Verbessern der Kommunikation zwischen Mensch und Maschine. Schüttler geht davon aus, dass man mit seiner Technik mehr Möglichkeiten habe. Aber ob das Wissen über das Gehirn überhaupt ausreicht, um neue Anwendungen daraus abzuleiten, weiß bislang noch niemand.

Boris Hänßler ist freier Journalist aus Bonn mit dem Schwerpunkt Informationstechnik.