Greif-Neuroprothesen

Die Bewegung ist das Signal

18. September 2018, 8:24 Uhr | TU Graz/TU Heidelberg
© Ars Electronica / Roibert Bauernhansl Lizenz: CC BY-NC-ND 2.0*

Mit dem seit März 2015 begonnenen MoreGrasp-Projekt versucht ein europäisches Konsortium aus drei Universitäts- und zwei Firmenpartnern unter Leitung der TU Graz die aktuellen Probleme von Greifneuroprothesen in den Griff zu bekommen. Jetzt wurden erste Ergebnisse veröffentlicht.

Die Idee einer bahnbrechenden Weiterentwicklung gedankengesteuerter Greif-Neuroprothesen stand am Beginn des Projektes MoreGrasp: Für Menschen, die in Folge einer Rückenmarksverletzung in der Funktion ihrer Hände stark bis vollständig eingeschränkt sind, sollte eine sensorische Greif-Neuroprothese zur Unterstützung von Aktivitäten des täglichen Lebens entwickelt werden, die die Motorik über eine Gehirn-Computer-Schnittstelle intuitiv steuert und zu einer größeren Natürlichkeit der Bewegungsabläufe führt (Kasten).

Am Ende der Projektlaufzeit von drei Jahren vermeldet das Konsortium, dem unter der Leitung von Gernot Müller-Putz, Leiter des Instituts für Neurotechnologie der TU Graz, auch die Universität Heidelberg, die University of Glasgow, die beiden Firmen Medel Medizinische Elektronik und Bitbrain sowie das Know-Center angehören, genau diesen Durchbruch.

Paradigmenwechsel: Die tatsächlich gedachte Bewegung als Signal

Gernot Müller-Putz erklärt das Prinzip von Brain Computer Interfaces, auf Deutsch Gehirn-Computer-Schnittstellen: »Bei einer Querschnittlähmung sind alle Schaltzentren im Gehirn und die Muskeln im betreffenden Körperteil noch vorhanden, aber die Leitung zwischen Gehirn und Extremität ist unterbrochen. Das umgehen wir, indem wir das Gehirn mit einem Computer kommunizieren lassen, der wiederum den Befehl an die Muskeln weiterleitet«. Angesteuert und zur Bewegung animiert werden die Muskeln mit Elektroden, die außen am Arm angebracht sind und zum Beispiel das Schließen und Öffnen der Finger auslösen können. Bisher arbeitete man dabei mit beliebigen gedanklichen Konzepten. Wichtig war nur, die ausreichende Unterscheidbarkeit der erzeugten Hirnströme zur Steuerung der Neuroprothese. Beispielsweise dachte die Probandin oder der Proband an ein Fußheben-und-Senken und das per EEG gemessene Signal öffnete die rechte Hand, dachte sie oder er beispielsweise an eine linke Handbewegung, schloss sich die rechte Hand wieder.

The MoreGrasp Project

In MoreGrasp wird ein Elektrodenarray entwickelt, bei dem eine Vielzahl von Elektroden in den Handschuh integriert wird, die situationsangepasst elektronisch zu größeren Elektrodenverbünden zusammengeschaltet werden kann. Damit hoffen die Wissenschaftler, Elektrodenfehlplatzierungen beim Anlegen und Elektrodenverschiebungen während der Anwendung dynamisch kompensieren zu können. Mittels auf Alltagsgegenstände aufklebbare Folienkraftsensoren, deren Daten von einem Low Energy Bluetooth-Modul (LE-Bluetooth) an eine Kontrollstation übertragen werden, können Greifkräfte registriert und für eine semiautonome Griffsteuerung verwendet werden. Durch Zuordnung eindeutiger IDs zu den LE-Bluetooth Einheiten kann eine automatische Umschaltung auf das für diesen Gegenstand vordefinierte, am besten geeignete Griffmuster erfolgen, sobald sich die Hand des Nutzers dem entsprechenden Gegenstand nähert. Durch zusätzliche Elektroden in Körperregionen mit erhaltener Sensibilität können einem Nutzer Rückmeldungen über die aufgebrachten Greifkräfte gegeben werden. Aus der Prothetik ist bekannt, dass diese sensible Rückmeldung einen wesentlichen Faktor zur erhöhten Nutzerakzeptanz darstellt.

Um einem Benutzer eine intuitivere Steuerung der Hand zu ermöglichen, sollen Gehirnsignale zur Erkennung der Benutzerintention in das Steuerungskonzept mit einbezogen werden. Dies geschieht mittels sogenannter Hybrid Brain-Computer Interfaces, bei denen ein auf Bewegungsvorstellungen basierendes Brain-Computer Interface (BCI) mit traditionellen Benutzerschnittstellen kombiniert wird. Damit soll auf Basis der Modulation des Elektroenzephalogramms (EEG) über den motorischen Gehirnarealen erkannt werden, ob ein Benutzer z.B. die Signale eines Schulterjoysticks zur Steuerung des Grads der Handschließung oder der Handgelenksrotation verwenden will.

 

Der gedankliche Umweg über beliebige, aber deutlich unterscheidbare Bewegungsmuster ist nun nicht mehr notwendig, erklärt Müller-Putz: »Wir nutzen jetzt das sogenannte ‚attempted movement‘ – also den Versuch, eine bestimmte Bewegung auszuführen.« Die Probandin oder der Proband versucht dabei die Bewegung – zum Beispiel den Griff nach einem Glas Wasser – auszuführen. Wegen der Querschnittlähmung wird das dabei entstehende Hirnsignal zwar nicht weitergeleitet, kann aber mittels EEG gemessen und vom Computersystem verarbeitet werden.

Müller-Putz und sein Team arbeiten jetzt mit Signalen, die sich nur ganz geringfügig voneinander unterscheiden. Dennoch gelinge es, die Neuroprothese damit erfolgreich anzusteuern. Für die Nutzerinnen und Nutzer ergeben sich dadurch völlig neue Möglichkeit, die deutliche Erleichterungen etwa beim Training der Bewegungsabläufe mit sich bringen werden. Im Projekt wurden verschiedene Griffvarianten untersucht: Der Palmargriff (Zylindergriff – etwa nach einem Glas greifen), der Lateralgriff (Schlüsselgriff – etwa einen Löffel in die Hand nehmen), das Aufmachen der Hand und das Drehen nach innen und außen.

Groß angelegte Studie

Auf einer eigenen Online-Plattform zur Vernetzung Interessierter und Betroffener können sich Endnutzerinnen und -nutzer jetzt für die Teilnahme an einer groß angelegten Machbarkeitsstudie registrieren, die die im Projekt entwickelte Technik auf ihre Alltagstauglichkeit überprüfen soll. Teilnehmerinnen und Teilnehmer, die für die Studie infrage kommen, werden nach einem aufwendigen Verfahren getestet. Danach wird jeder Probandin und jedem Probanden ein maßgeschneidertes BCI-Training zur Verfügung gestellt, das in mehrere Stunden dauernden Sessions jede Woche eigenverantwortlich absolviert werden muss. So werden Hirnsignale gesammelt und das System lernt bei jedem Versuch dazu.

*Ars Electronica / Roibert Bauernhansl Lizenz: CC BY-NC-ND 2.0

(me)

Um eine hohe Alltagstauglichkeit zu erreichen werden an die Benutzeranatomie angepasste EEG-Kappen entwickelt, die auf Trockenelektroden basieren und ihre Daten mittels eines Bluetooth-Funkinterface an eine Kontrolleinheit übermitteln.
Um eine hohe Alltagstauglichkeit zu erreichen werden an die Benutzeranatomie angepasste EEG-Kappen entwickelt, die auf Trockenelektroden basieren und ihre Daten mittels eines Bluetooth-Funkinterface an eine Kontrolleinheit übermitteln.
© MoreGrasp via TU Heidelberg

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu elektroniknet