Neuroprothesen

Vorgestellte Sprache akustisch hören

6. Oktober 2021, 7:30 Uhr | Universität Bremen
Mithilfe der Neurosprachprothese kann vorgestellte Sprache akustisch hörbar gemacht werden.
Mithilfe der Neurosprachprothese kann vorgestellte Sprache akustisch hörbar gemacht werden.
© Universität Bremen

Forschende der Uni Bremen realisieren erstmals Neurosprachprothese

Große Forschungserfolge bedürfen internationaler Zusammenarbeit: Seit mehreren Jahren arbeiten das Cognitive Systems Lab (CSL) der Universität Bremen, das Department of Neurosurgery an der niederländischen Maastricht Universität und das Aspen Lab an der Virginia Commonwealth Universität (USA) an einer Neurosprachprothese. Das Ziel: Sprachbezogene neuronale Prozesse im Gehirn direkt in hörbare Sprache umzusetzen.

Dieses Ziel ist nun erreicht worden: »Wir haben es geschafft, dass unsere Versuchspersonen sich reden hören, obwohl sie sich das Sprechen nur vorstellen«, freut sich Prof. Tanja Schultz, die Leiterin des CSL. Die Gehirnstromsignale von freiwilligen Probanden, die sich vorstellen zu sprechen, würden durch die Neurosprachprothese direkt in eine hörbare Ausgabe überführt – »und zwar in Echtzeit ohne wahrnehmbare Verzögerung«. 

Studie mit freiwilliger Epilepsiepatientin

Die Neurosprachprothese basiert auf einem Closed-Loop-System, das Technologien aus der modernen Sprachsynthese mit Gehirn-Computer-Schnittstellen verbindet. Das System wurde von Miguel Angrick am CSL entwickelt. Als Eingabe erhält es die neuronalen Signale der Nutzenden, die sich vorstellen zu sprechen. Es transformiert diese mittels maschineller Lernverfahren praktisch zeitgleich in Sprache und gibt diese hörbar als Rückmeldung an die Nutzenden aus. »Dadurch schließt sich für diese der Kreis vom Vorstellen des Sprechens und dem Hören ihrer Sprache«, so Angrick.

Die in Nature Communications Biology (Hier geht's zur Originalublikation) veröffentlichte Arbeit basiert auf einer Studie mit einer freiwilligen Epilepsiepatientin, der zu medizinischen Untersuchungen Tiefenelektroden implantiert wurden und die sich zur klinischen Überwachung im Krankenhaus aufhielt. Im ersten Schritt las die Patientin Texte vor, aus denen das Closed-Loop-System mittels maschineller Lernverfahren die Korrespondenz zwischen Sprache und neuronaler Aktivität lernte. »Im zweiten Schritt wurde dieser Lernvorgang mit geflüsterter und mit vorgestellter Sprache wiederholt«, erläutert Angrick. Dabei erzeugte das Closed-Loop-System synthetisierte Sprache. Obwohl das System die Korrespondenzen ausschließlich auf hörbarer Sprache gelernt hatte, werde auch bei geflüsterter und bei vorgestellter Sprache eine hörbare Ausgabe erzeugt. Dies lasse den Schluss zu, dass die zugrundeliegenden Sprachprozesse im Gehirn für hörbar produzierte Sprache vergleichbar sind zu denen für geflüsterte und vorgestellte Sprache. 

»Sprachneuroprothetik zielt darauf ab, Personen, die aufgrund körperlicher oder neurologischer Beeinträchtigungen nicht sprechen können, einen natürlichen Kommunikationskanal zu bieten«, erläutert Prof. Tanja Schultz den Hintergrund für die intensiven Forschungsaktivitäten auf diesem Gebiet, bei denen das Cognitive Systems Lab der Universität Bremen eine weltweit beachtete Rolle spielt. Die Echtzeitsynthese akustischer Sprache direkt aus gemessener neuronaler Aktivität könnte natürliche Gespräche ermöglichen und die Lebensqualität von Menschen deutlich verbessern, deren Kommunikationsmöglichkeiten stark eingeschränkt sind. (me)


Verwandte Artikel

Universität Bremen Institut f. Projektmanagement - IPMI-