Entlang der Akustik

Virtueller Blindenstock hilft bei der Orientierung

20. August 2019, 16:30 Uhr | Ruhr-Universität Bochum
Wie ein Taschenlampe hält man den virtuellen Blindenstock.
© RUB/Kramer

Im nahen Umfeld bietet der Blindenstock Informationen über die Umwelt, aber wo in einiger Entfernung der Durchgang zwischen Häuserfronten ist, zeigt er nicht. Das können radargestützte Systeme, die das Konsortium des Projekts Ravis-3D entwickelt hat.

Das Konsortium machte sich zunächst daran, das technisch Machbare zu entwickeln. So bauten sie unterschiedliche Radarsysteme, die von rotierenden 360-Grad-Sensoren über spezielle Antennen, welche das Gesichtsfeld des Nutzers erfassen, bis hin zu gerichteten Sensoren reichten, die die Entfernung eines Fokuspunkts messen. Auch für die Audioausgabe der Umgebung griffen die Forscherinnen und Forscher in die Trickkiste: Beispielsweise analysierte das System die Geräuschumgebung und blendete dann die Hindernisse aus, die selbst Töne von sich geben.

Akkurat in die akustische Umgebung eingliedern

»Akustisch aktive Hindernisse, wie etwa ein sprechender Mensch, sollte das System nicht als Hindernis begreifen, da der Nutzer sie ja ohnehin schon wahrnimmt«, erläutert Prof. Dr. Rainer Martin vom Lehrstuhl für Kommunikationsakustik der Ruhr-Universität Bochum (RUB) . Durch Vermessungen des individuellen Hörvermögens von Nutzern wurde die räumliche Ortung von Quellen weiter verbessert. »Damit wollten wir erreichen, dass sich die Vertonung von realen Hindernissen beziehungsweise Navigationshinweisen möglichst akkurat in die natürliche akustische Wahrnehmung der Nutzer eingliedert«, so Prof. Dr. Gerald Enzner aus der RUB-Kommunikationsakustik.

Je intuitiver desto beliebter

Das Forscherteam entwickelte für das Projekt unterschiedliche Sensoren und Systeme und testete sie gemeinsam mit Betroffenen. »Das Erstaunliche war, dass es vor allem die einfachen, intuitiven Systeme waren, die das positivste Nutzer-Feedback ergaben«, berichtet Prof. Dr. Nils Pohl, Inhaber des Lehrstuhls für Integrierte Systeme der RUB.

Das wiederum interessierte die am Projekt beteiligten Firmen Kampmann Hörsysteme und Sensorbasierte Neuronal Adaptive Prothetik (Snap). Ihre Aufgabe war es, die Systeme mit Betroffenen zu testen sowie Hörgeräte zur Audioausgabe zu integrieren. Dabei hat sich vor allem ein System positiv hervorgetan: Ein relativ einfaches Sensorsystem, das man wie eine Taschenlampe in eine Richtung halten kann, um die Entfernung zum nächsten Hindernis als Ton ausgegeben zu bekommen. »In Verbindung mit der Audioausgabe über Hörgeräte ergibt sich damit ein intuitiv zu bedienender virtueller Blindenstock, der in größerer Reichweite funktioniert«, erläutert Dr. Corinna Weber von Snap. (me)

Der Demonstrator zeigt, wie das System funktioniert: Per Radar wird die Umgebung abgetastet. Der Ton wird über ein Hörgerät dem Nutzer präsentiert.
Der Demonstrator zeigt, wie das System funktioniert: Per Radar wird die Umgebung abgetastet. Der Ton wird über ein Hörgerät dem Nutzer präsentiert.
© RUB/Kramer

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Ruhr-Universität Bochum