Bildgebende Diagnostik

AR-Visualisierung von Ultraschallbildern

22. April 2020, 10:23 Uhr   |  Fraunhofer IGD

AR-Visualisierung von Ultraschallbildern
© Fraunhofer IGD

Die AR-Sonografie soll zukünftig die Erfolgsquote ultraschallgeführter Biopsien verbessern.

Augmented Reality ermöglicht die lagerichtige Darstellung direkt auf dem Patienten

Wissenschaftler des Fraunhofer-Instituts für Graphische Datenverarbeitung IGD in Darmstadt haben ein Verfahren entwickelt, das Ultraschallsonographie mit Augmented Reality (AR) kombiniert. Die »AR-Sonographie« versetzt Ärzte in die Lage, mithilfe einer AR-Brille Ultraschallbilder lagerichtig zu betrachten. Der Untersucher schaut dabei direkt auf den Patienten und muss nicht die ganze Zeit auf den Bildschirm des Ultraschallgerätes blicken.

Die Technologie soll zukünftig die Erfolgsquote ultraschallgeführter Biopsien verbessern. »Die Schnittebene durch den Körper erscheint über den repräsentierten Strukturen direkt am Patienten, so dass der Arzt die Nadel lagerichtig sieht und den Stichkanal leichter nachjustieren kann«, erklärt Matthias Noll, stellvertretender Leiter der Abteilung Visual Healthcare Technologies am Fraunhofer IGD. Auch die Sicherheit operativer Eingriffe lässt sich steigern, indem Chirurgen mit der neuen Methode Eingriffe exakter planen können. Zukünftig könnten anatomische Anomalien oder Gewebeveränderungen sogar direkt im AR-Bild sichtbar werden, indem sie beispielsweise farbig aufleuchten.

Exakte Lagebestimmung durch Software 

Die lagerichtige Darstellung der Ultraschallbilder basiert auf einem externen optischen Trackingsystem von Ultraschallsonde und AR-Brille. Die Software des Fraunhofer IGD wertet deren Positionen aus und errechnet mithilfe von Kalibrierungen die relative Lage beider Objekte zueinander. Das Ultraschallbild wird dem Untersucher durch die AR-Brille in seinem Sichtfeld angezeigt. 

In den nächsten drei Monaten soll die AR-Sonographie in der Klinik getestet werden. »Um das Signal des Ultraschallgerätes abgreifen zu können, benötigen wir eine Schnittstelle mit der Software des Ultraschalls oder wir nutzen das Monitorkabel«, sagt Noll. Ansonsten genügten ein herkömmliches Ultraschallgerät, die AR-Brille, das Trackingsystem und ein Laptop, der die AR-Berechnungen macht. 

Links

(me)

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen