Exklusiv-Interview

Die KI als Buddy des Radiologen

11. Oktober 2022, 16:02 Uhr | Ute Häußler
Ivo Driesser, KI-Experte bei Siemens Healthineers: »KI kann nachgerüstet werden und ohne Medienbrüche in vorhandene Radiologiesysteme integriert werden.«
© Siemens Healthineers

In der Radiologie ist künstliche Intelligenz keine Zukunftsmusik, sondern bereits klinische Realität. Was kann KI bereits heute, wohin gehen die Trends und wie werden Ärzte und Maschinen zusammenarbeiten? medical-design sprach mit Ivo Driesser, KI-Experte bei Siemens Healthineers.

Herr Driesser, welche Relevanz hat KI in der klinischen Entscheidungsfindung heute?

Ivo Driesser: Ich schätze, dass heute ungefähr fünf bis zehn Prozent der radiologischen Workflows komplett automatisiert von künstlicher Intelligenz unterstützt werden. Derzeit wird in der Radiologie noch viel per Hand gemacht. Die Anzahl der Untersuchungen steigt jedoch stark, gleichzeitig fehlen bei höherem Workload radiologische Fachkräfte, alles muss schneller und effektiver werden. Bei weniger Befundzeit steigen leider auch die Fehler. KI kann helfen, exaktere und schnellere Ergebnisse zu erzielen und dafür sorgen, dass sich sowohl Patienten als auch Ärzte im Diagnoseprozess weiter wohlfühlen. Das Gute: KI kann nachgerüstet werden und ohne Medienbrüche in vorhandene Radiologiesysteme integriert werden – also vom Scan über das PACS (Picture Archiving and Communication System) bis zum Befund.  

Welche Körperregionen und -teile untersucht die KI bereits verlässlich?

Ich spreche für unseren AI-Rad Companion, der seit 2019 am Markt ist. Derzeit bieten wir KI-Lösungen für Brustkorb-CTs, MRTs der Prostata, Organkonturierung für Bestrahlungsplanung in der Radioonkologie, Hirn-MRTs und Brustkorbröntgen an. Bei den Lösungen für den Brustkorb können verschiedene Algorithmen Lunge, Herz, Arterien und Wirbelsäule erfassen und dort Anomalien detektieren, qualifizieren, messen und quantifizieren. Etwa die Aorta vermessen und deren Größe checken, um zum Beispiel lebensgefährliche Aneurysmen oder Verkalkungen der Herzkranzgefäße zu diagnostizieren. Wir wollen mit der KI so viele klinische Informationen wie möglich erfassen und nutzen. Daher arbeiten mit weit über hundert Entwicklern an der digitalen Gesundheitsplattform. Die KI sitzt gerät­agnostisch zwischen Scanner und Befund und ist per Nachrüstung über Software-Updates und DICOM-Kompatibilität sofort bereit für die Anwendung.

Wie arbeiten die Algorithmen und was ist der Output?

Vereinfacht gesagt detektieren die Algorithmen Krankheitsherde: Früher wurden Raucher auf Lungenkrebs untersucht, heute liefert die KI den Zustand des Herzens und der Gefäße on top. Aktuelle Software-Updates, etwa für COVID-Lungen, können extrem schnell in alle Kliniken gespielt werden.

Die KI analysiert die Scans. Beim Chest CT schauen mehrere große Algorithmen die verschiedenen Organe an, die Berechnungen dauern ungefähr 15 bis 20 Minuten – in der Regel sind die Bilder also analysiert, bevor der Radiologe mit dem Befunden beginnt. Jedes Organ durchläuft verschiedene Algorithmen, einer schaut nach der Lage, der nächste segmentiert es, der dritte schaut nach Abweichungen und der vierte misst zum Beispiel alles aus. Das ist ein ganzes Bouquet an Algorithmen, die gleichzeitig loslegen.

Die KI erstellt daraufhin Bilder, auf Wunsch auch komplette 3D-Visualisierungen. Nehmen wir das Herz: Auf dem 3D-Bild kann Kalk in den Herzkranzgefäßen plastisch visualisiert werden. Der Arzt kann das Bild dem Patienten zeigen, so sind die Fakten sehr greifbar. Zusätzlich errechnen die Algorithmen die Kalkmenge und Platzierung und können so im Zeitverlauf Vergleiche aufstellen. Bei der Aorta-Vermessung musste früher fast zwingend Kontrastmittel gespritzt werden, unsere Algorithmen können die Aorta auch ohne detektieren und vermessen – das ist ein Arbeitsschritt weniger und erleichtert dem Arzt die Diagnose deutlich.

Wie wird die KI in den Krankenhäusern derzeit genutzt?

Das zeigen zwei Beispiele sehr gut. Das Münchner Klinikum Großhadern hat in einem wissenschaftlichen Set-up die Ganzkörper-CTs von 105 Notfall-Patienten retrospektiv analysiert und geschaut, welche Diagnose damals gestellt wurde und was der AI-Rad Companion befundet. In Extremsituationen müssen die Ärzte schnell und unter hohem Druck arbeiten, das Risiko etwas zu übersehen ist gerade bei vielen gleichzeitigen Verletzungen wie nach einem Autounfall sehr hoch. In Großhadern fand die KI bei zwei Patienten zusätzlich zu den originären Verletzungen recht große Wundherde in der Lunge, wonach die Patienten eigentlich auch sofort in die Onkologie gemusst hätte. Diese extra Augen der KI in der zweiten Befundung schätzen die Ärzte sehr. Das Klinikum nutzt den Companion seit dieser Studie und wird ihn in der klinischen Routine für vorbeugende, heute noch unauffällige Befunde nutzen.

Im Ruhrgebiet nutzt eine Klinikgruppe den AI-Rad Companion als Wochenend- und Abendunterstützung, wenn die Radiologie nicht besetzt ist. Der diensthabende Arzt, etwa ein Internist oder Pneumologe, wird durch die KI-Befunde außerhalb seines Fachgebietes unterstützt. Den endgültigen Befund macht ein menschlicher Radiologe im nächsten Dienst, dem Pa­tienten kann mithilfe der Algorithmen aber direkt geholfen werden.

Medizintechnik Radiologie Siemens Healthineers MRT Künstliche Intelligenz KI Algorithmen
© Siemens Healthineers

Müssen die Ärzte von der KI-Unterstützung überzeugt werden?

Die Art der Nutzung wie in Dortmund wird helfen, KI schnell im klinischen Alltag zu etablieren. Natürlich gibt es eine gewisse Skepsis. Es ist neu, viele Ärzte fragen sich ›Ist sie so gut wie ich?‹ oder ›Ist sie vielleicht besser als ich?‹. Ärzte müssen lernen, mit KI zu arbeiten. Meist braucht es ein Aha-Erlebnis, diesen einen Moment, wo Sie als Arzt merken ›Wow, das wäre ohne die KI jetzt anders gelaufen‹ oder schlicht feststellen müssen, dass Sie etwas übersehen haben. Dann merken die Ärzte sehr schnell, dass die extra Augen Sinn machen.

Zusätzlich kann KI bei Routinearbeiten helfen. Bei Röntgenbildern der Lunge hat ein Radiologe zwischen 60 und 90 Sekunden Zeit den Case zu öffnen, seinen Befund einzugeben und die Patientenakte zu schließen. Das ist langweilige Fließband­arbeit. Hier sorgen KI-Programme mit einer Vorselektion und Markierung auffälliger Bereiche für eine Arbeitserleichterung.

Zum anderen überzeugt die KI mit einem sehr konsistenten Outcome. Eine Studie aus Großhadern betrachtete die Ergebnisse der Aorta-Vermessung mit und ohne KI-Unterstützung: Zum einen waren die Messungen zur Diagnose eines Aneurysmas genauer, es gab 42% weniger Abweichungen gegenüber der Messung per Hand. Zudem konnte die Dauer der Untersuchung von 13 auf fünf Minuten gesenkt werden, das entspricht einer Zeiteinsparung von 63 Prozent. Aus diesen Ergebnissen ergibt sich der Trend, dass bei steigenden Patientenzahlen und weniger Fachkräften sich künstliche Intelligenz ganz logisch weiterverbreiten wird. Sie hilft den Ärzten und den Patienten.

Welche Weiterentwicklungen gibt es für die KI in der Radiologie?

Wir erweitern die Algorithmen auf immer mehr Organe, immer mehr Modalitäten und auch auf die verschiedenen radiologischen Systeme, zurzeit erhöhen wir Stück für Stück die Breite der Anwendungen. Zum Beispiel haben wir eine neue Follow-up-Funktion als Teil unseres Chest CT für Patienten mit Lungenkrebs entwickelt. Die Tumorüberwachung und der Vergleich über die Zeit sind sehr arbeits- und damit kostenintensiv. Mit Follow-up können Patienten nach bestimmten Rastern neu gescannt werden. Die KI sichert über ein exakt gleiches Mess-Setting die Konsitenz, damit vergleichbare Bilder entstehen. Die Algorithmen messen dann die Unterschiede, diese Vergleichsfunktion kommt Ende 2022 auf den Markt.

Wir legen viel Wert auf das Feedback der Ärzte. Derzeit wird eine Aorta nach Guidelines der American Heart Association an festgelegten Messpunkten analysiert. Doch was, wenn sich eine Anomalie zwischen diesen Messpunkten befindet? In der nächsten Version wird die KI zusätzlich nach der breitesten Stelle der Aorta suchen, um sicherzustellen, dass zwischen den eigentlichen Messpunkten nichts unentdeckt bleibt. Außerdem engagieren wir uns sehr stark in der neurologischen KI, also der Algorithmus gestützten Beobachtung des Gehirns im Zuge der Diagnose von neurodegenerativen Krankheiten wie z. B. Alzheimer oder Parkinson. Diese sind zwar noch nicht heilbar, eine frühe Erkennung hilft aber, den Verlauf abzumildern. Unser Programm Brain MR kann 45 Gehirnbereiche detektieren, deren Volumen messen, mit Farbcodes markieren, mit Daten von gesunden Patienten vergleichen und so Abweichungen fest- und darstellen.

Neue Funktionen oder auch bestehende Applikationen, die ein Krankenhaus neu nutzen möchte, können ähnlich einem App-Store einfach gekauft und geladen werden.

Ihre KI-Plattform ist auch über die Cloud nutzbar, lernt die Maschine aus den Daten aller gescannten Patienten?

Nein, der Dateneigentümer ist immer die Klinik, Siemens Healthineers fungiert als Datenverarbeiter, das ist datenschutzrechtlich stark getrennt. Wir entwickeln die KI-Algorithmen mit dedizierter Hardware in unserem Forschungslabor in Princeton, New Jersey, und setzen entweder Daten unserer Partnerkliniken ein oder beziehen frei verfügbare Daten über Broker. Das ist für die Software-Zertifizierung wichtig, wir müssen u. a. der FDA vorlegen, wie die KI entwickelt wurde. Die KI wird also trainiert, »eingefroren« und installiert. Sie lernt nicht anhand der in der Klink erfolgten Aufnahmen und Diagnosen.

Welche Trends sehen Sie für KI in der Radiologie in den nächsten Jahren?

Die künstliche Intelligenz wird bald nicht nur Bilder bewerten, sondern auch den Workflow im Krankenhaus mitsteuern. Bei CT-Systemen gibt es diese Funktion schon, z. B. wenn ein Patient mit einem Verdacht auf Gehirnblutung eingeliefert wird. Nach der Untersuchung weist die KI den Radiologen darauf hin, ob eine Blutung detektiert wurde und er den Fall dementsprechend mit hoher Priorität behandeln muss. Die Algorithmen könnten zukünftig also Patienten nach der Schwere ihrer Diagnose vorsortieren, Alarme für besonders dringliche Fälle setzen und eine Behandlungsreihenfolge vorschlagen.
Ich sehe zudem ein großes Potenzial, dass die jetzige Quantifizierung in eine verbesserte und einfachere automatische Befundung mündet. Heute sitzt da immer noch der Arzt mit seinem Diktaphon und liest die Zahlen, die der AI-Rad Companion ihm liefert, ab. Eine nahtlose Übertragung der Messwerte, der Visualisierungen und das Einspielen in alle relevanten Krankenhaus-IT-Systeme sollte klappen.

Zusätzlich zur automatisierten Befundung wird auch die autonome Befundung kommen. In Dänemark wird diese Vorgehensweise in der Mammografie bereits praktiziert. Normalerweise sind das zwei Ärzte, die die Bilder bewerten, dort übernimmt die KI bereits selbständig den ersten Diagnoseschritt. Das wird auch in Deutschland kommen. Er ist aber nicht das Ziel, den Arzt zu ersetzen – der Companion soll die Ärzte entlasten und Ihnen das Leben einfacher machen. Die letzte Entscheidung wird immer beim Mediziner, also dem Menschen, bleiben. ■


Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Siemens Healthcare Diagnostics GmbH