Editorial - ChatGPT als Medizintechnik?

Eine gesunde Dosis Skepsis

25. April 2023, 8:00 Uhr | Ute Häußler
Der generative KI-Bot Chat wird den Alltag und die Arbeitswelt vieler Menschen verändern - auch in der Medizintechnik gibt es bereits Anwendungen.
© Unsplash

»Generative KI« meint KI-Modelle, die scheinbar eigene, originäre Inhalte erschaffen. Der Frage-Antwort-Automat ChatGPT zeigt Potenzial für Digital Health. Wie schätzt der Bot selbst seinen Einfluss auf das Gesundheitswesen ein?

Sehr geehrte Lesende,

»Wir befinden uns im wilden Westen der KI« schreibt das Wirtschaftsmagazin BrandEins zum Einsatz von künstlicher Intelligenz – im Journalismus wie in der Medizin. KI könne unsere Welt genauso auf den Kopf stellen wie einst das Internet selbst. Im Fokus der gesellschaftlichen Veränderungen steht derzeit die sogenannte »generative KI«, also KI-Modelle, die scheinbar eigene, originäre Inhalte erschaffen. Prominentestes Beispiel dieser Gattung ist ChatGPT, der Frage-Antwort-Automat zeigt einiges Potenzial für Digital-Health-Produkte. Wie schätzt der Bot selbst seinen Einfluss auf das Gesundheitswesen ein?

ChatGPT holt aus den Tiefen des World-Wide-Wissens fünf Punkte hervor: Gesundheitsdaten für eine effektivere und genauere Diagnose und Behandlung auswerten, Patienten und Mediziner mit Echtzeit-Informationen und Empfehlungen versorgen, mit der Analyse und Interpretation großer Datenmengen die Medikamentenforschung beschleunigen, Prozesse und Verwaltung optimieren sowie mit datenbasierter Präventivmedizin einen gesunden Lebensstil fördern. Der Bot weist jedoch darauf hin, dass er medizinische Fachkräfte zwar unterstützen, aber nicht ersetzen kann – es fehle ihm an »menschlicher Empathie und emotionaler Intelligenz«. »Außerdem kann
ein menschlicher Experte die Informa­tionen von ChatGPT validieren und zusätzliche Aspekte aus der Interaktion mit dem Pa­tienten berücksichtigen.«

Womit wir direkt bei den Risiken des Einsatzes von KI-Tools im Gesundheitswesen sind, der Bot benennt sie selbstkritisch: Allem voran der Datenschutz (»es müssen strenge Regulierungen und Standards eingeführt werden, um sicherzustellen, dass ChatGPT verantwortungsvoll eingesetzt wird«), sozial ungleiche Teilhabe (»zugänglich und erschwinglich für alle«) und natürlich mögliche Fehldiagnosen. Die Maschine liefert auf ähnliche Fragen oft sehr unterschiedliche Antworten – was allerdings auch bei zwei oder mehr Ärzten vorkommt. Weitaus spannender erscheinen mir die Auswirkungen der KI-Nutzung auf das menschliche Verhalten: »Es besteht das Risiko, dass das medizinische Personal zu sehr auf die Empfehlungen von ChatGPT vertraut und dadurch wichtige menschliche Urteile oder Entscheidungen vernachlässigt werden.«

Blinder Gehorsam von Patienten, Pflegekräften oder Ärzten – ob nun aus Unwissen oder Zeit- und Personaldruck – ist ein großer Risikofaktor. Denn genauso wenig wie Ärzte jemals Götter in Weiß waren, braucht es für eine gute KI-Unterstützung eine ordentliche Dosis Skepsis und gesunden Menschenverstand. Gerade wegen der mit KI einhergehenden Erleichterungen, dürfen sowohl Mediziner wie auch Patienten das eigene kritische Denken nicht vernachlässigen. Nur unter dieser Prämisse kann aus »Wild Wild West« im medizinischen Alltag eine human geführte Partnerschaft zwischen Mensch und Maschine entstehen.

Herzlichst, Ihre

Ute Häußler


Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu WEKA FACHMEDIEN GmbH

Weitere Artikel zu Medizinelektronik

Weitere Artikel zu Med. Apps und App Stores