ChatGPT: Fast wie im Märchen

Lesedauer beträgt 4 Minuten
Autor: Elisabeth Rudolph

ChatGPT & Co erobern die Welt im Sturm. Das Gesundheitssystem kann von der Sprach-KI profitieren – solange man seine Grenzen kennt. Denn Chatbots neigen zum Fabulieren.

Der Roll-out von ChatGPT hat einen wahren Hype ausgelöst. Schon zwei Monate nach seiner Veröffentlichung im Herbst 2022 verzeichnete der Chatbot Schätzungen zufolge rund 100 Millionen Nutzerinnen und Nutzer – ein Erfolg, mit dem selbst die Entwickler von OpenAI nicht gerechnet hatten. Im Rahmen einer Anhörung im US-Senat, bei der es um die Regulierung von KI-Systemen ging, hatte CEO Sam Altman Mitte Mai beteuert: „Wir versuchen nicht, die Menschen dazu zu bringen, unser System mehr und mehr zu nutzen.“ Altman hat akzeptiert, dass die rasante Verbreitung des Systems Fragen zur Verlässlichkeit von KI aufgeworfen hat. Eine Diskussion um ethische Leitlinien für KI sei unverzichtbar. Bislang ist von einer Nachdenkpause wenig zu spüren: Large Language Models (LLM) wie ChatGPT, Bard, Bert und Co verbreiten sich in ihren ständig verbesserten Versionen weiterhin mit der Geschwindigkeit eines Steppenfeuers.

Effizienz braucht Verlässlichkeit. Noch sind Auskünfte von Chatbots nicht sicher. „Large Language Models“ werden aber
Dokumentation und Kommunikation in Gesundheitseinrichtungen in ganz, ganz naher Zukunft umgestalten.

Umsicht beim Fortschritt

Sie versprechen großen Nutzen für die Gesundheitssysteme. Allerdings sind die KI-basierten Bots nur so gut wie die Daten, mit denen sie trainiert werden. Laut dem Fachjournal „JAMA“ stellten Mediziner von der Stanford University dem Chatbot typische Fragen, mit denen sich Herzkranke an Ärzte wenden, wie „Sollte ich Aspirin schlucken?“ oder „Welche Diät ist für das Herz am gesündesten?“. Experten bewerteten 84 Prozent der KI-Empfehlungen als angebracht, etwa dass Herzkranke wenig Salz essen sollten. Doch der Chatbot lag auch daneben: Er wies Menschen mit Herzerkrankungen an, Gewichte zu stemmen, machte Fehler bei einem Medikament und einem Blutwert. Den Hausarzt wird ChatGPT nicht ersetzen – und auch keine andere Profession, bei der Tatsachen zählen.

Die Ungenauigkeiten wecken Bedenken. In einem Schreiben warnt die Weltgesundheitsorganisation WHO zur Vorsicht beim Einsatz von LLM. Mithilfe der generativen Sprachmodelle können teils zwar plausibel klingende Aussagen erzeugt werden, die jedoch ein hohes Risiko mit sich bringen. „Diese Antworten können völlig falsch sein oder schwere Fehler enthalten, besonders wenn es um Gesundheit geht“, rät die WHO zu einem behutsamen Umgang mit den Sprachmodellen. Kurz: Die KI neigt zum Schwadronieren.

Bei allen Bedenken: Das Potenzial der großen Sprachmodelle ist riesig – und wird sich durchsetzen. Pflegende, Ärzte, Patienten und Wissenschaftler sind auf die unterstützenden Effekte der neuen Technologie angewiesen. „Die Anwendungen von ChatGPT im Gesundheitswesen werden in Zukunft wahrscheinlich noch weiter zunehmen“, beschreibt Daniela Haluza die derzeitige Lage. Daniela Haluza ist Umweltmedizinerin, Professorin am Zentrum für Public Health der Medizinischen Universität Wien und Koordinatorin einer Forschungsgruppe, die die Auswirkungen der Telemedizin auf die Patientenförderung untersucht. Für sie liege der große Vorteil von ChatGPT darin, große Mengen an medizinischen Daten zu analysieren und zu interpretieren, erklärt die Forscherin. Hier werde ChatGPT zum Gamechanger, denn es könne sehr rasch Muster in unstrukturierten Daten erkennen, diese organisieren und ordnen. „Das verbessert die Qualität der medizinischen Versorgung, indem es schnelle und genaue Diagnosen ermöglicht“, beschreibt Haluza die Benefits. Als konkreten Anwendungsfall nennt sie das oft schwierige Erkennen von seltenen Krankheiten. Auch in Fachgebieten, die routinemäßig bildgebende Verfahren einsetzen, wie die Radiologie und die Pathologie, habe sich „der Einsatz von künstlicher Intelligenz bereits bewährt“. Sprachbots werden bereits für die automatische Dokumentation und Codierung von medizinischen Daten verwendet – „um humane Ressourcen zu sparen“, ergänzt Haluza. Das betrifft auch den Bereich der Recherche, der viel Zeit in Anspruch nimmt und von der KI „in kürzester Zeit erledigt werden kann“.

„Ärzte, die künstliche Intelligenz nicht nutzen, werden keine Chance haben“, ist Josua Ziegler überzeugt. Er ist CEO der Punktum Digital GmbH, eines Berliner Beratungsunternehmens mit Schwerpunkt Digital Health-Anwendungen. Er sieht die großen Vorteile der KI-Anwendungen vor allem im Bereich der Diagnostik. „Produktivitätsbooster“ ist eines der Schlagwörter, die er mit ChatGPT assoziiert. Auch er schränkt ein: „Sofern man es richtig einsetzt.“ Praktische Erfolge gibt es bereits: „Was richtig gut funktioniert, ist das Schreiben von Arztbriefen, vor allem in Englisch, der Muttersprache des Bots.“ Fakten werden hier treffend übermittelt und in patientenverständlicher Sprache kommuniziert – für den Arzt bleibt mehr Zeit für den Patienten. Erste Tests in deutscher Sprache liefern einen guten Grundstock für Arztbriefe. Künftig könnte man ChatGPT auch für die Zusammenfassung von Patientenunterlagen als Vorbereitung für den Arzt oder einen Krankenhausaufenthalt nutzen.

Garbage in, garbage out. Die MedUni-Professorin Daniela Haluza ortet großes Potenzial für KI-basierte Chatbots.
Allerdings müsse erst die größte Schwachstelle eliminiert werden: Ungenaue Daten produzieren unzuverlässige Ergebnisse.

Runter vom Gas

„Die Datenqualität ist die größte Schwachstelle von ChatGPT“, weiß die MedUni-Professorin Haluza. „Wenn ungenaue Informationen genutzt werden, können unzuverlässige Ergebnisse entstehen.“ Das Prinzip „garbage in, garbage out“ werde wieder einmal bewiesen. Sie warnt davor, ChatGPT als Ersatz für menschliche Experten zu sehen. Das Tempo, mit dem ChatGPT die Medizin erreicht hat, ist für Haluza „viel zu rasant. Die Gesetzgebung, die ethisch-soziale Diskussion und auch die Wissenschaft kommen nicht mehr mit.“ Die Entwickler sollen „bitte mal runter vom Gas“, fordert sie. Und hier gehe es nicht um eine Ablehnungshaltung gegenüber neuen Technologien, sondern schlichtweg um neue komplexe ethische Fragen, etwa wer Zugang zu welchen Daten hat und welche Auswirkung das auf die Patientenversorgung hat. Selbst Elon Musk , ansonsten ethischer Bedenken wenig verdächtig, schlägt eine sechsmonatige Entwicklungspause für Chatbots vor. Der Hamburger Medizinrechtler und Gründer des „Bundesverbands Internetmedizin“ Sebastian Vorberg hat für das Zauberlehrlings-Problem einen praktischen Lösungsansatz, den er in einem Aufsatz in Diskussion bringt: Er sieht ChatGPT in seinen medizinischen Anwendungen als Medizinprodukt und fordert deshalb eine entsprechende Klassifizierung. Eine Zertifizierung nach der Medizinproduktrichtlinie dauert rund fünf Jahre und bewirkt das genaue Gegenteil einer ungebremsten Entwicklung. Aus Sicht Vorbergs sei es „relevant, zwischen einem Spielzeug und einem Medizinprodukt zu unterscheiden“.

Künstliche Intelligenz wird mit seiner Bandbreite an Einsatzmöglichkeiten nicht nur im Gesundheitsbereich, sondern gesamtgesellschaftlich eine immer wichtigere Rolle spielen. „Wir haben hier als optimierungswütige Menschheit wohl Blut geleckt“, orakelt Daniela Haluza. Wie intensiv KI und Learning Language Models in Zukunft eingesetzt werden, hängt von mehreren Faktoren ab. Denn nicht nur die Fortschritte in der Technologie, auch die Verfügbarkeit von Daten und die Bedürfnisse der Benutzer spielen hier eine Rolle. Den politischen Willen und die Wünsche der Gesellschaft bezeichnet die Forscherin als richtungsweisend. Geht es nach ihr, gibt es vor allem im Bereich der personalisierten Medizin, im Management von Gesundheitseinrichtungen, etwa dem Bestandsmanagement, aber auch in der Forschung viel Potenzial. Ebenso in der Patientenkommunikation oder in der automatisierten Diagnose- und Behandlungsentscheidung. Bots sehen die eigene Zukunft wesentlich nüchterner als mancher Digital Health-Fan. Auf die Frage „Wo siehst du deine Zukunft im Gesundheitsbereich?“, antwortet der ChatGPT diplomatisch mit „als KI-Modell habe ich keine persönliche Zukunft, sondern meine Funktion besteht darin, …, Menschen zu helfen, Informationen zu finden und Probleme zu lösen.“ Na dann … 

Quellen und Links:

Assoz.-Prof. PD DDr. Daniela Haluza

WHO calls for safe and ethical AI for health

Wer steht hinter punktum?   

Was ist ein Large Language Model (LLM)?

Vorberg.law

Diese Artikel könnten Sie auch interessieren:

Weiterlesen

Von Lercherln und Nebelgranaten: Der Ruf nach Erhöhung der Ausbildungs­plätze an den österreichischen Medizin­universitäten

Wiens Gesundheitsstadtrat Peter Hacker fordert eine Verdoppelung der Medizin-
Studienplätze. Die Rektoren der MedUnis sind dagegen. Beim Austausch der Argumente verzichten beide Seiten auf akademische Zurückhaltung.