Österreichs MedUnis bieten noch immer keine Lehrangebote zur Integration von Künstlicher Intelligenz ins Gesundheitswesen. Aber sie arbeiten dran. Deutlich fortgeschrittener sind die heimischen Bildungseinrichtungen bei Vorgaben zur Nutzung von KI in akademischen Arbeiten.
Wenn es um KI im Bildungsbereich geht, nimmt die Verwendung von ChatGPT, Gemini und anderen Sprachmodellen bei der Erstellung leistungsrelevanter Arbeiten zu. „Die Versuchung, KI für Seminararbeiten, Masterarbeiten oder Dissertationen einzusetzen, ist sehr groß“, weiß Georg Dorffner, Professor am Institut für Artificial Intelligence der MedUni Wien und Curriculumdirektor für Medizinische Informatik. Verbieten kann und will man den Einsatz der Sprachmodelle aber nicht: „KI wird ein unverzichtbarer Bestandteil von wissenschaftlichen Publikationen und der Forschung generell sein. Darauf müssen wir die Studierenden vorbereiten.“

Gummiwände. Die Medizinischen Universitäten kämpfen um Lehrangebote zum Thema KI und Gesundheit. Für Studierende sind die LLM-Werkzeuge längst geliebte Hilfsmittel für Studienzwecke.
Digitalisierung erhält Grenzen
Die MedUni Wien hat strenge Richtlinien für die Verwendung von KI in Abschlussarbeiten: Der Einsatz muss immer in Absprache mit den Betreuern erfolgen. Und die Nutzung von KI muss so transparent wie möglich offengelegt werden, es müssen also die verwendeten Tools genannt werden und für welchen Zweck sie eingesetzt wurden. Textabschnitte einfach per Copy and Paste von ChatGPT zu übernehmen oder gar die ganze Arbeit von einem Sprachmodell schreiben zu lassen, ist verboten. Für legitim hält Dorffner den Einsatz von KI zum Brainstorming oder zum Vorschlagen von Formulierungen. Allerdings ist es unabdingbar, die vom Sprachmodell angeführten Informationen zu überprüfen. Denn diese Modelle neigen dazu, manchmal vermeintliche wissenschaftliche Quellen oder Zitate frei zu erfinden – ein Phänomen, das als „Halluzinieren“ bezeichnet wird. „Es bleibt den Studierenden nicht erspart, jede angegebene Publikation selbst zu lesen und die richtige Wiedergabe zu überprüfen“, betont Dorffner.
„KI-basierte Sprachmodelle können als sehr avancierte Suchmaschine eingesetzt werden“, erklärt Hrvoje Bogunović, Professor für Medical Image Computing an der MedUni Wien. Riesige Mengen an Informationen zu durchforsten und zusammenzufassen, könne für Studierende eine große Hilfestellung sein. Mit Einschränkungen: Zum einen verweist auch Bogunović auf die Problematik des Halluzinierens. Indem man allerdings in einem zweiten Schritt eine andere KI beauftragt, die Angaben der ersten KI zu überprüfen, kann man die KI gewissermaßen mit ihren eigenen Waffen schlagen. Zum anderen sind die von der KI zusammengesuchten Informationen manchmal gebiast, also nicht ausgewogen: KIs neigen dazu, sich auf gängige Publikationen zu stützen und lassen mitunter weniger häufig zitierte Quellen links liegen. Für Studierende könnte es auch nützlich sein, ihre eigene Arbeit von einer KI nach etwaigen Fehlern überprüfen zu lassen und auf diese Weise die Arbeit noch zu verbessern.
„Es ist wichtig, dem Einsatz von KI im Bildungssystem offen gegenüber zu stehen“, betont Anne Busch, Leiterin des Masterstudiengangs Health Care Informatics an der Fachhochschule Wiener Neustadt. Sie plädiert für einen offenen und pragmatischen Umgang mit KI im Bildungsbereich, die Chancen zu erkennen und sie sinnvoll zu nutzen, anstatt sie zu verteufeln oder zu verbieten.

Nutzen lehren. Anne Busch, Leiterin Health Care Informatics an der FH Wiener Neustadt forciert einen pragmatischen Umgang mit KI im Bildungsbereich: „Nach der Ausbildung wird Künstliche Intelligenz im Arbeitsalltag der Absolventen eine wichtige Rolle spielen“.
An der FH Wiener Neustadt ist die Nutzung von KI für Masterarbeiten erlaubt, muss aber klar gekennzeichnet sein, ähnlich einer Quellenangabe. Es wurden auch Lehrkonzepte angepasst, Inhalte auf KI fokussiert und Prüfungen umgestaltet. Im Studiengang Health Care Informatics zum Beispiel lernen die Studierenden, selbst kleine KI-Modelle zu entwickeln und zu trainieren. Auch in die Softwareentwicklung hat KI Einzug gehalten. Die Studierenden lernen klarerweise, wie man Java-Codes selbst programmiert, aber sie lernen auch, wie man solche Codes mithilfe von ChatGPT erstellt. „Entscheidend ist nicht, auf welche Weise sie die Codes erstellen, sondern dass sie verstehen, wie ein solches Programm aufgebaut ist“, betont Busch. Infolgedessen wurden mündliche Prüfungen eingeführt, bei denen die Studierenden den von ihnen programmierten Code erklären müssen.
„Man kann den Studierenden den Einsatz von KI nicht verwehren, weil das nach der Ausbildung im Arbeitsalltag eine wichtige Rolle spielen wird“, sagt Busch. An der FH Wiener Neustadt ist KI daher nicht nur in der Informatik, sondern in allen Modulen und Fächern ein Thema: in den Gesundheitsberufen, im Recht, in der Ethik, aber auch im Projektmanagement. Die Studiengangsleiterin hält es auch für notwendig, dass der Umgang mit KI bereits in der Schule gelehrt wird, sodass Studierende bereits ein Grundverständnis mitbringen. Derzeit ist es so, dass sich manche Studierenden in Eigeninitiative bereits intensiv mit KI beschäftigt haben, während andere noch überhaupt keine Erfahrung im Umgang mit KI haben.
Kampf um KI-Lehrinhalte
An den Medizinischen Universitäten fällt die Integration von KI in den Lehrstoff deutlich schwerer. „Wir haben jahrelang gekämpft, um überhaupt ein paar Stunden zum Thema digitale Medizin ins Curriculum zu bringen“, erzählt Dorffner. Der Curriculumsdirektor ist davon überzeugt, dass auch Ärzte über ein gewisses Grundverständnis von KI verfügen müssen: Was sich dahinter verbirgt, welche Grenzen sie hat, wie man sie einsetzen kann und wie man sie nicht einsetzen sollte. Derzeit müssen Medizinstudierende noch mit jenen Informationen über KI auskommen, die sie im Netz finden oder von Kollegen erhalten. Das müsse sich ändern, bekräftigt Bogunović: „Es ist zu erwarten, dass Ärzte in Zukunft immer öfter mit KI-Tools zu
tun bekommen.“

