ESMO klärt Typ, Risiko und Verantwortung

Erste Leitlinie für KI-Sprachmodelle in der Onkologie

25. Februar 2026, 10:20 Uhr | Elektronik Medical (uh)
Mit ChatGPT startet OpenAI einen KI-Agenten speziell zugeschnitten auf Gesundheitsfragen. ES gibt eine Version für Patienten und eine Enterprise-Adaption für (US-)Kliniken.
© Canva KI

ChatGPT auf dem Privathandy des Onkologen? Längst klinische Realität ohne belastbare Spielregeln. Diese Lücke ist jetzt geschlossen: Mit der ESMO Guidance on the Use of LLMs in Clinical Practice, kurz ELCAP, liegt die weltweit erste onkologische Leitlinie für den Einsatz von KI-Sprachmodellen vor.

Diesen Artikel anhören

Auf einen Blick: Die ESMO hat mit ELCAP das weltweit erste Regelwerk für den Einsatz großer Sprachmodelle in der Onkologie veröffentlicht: 23 Konsenssätze, drei LLM-Typen, ein klarer Auftrag an Kliniken – und autonome KI-Agenten als noch ungeregeltes Thema auf der Agenda.


Die European Society for Medical Oncology (ESMO) hat mit der »ESMO Guidance on the Use of Large Language Models in Clinical Practice«, kurz ELCAP, die weltweit erste onkologiespezifische Leitlinie für den Einsatz von KI-Sprachmodellen vorgestellt. Im Oktober 2025 erschien sie in den Annals of Oncology.

Drei Typen, drei Risikoprofile

Hinter ELCAP steht ein 20-köpfiges internationales Expertengremium unter Leitung von Prof. Jakob N. Kather, Professor für Clinical AI am EKFZ für Digitale Gesundheit an der TU Dresden. Die Gruppe arbeitete von November 2024 bis Februar 2025 und übersetzte ihre Ergebnisse in 23 Konsenssätze für die klinische Praxis.

Kernstück ist ein Drei-Typen-Framework: Typ 1 umfasst patientenseitige LLMs – Chatbots, die Betroffene bei der Einordnung ihrer Diagnose unterstützen. Typ 2 meint klinisch eingesetzte Systeme, die medizinisches Fachpersonal bei Entscheidungen unterstützen, etwa durch Befundaufbereitung oder das Formulieren klinischer Texte. Typ 3 beschreibt KI-Systeme im Hintergrund: Systeme, die Alerts generieren, Daten analysieren oder Prozesse automatisieren, ohne direkte Nutzerinteraktion.

Ärzte greifen schon auf eigene Faust zu

Besonders dringlich ist das Thema bei Typ-2-Systemen. LLM-Tools wie ChatGPT werden von Ärztinnen und Ärzten bereits regelmäßig genutzt – häufig über private Endgeräte, ohne institutionelle Validierung oder Datenschutzprüfung. ELCAP adressiert das klar: Kliniken und Krankenhäuser stehen in der Pflicht, sichere und inhaltlich geprüfte LLM-Tools aktiv bereitzustellen. Nur so lassen sich die Potenziale heben und gleichzeitig Risiken für Patientendaten und klinische Entscheidungsqualität kontrollieren.

KI-Agenten: die nächste Stufe

Einen blinden Fleck benennt ELCAP ausdrücklich: Agentische KI-Systeme – autonome Modelle, die ohne direkte Nutzerinteraktion eigenständig handeln und ganze Prozessketten steuern – sind im aktuellen Framework noch nicht abgedeckt und erfordern dedizierte künftige Leitlinien. Kather sieht hier die Zukunft der onkologischen KI. Die TU Dresden hat bereits ein LLM-basiertes Agentensystem für Tumor-Boards entwickelt, das typische Abläufe interdisziplinärer Konferenzen automatisiert und entbürokratisiert. Technisch funktioniert es – die eigentliche Herausforderung liegt jetzt in der klinischen Implementierung.

Für Entwickler und Systemintegratoren im Medizintechnik-Umfeld bedeutet das: ELCAP ist eine solide Orientierungshilfe, aber keine abschließende Regulierung. Wer heute LLM-Systeme für die Onkologie entwickelt oder integriert, sollte das Drei-Typen-Modell als strukturellen Rahmen nutzen – und einkalkulieren, dass für autonome Agenten-KI noch eigenständige Vorgaben folgen werden. (uh)


Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu TU Dresden

Weitere Artikel zu Medizinelektronik

Weitere Artikel zu Software als Medizinprodukt

Weitere Artikel zu eHealth / Medizin 4.0

Weitere Artikel zu Künstliche Intelligenz (KI)