Die KI empfiehlt, der Mensch entscheidet – so lautet die regulatorische Formel für den KI-Einsatz in der Medizin. Doch der ECR 2026 wirft eine unbequeme Frage auf: Wenn die KI Bilder ausgibt, Befundtexte generiert und Workflows priorisiert: wie viel Entscheidungsfreiheit bleibt dem Radiologen?
Die Formel klingt zunächst beruhigend: KI empfiehlt, der Mensch zeichnet ab. Doch wenn KI den Alltag in der Radiologie durchdringt, ist die logische Frage, die folgen muss, keine technische mehr – sie ist eine klinische, regulatorische und auch sozial-gesellschaftliche.
Die sechs großen Hersteller für Medizingeräte in der Radiologie betonen in Wien pflichtschuldig: Der Arzt bleibt die letzte Entscheidungsinstanz. Das stimmt – zumindest regulatorisch. Aber es unterschlägt auch eine unbequeme Realität: Wer täglich 270 CT-Patienten befundet, wer mit KI-vorsortierten Workflow-Listen arbeitet, wer Befundtexte aus automatisch generierten Vorschlägen akzeptiert oder ablehnt, dessen Entscheidungsraum ist längst nicht mehr frei. KI prägt die Wahrnehmung, bevor der Radiologe überhaupt zu denken beginnt – durch Priorisierung, durch Vorformulierung, durch das, was sie zeigt, und durch das, was sie weglässt.
Dabei wäre es zu einfach, daraus ein pauschales Misstrauen abzuleiten. Denn die unbequeme Gegenfrage lautet: Wie sicher ist die Alternative? Ein übermüdeter Radiologe, der nach dem achtzigsten Thorax-CT des Tages eine Lungenembolie übersieht, macht ebenfalls Fehler – nur ohne Protokoll, ohne Audit-Trail, ohne die Möglichkeit, systematisch nachzubessern. Studien zeigen, dass KI-Assistenz die Sensitivität messbar hebt: kein Argument für blinde KI-Gläubigkeit, aber ein starkes Argument dafür, dass KI, selbst wenn sie irrt, das Gesamtsystem sicherer machen kann als der Status quo. Denn Fehler mit KI sind zwar sichtbarer und reproduzierbarer, aber eben auch besser korrigierbar als Fehler ohne KI.
Das sollte kein Freifahrtschein sein. Es ist ein Argument dafür, die Debatte ehrlicher zu führen: nicht »KI versus Arzt«, sondern ‚Wie gestalten wir die Mensch-KI-Kollaboration so, dass Verantwortung nicht in der Schnittstelle versickert?‘. Der ECR in Wien 2026 lieferte beeindruckende Antworten auf die Frage, was KI kann. Die Fragen, wer haftet, wenn sie systematisch irrt, so wie ein Bias in Trainingsdaten klinische Entscheidungen verzerrt, – und wie Transparenz über KI-Grenzen regulatorisch durchgesetzt wird –, bleiben auf den Wiener Ausstellerfluren weitgehend unbeantwortet. Das ist die eigentliche Hausaufgabe, die der ECR 2026 hinterlässt.