Reuters-Recherche - Komplikationen im OP

Wenn das KI-Update zum Risiko wird

13. Februar 2026, 14:07 Uhr | Elektronik Medical (uh)
Die Probleme mit KI-unterstützten Medizingeräten stehen im Fokus einer Reuters-Recherche: oft ereignen sich kritische Vorfälle kurz nach Software-Updates.
© Canva Pro

US-Kliniken melden vermehrt Zwischenfälle mit KI-gestützten Medizinprodukten, oft kurz nach Software-Updates. Eine Reuters-Recherche zeigt den steinigen Weg zu mehr Präzision und Effizienz im OP und offenbart Schwächen der FDA-Zulassung. Was ist passiert und kann die MDR solche Vorfälle verhindern?

Diesen Artikel anhören

Glasfaser-Technologie für massive Datenströme, zweiarmige Assistenzroboter, die dem Chirurgen zuarbeiten, AR-Brillen für die bildgeführte Navigation – die Vision vom vollvernetzten OP nimmt im klinischen Alltag Schritt für Schritt Gestalt an. Die Entwicklung reagiert auf verfügbare Technologien, die Digitalisierung und addressiert die Sicherheit, den Personalmangel und steigenden Kostendruck im Gesundheitswesen. Doch während insbesondere mit der Integration der Künstlichen Intelligenz die Erwartungen an eine KI-gestützte Medizintechnik und automatisierte OP-Prozesse steigen, mehren sich Berichte über Sicherheitsprobleme - zumindest in den USA. Eine Reuters-recherche ist den Vorfällen nachgegangen.

Navigationssystem mit verheerenden Folgen

Was ist passiert? Das TruDi-Navigationssystem des Medizingeräteherstellers Acclarent, ursprünglich im Portfolio von Johnson & Johnson und 2024 übernommen von Integra LifeSciences, soll Chirurgen bei Nasennebenhöhlen-Operationen präzise leiten. Ende 2021 erhielt das zertifizierte und bis dahin sehr zuverlässige System ein Update mit KI-Komponenten – danach häuften sich die Berichte über Komplikationen. U.a. reichten zwei Schlaganfall-Patienten in Texas Klage ein und werfen dem Hersteller vor, dass die integrierte Künstliche Intelligenz die Tendenz des Systems zu Inkonsistenz und Unzuverlässigkeit verursacht oder zumindest verschlimmert habe.

In einem Fall soll während einer Sinusoperation die Halsschlagader verletzt worden sein. Acclarent bestreitet die Vorwürfe und gibt an, lediglich Vertreiber, nicht Hersteller des Systems gewesen zu sein. Integra LifeSciences erklärt, es gebe keine belastbaren Beweise für einen Zusammenhang zwischen der KI-Technologie und den behaupteten Verletzungen. Die Klagen sind anhängig.

FDA-Daten belegen systematisches Problem

Die Reuters-Untersuchung wertete daraufhin FDA-Berichte aus, führte Interviews mit Medizinern und analysierte die Gerichtsdokumente. Die Recherche offenbart ein grundsätzliches Problem: Medizingerätehersteller integrieren zunehmend KI in ihre Produkte, während Regulierungsbehörden eine steigende Zahl von Patientenverletzungen registrieren.

Eine im August 2025 im JAMA Health Forum publizierte Studie der Universitäten Johns Hopkins, Georgetown und Yale bestätigt diese Entwicklung mit harten Zahlen. Von 950 durch die FDA zugelassenen KI-gestützten Medizinprodukten (AIMDs) waren 60 Geräte – also 6,3 Prozent – mit insgesamt 182 Rückrufen verbunden. Besonders alarmierend: 43 Prozent dieser Rückrufe erfolgten innerhalb der ersten zwölf Monate nach Marktzulassung. Das ist etwa doppelt so hoch wie die Rate bei allen 510(k)-Medizinprodukten ohne KI.

Fehlende klinische Validierung als Hauptrisiko

Die Studie identifiziert zwei zentrale Risikofaktoren. Erstens: Geräte ohne klinische Validierung hatten durchschnittlich 3,4 Rückrufe pro Produkt, während Geräte mit retrospektiver oder prospektiver Validierung nur auf 1,9 beziehungsweise 2,0 Rückrufe kamen. Die multivariate Analyse zeigt: Fehlende klinische Validierung erhöht das Rückrufrisiko um den Faktor 2,8.​

Zweitens spielt der Hersteller-Typ eine entscheidende Rolle. Börsennotierte Unternehmen produzierten 53,2 Prozent aller AIMDs, waren aber für 91,8 Prozent der Rückrufe und 98,7 Prozent der zurückgerufenen Geräteeinheiten verantwortlich. Der Druck von Investoren auf schnelle Markteinführung könnte hier eine Rolle spielen, vermuten die Autoren. Das Rückrufrisiko steigt bei börsennotierten Herstellern um den Faktor 5,9.​

Diagnostik- und Messfehler waren mit 109 Rückrufen und 935.063 betroffenen Einheiten die häufigste Ursache, gefolgt von Funktionsverzögerungen oder -ausfällen mit 44 Rückrufen und 755.647 Einheiten. Von 182 Rückrufen blieben 108 – also 59,3 Prozent – zum Studienende ungelöst, 20 davon länger als drei Jahre.​

Regulatorische Lücken im 510(k)-Verfahren

Die Studienergebnisse legen weiters systemische Schwächen im FDA-Zulassungsprozess offen. Fast alle KI-Medizinprodukte werden über den 510(k)-Pathway zugelassen, der im Gegensatz zur MDR keine verpflichtenden prospektiven Studien am Menschen erfordert, sofern keine besonderen Risiken identifiziert werden. Viele AIMDs gelangen daher mit minimaler oder gänzlich fehlender klinischer Evaluierung auf den Markt. Die Autoren empfehlen, prospektive Evaluierungen zur Pflicht zu machen oder zeitlich befristete Zulassungen zu erteilen, die ohne Bestätigungsdaten verfallen.​

Tinglong Dai von der Johns Hopkins University, korrespondierender Autor der Studie, fordert verschärfte Anforderungen an die präklinische Testung sowie verstärkte Post-Market-Surveillance-Maßnahmen – ähnlich risikobasierten Strategien in der Pharmakovigilanz. Die Verknüpfung von Evidenzlücken vor der Marktzulassung und Hersteller-Typ mit nachträglichen Maßnahmen biete praktische Orientierung für Regulierungsbehörden, Kliniker und Gesundheitseinrichtungen, die KI-basierte Tools einführen.​

Europa: Strengere Anforderungen unter MDR und AI Act

Doch wie sieht es in Eurpa aus? Könnten die Medical Device Regulation (MDR) solche Zwischenfälle verhindern? Bei aller Kritik am langen und teuren Zulassungsverfahren: Die Antwort lautet größtenteils ja. Die seit Mai 2021 geltende MDR verlangt deutlich höhere Evidenzstandards als der FDA-510(k)-Pathway. Während die FDA eine Zulassung auf Basis von Vorgängerprodukten ermöglicht, fordert die MDR eine umfassende klinische Bewertung mit repräsentativen Patientendaten und realen Anwendungsszenarien.

Für KI-basierte Medizinprodukte der Risikoklasse IIa und höher ist in Europa grundsätzlich die Prüfung durch eine Benannte Stelle erforderlich. Entscheidend dabei: Softwarebasierte Medizinprodukte werden unter der MDR häufig in höhere Risikoklassen eingestuft als früher unter der Medical Device Directive. KI-Systeme mit diagnostischer oder therapeutischer Zweckbestimmung fallen typischerweise unter Regel 11 des Anhang VIII MDR und erfordern eine vollumfängliche technische Dokumentation samt klinischer Bewertung.

Post-Market-Surveillance ist Pflicht

Die MDR verlangt kontinuierliche Datensammlung und realitätsnahe Validierung der Algorithmen über den gesamten Produktlebenszyklus. Post-Market-Surveillance ist nicht optional, sondern Pflicht – und zwar mit regelmäßiger Aktualisierung der Risikoanalyse. Besonders relevant: Signifikante Software-Updates, wie sie beim TruDi-System nach dem KI-Upgrade erfolgten, müssen dokumentiert und bei wesentlichen Änderungen neu bewertet werden.

Der bereits seit August 2024 in Kraft getretene EU AI Act wird für Hochrisiko-KI-Systeme in der Medizintechnik ab August 2027 vollständig und mit weiteren Anforderungen verpflichtend. Trainingsdaten müssen nachweislich repräsentativ, fehlerfrei und vollständig sein, Bias-Minderungsstrategien sind zu dokumentieren. Im Gegensatz zur FDA gibt es in Europa kein Äquivalent zum Predicate-Pathway – jedes Medizinprodukt muss die grundlegenden Anforderungen eigenständig erfüllen.

MDR mit klareren Rahmenbedingungen

Kontinuierlich lernende KI-Systeme sind unter der MDR zertifizierbar, sofern der sichere Lösungsraum vor Freigabe validiert ist und deterministische Kontrollalgorithmen unsichere Entscheidungen verhindern. Die europäische Regulatorik bietet damit einen klareren Rahmen für adaptive Systeme, verlangt aber rigorose Vorabvalidierung und lückenlose Dokumentation.

Ob die MDR-Anforderungen TruDi-ähnliche Zwischenfälle tatsächlich verhindert hätten, bleibt spekulativ. Fest steht: Die europäischen Vorgaben fordern von Herstellern bereits vor Markteintritt den Nachweis, dass KI-Updates das Risiko-Nutzen-Verhältnis nicht negativ beeinflussen. Die Kombination aus klinischer Bewertungspflicht, Benannte-Stellen-Prüfung und den kommenden AI-Act-Anforderungen schafft ein engmaschigeres Sicherheitsnetz als das FDA-System. Wer einseitig mit Kosten und Zertifizierungsdauer argumentiert, preist Komplikationen vorsätzlich ein.

Zwischen Vision und Wirklichkeit

Die technologischen Voraussetzungen für den intelligenten OP sind vorhanden. Doch zwischen technischer Machbarkeit und sicherer klinischer Anwendung klafft eine Lücke. Die Medizinegrätehersteller stehen vor der Herausforderung, nach Jahren der regulatorischen Transformation wieder Innovationskraft zu mobilisieren, während Kliniken Offenheit für neue Technologien zeigen müssen. Die aktuellen Daten aus den USA zeigen jedoch: Gerade die Balance zwischen Innovationstempo und gründlicher Validierung entscheidet über die Patientensicherheit.​

Die Reuters-Recherche und die JAMA-Studie liefern keine generelle Absage an KI im Operationssaal. Sie dokumentieren aber eindringlich, dass unzureichende Zulassungsprozesse frühe Performance-Fehler von KI-Technologien übersehen können. Das Smart Hospital der Zukunft braucht nicht nur neueste Technologien und intelligente Algorithmen – es braucht vor allem robuste Validierungsprozesse und eine kontinuierliche Sicherheitsüberwachung, wie sie die europäische MDR einfordert. (uh)


Health Electronics Summit 2026

Thema: Safety & Cybersecurity - Medizinsysteme sicher entwickeln

22. September 2026, Mövenpick Airport Stuttgart

--> Zur Veranstaltungswebseite mit allen weiteren Informationen.


Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Componeers GmbH

Weitere Artikel zu Medizinelektronik

Weitere Artikel zu Medizintechnik

Weitere Artikel zu eHealth / Medizin 4.0

Weitere Artikel zu Software als Medizinprodukt

Weitere Artikel zu Künstliche Intelligenz (KI)