Seit Ende November 2025 demonstrieren Krankenschwestern und Pflegekräfte in New York gegen die Implementierung von KI-Systemen in Krankenhäusern – ohne Mitsprache oder ausreichende Sicherheitsnachweise. Die Debatte zeigt grundsätzliche Regulierungsdefizite, die auch für Deutschland relevant sind.
Hunderte Pflegekräfte versammelten sich Ende November vor dem New Yorker Rathaus, um gegen den Einsatz künstlicher Intelligenz in städtischen Krankenhäusern zu protestieren. Im Mittelpunkt der Kritik stehen Technologien wie »Ambient Listening« – KI-Systeme, die Gespräche am Krankenbett aufzeichnen und auswerten – sowie »virtuelle Pflegekräfte«, digitale Assistenten, die Patienten via Bildschirm betreuen sollen. Nancy Hagans, Präsidentin der New York State Nurses Association (NYSNA), brachte die Kritik auf den Punkt: »Künstliche Intelligenz ist künstliche Pflege«.
Die Pflegegewerkschaften werfen Krankenhausbetreibern vor, erhebliche Summen in KI-Technologien zu investieren, während gleichzeitig am Personal gespart werde. Pflegekräfte berichten, dass sie die Ausgaben von KI-Assistenten überprüfen müssen, um deren Genauigkeit sicherzustellen – eine zusätzliche Belastung statt einer Entlastung.
Die National Nurses United (NNU), mit 225.000 Mitgliedern die größte US-Pflegegewerkschaft, fordert, dass KI-Werkzeuge im Gesundheitswesen vor dem Einsatz auf Sicherheit und Gerechtigkeit geprüft werden müssen. Michelle Mahon, Assistant Director für Pflegepraxis bei NNU, stellt klar: »Diese Argumente, dass KI-Tools zu verbesserter Sicherheit führen, sind durch keinerlei Evidenz untermauert«. Die Gewerkschaft hat eine »Bill of Rights« für Pflegekräfte und Patienten entwickelt, die höchste Schutzstandards nach dem Vorsorgeprinzip fordert. NNU-Präsidentin Deborah Burger betont: »Wir brauchen eine sofortige Pause bei der Implementierung von KI in Gesundheitseinrichtungen«.
Eine NNU-Umfrage unter über 2.300 Pflegekräften zeigt das Ausmaß der Probleme: 69 Prozent der Befragten, deren Arbeitgeber algorithmische Systeme zur Bestimmung der Patientenakuität nutzen, gaben an, dass ihre eigenen Einschätzungen nicht mit den computergenerierten Messungen übereinstimmen. Bei 12 Prozent der Pflegekräfte werden Übergabereporte bereits per KI generiert – doch 48 Prozent dieser automatisierten Berichte stimmen nicht mit den pflegerischen Einschätzungen überein und lassen kritische Patienteninformationen aus.
Die Kritik wird durch aktuelle Forschungsergebnisse gestützt: Eine am 2. Dezember 2024 in npj Digital Medicine (Nature-Verlag) publizierte Analyse der FDA-Datenbank MAUDE identifizierte 429 Sicherheitsberichte zu KI-fähigen Medizinprodukten, von denen 25,2 Prozent potenziell KI-spezifische Probleme beschrieben. Bei 34,5 Prozent der Berichte war die Information unzureichend, um eine KI-Beteiligung überhaupt zu bestimmen. Die Autoren kommen zu dem Schluss: »Sicherheitsberichte allein reichen möglicherweise nicht aus, um KI-bezogene Sicherheitsprobleme zu identifizieren.«
In Deutschland mahnt der Deutsche Berufsverband für Pflegeberufe (DBfK) – in Übereinstimmung mit der europäischen Pflegeorganisation EFN – dass Pflegefachpersonen als Endnutzer aktiv in die Entwicklung von KI-Werkzeugen einbezogen werden müssen. Das EFN-Positionspapier fordert explizit, dass technische Entwickler kontinuierlich mit Pflegefachkräften zusammenarbeiten und »gegenseitig Feedback, Meinungen, Bedürfnisse und Erwartungen austauschen.«
Prof. Dr. Martina Hasseler von der Ostfalia Hochschule kritisiert in einem Meinungsbeitrag, dass in Deutschland ein »vereinfachtes Verständnis von Pflege« den Weg zu innovativen, pflegefachlich fundierten KI-Lösungen erschwert. Pflegefachberufe würden »wieder nur als passive Empfängerinnen neuer digitaler oder KI-Entwicklungen betrachtet, aber nicht als aktive Gestalterinnen und Verantwortliche«. Sie stellt zudem fest: »Es gibt weder ausreichend differenzierte Forschung noch Evidenz, dass KI den Mangel an Fachpersonal abmildern kann«.
Das Bundesgesundheitsministerium fördert mit dem Projekt ETAP (Evaluation von teilautomatisierten Pflegeprozessen) derzeit die wissenschaftliche Evaluation von KI-basiertem Bewegungsmonitoring in der Langzeitpflege. Eine Studie zeigt, dass 44 Prozent der deutschen Gesundheitsfachkräfte KI grundsätzlich vertrauen, 39 Prozent sind bereit, sie für konkrete Aufgaben einzusetzen – vor allem zur Reduktion administrativer Tätigkeiten.
Die New Yorker Proteste verdeutlichen ein grundsätzliches Problem: KI-Implementierung ohne Einbindung des Pflegepersonals gefährdet nicht nur die Akzeptanz, sondern potenziell auch die Patientensicherheit. Während US-Gewerkschaften auf strikte Regulierung und das Vorsorgeprinzip pochen, setzen europäische Verbände auf Co-Design und obligatorische digitale Kompetenzvermittlung. Für Deutschland gilt: Ohne standardisierte Pflegedaten, wissenschaftliche Evidenz und aktive Beteiligung der Pflegefachberufe bleibt KI-Einsatz im Gesundheitswesen ein Risikofaktor statt ein Entlastungsinstrument. (uh)