KI-Diagnose für die Akutmedizin

Statt 2 Tage: KI-System befundet Hirn-MRTs komplett in 3 Sekunden

10. Februar 2026, 11:20 Uhr | Ute Häußler
Einen Schlaganfall in nur 3 Sekunden erkennen, exakt lokalisieren und eingrenzen - die KI-basierte und arztgenaue Diagnose kann in Notaufnahmen nicht nur Leben retten, sondern auch die Triage vereinfachen.
© Componeers via Canva

Ein KI-Modell aus Michigan analysiert MRT-Studien mit über 30 Sequenzen in nur drei Sekunden auf einer einzelnen GPU – und ist so genau wie erfahrene Radiologen. Ein Kompressionsalgorithmus schrumpft gigantische 3D-Volumen auf handhabbare Token-Pakete. Das System soll die Notaufnahmen entlasten.

Diesen Artikel anhören

Während Patienten heute im Median über zwei Tage auf MRT-Befunde warten, verspricht das KI-System »Prima« eine Revolution: 3 Sekunden für eine vollständige Hirn-MRT-Analyse. Der Clou liegt nicht in größeren Modellen, sondern in einer cleveren Tokenisierungs-Strategie, die das Datenvolumen um den Faktor 16 reduziert – ohne Genauigkeitsverlust.

16-fache Kompression macht den Unterschied

Eine einzige Hirn-MRT-Studie besteht aus 20 bis 40 verschiedenen Sequenzen mit jeweils hunderten 2D-Slices. Würde man jeden Bildpunkt einzeln in ein Transformer-Modell füttern, entstünden über 32.000 Tokens pro Studie – zu viel für effiziente Echtzeit-Verarbeitung.​

Die Lösung der Michigan-Forscher ist ein Vector-Quantized Variational Autoencoder (VQ-VAE), der dreidimensionale MRT-Patches von 32×32×4 Voxeln auf jeweils einen einzigen Embedding-Vektor komprimiert. Das System nutzt ein Codebook mit 8.192 gelernten Einträgen, das die Balance zwischen Rekonstruktionsqualität und Kompressionsrate optimiert. Aus Hunderttausenden Voxeln werden so gerade mal 256 Token pro Sequenz – eine Reduktion auf ein Sechzehntel der ursprünglichen Datenmenge, die Rechenzeiten in GPU-taugliche Größenordnungen bringt.​

Hierarchische Vision-Transformer für Mehrebenen-Daten

Prima basiert auf einer zweistufigen Transformer-Architektur, die gezielt für medizinische Daten mit mehreren Hierarchieebenen entwickelt wurde. Die erste Ebene bildet ein Sequenz-Encoder (ViT_seq) mit 15 Transformer-Layern und je 16 Attention-Heads, der die 256 Volume-Tokens einer einzelnen MRT-Sequenz verarbeitet. Dabei speichern 32 Register-Tokens die komprimierten Features, während ein Character-Level-Transformer parallel Metadaten wie den Sequenznamen (»Ax_T2_FLAIR«) integriert.​

Auf der zweiten Ebene aggregiert ein Study-Encoder (ViT_st) mit 4 Transformer-Layern und 8 Heads die Informationen aus allen 20 bis 40 Sequenzen einer kompletten Studie. Hier kommen 10 weitere Register-Tokens für Study-Level-Features zum Einsatz. Die gesamte Architektur kommt mit 56,6 Millionen trainierbaren Parametern aus – kompakt genug für den Einsatz auf einzelnen GPUs.​

Das Training erfolgte nach dem CLIP-Prinzip: Die Vision-Encoder lernen durch Contrastive Learning, MRT-Volumen so zu repräsentieren, dass sie mit den zugehörigen Radiologenbefunden im Embedding-Space übereinstimmen. Die Textverarbeitung übernimmt dabei ein GPT-2-basierter Encoder.​

Die Datenbasis
Die Forscher trainierten Prima auf einer beispiellosen Datenmenge aus dem Michigan Medicine Health System: 5,6 Millionen MRT-Sequenzen aus 188.000 Patienten, untersucht zwischen 2012 und 2024. Das entspricht 362 Millionen einzelnen Slices oder 3,2 Milliarden Volume-Tokens nach der Kompression. Zum Vergleich: Bisherige Deep-Learning-Modelle für medizinische Bildgebung arbeiteten typischerweise mit 10.000 bis 100.000 Studien – Prima nutzt eine 50- bis 100-fach größere Datenbasis.​

Vorsprung in der Notfall-Detektion

In drei separaten Test-Sets übertraf Prima alle Vergleichsmodelle deutlich. Bei der Erkennung von 24 akuten Befunden wie Hirnblutungen oder Schlaganfällen erreichte das System einen AUROC-Wert (Area Under ROC Curve) von 82,1 Prozent, während das beste Alternativmodell nur 63,4 Prozent schaffte – eine Steigerung um 18,7 Prozentpunkte. Die Inferenzgeschwindigkeit liegt bei nur 3 Sekunden für eine komplette Hirn-MRT-Studie mit über 30 Sequenzen auf einer GPU, während Radiologen heute im Median 2,25 Tage benötigen – eine Verdreifachung gegenüber 0,75 Tagen im Jahr 2012.

Besonders bemerkenswert ist die Bias-Robustheit: Prima zeigt konsistente True-Positive-Raten über alle demografischen Gruppen hinweg, unabhängig von Alter, Geschlecht, Ethnie, Versicherungsstatus oder geografischer Herkunft. Die Forscher fanden keine statistisch signifikanten Performance-Unterschiede zwischen Stadt- und Landpatienten – ein wichtiger Aspekt für den fairen Einsatz in der Versorgung.​

Praxistauglich: Eine GPU genügt

Prima benötigt keine Hochleistungs-Cluster, sondern läuft auf einer einzelnen modernen GPU – die Forscher nutzten im Training NVIDIA A100. Die kompakte Architektur mit 56,6 Millionen Parametern erlaubt sogar Edge-Deployment in kleineren Krankenhäusern oder telemedizinischen Szenarien, wo keine umfangreiche Recheninfrastruktur verfügbar ist.​

Das Team um Erstautor Todd Hollon vom Department of Neurosurgery plant bereits die Skalierung auf andere Modalitäten. Das System soll künftig auch CT-Scans, Röntgenbilder und Ultraschall verarbeiten – mit derselben Architektur.​

Technische Specs
Modellarchitektur: Hierarchischer Vision Transformer mit VQ-VAE-Tokenisierung
Parameter: 56,6 Millionen (Vision-Encoder)
Kompression: 32×32×4 Voxel → 1 Token (Faktor 16)
Codebook: 8.192 Einträge
Sequenz-Encoder: 15 Layer, 16 Heads, 32 Register-Tokens
Study-Encoder: 4 Layer, 8 Heads, 10 Register-Tokens
Training: CLIP-basiertes Contrastive Learning mit GPT-2-Textencoder
Inferenz: 3 Sekunden/Studie auf einzelner GPU

Von der Forschung in die Klinik

Prima befindet sich noch in der klinischen Validierung. Das Team plant prospektive Studien, um die Integration in klinische Workflows zu testen. Der offene Forschungscode soll anderen Institutionen ermöglichen, das Modell mit eigenen Daten zu validieren und anzupassen.​

Die Vision der Entwickler: Ein KI-Triage-System, das innerhalb von Sekunden nach dem Scan kritische Fälle identifiziert und priorisiert, während Routinefälle weiterhin durch Radiologen begutachtet werden. Das könnte nicht nur Wartezeiten drastisch verkürzen, sondern auch Leben retten, wenn Notfälle wie Hirnblutungen oder akute Schlaganfälle sofort erkannt und behandelt werden. Erste Gespräche mit der FDA über die regulatorische Zulassung laufen bereits. (uh)

[1] Todd C. Hollon et al., "Learning neuroimaging models from health system-scale data", Nature Biomedical Engineering, Februar 2025 (PMC11838732)[michiganmedicine]​

Anbieter zum Thema

zu Matchmaker+

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Componeers GmbH

Weitere Artikel zu Medizinelektronik

Weitere Artikel zu eHealth / Medizin 4.0

Weitere Artikel zu Software als Medizinprodukt

Weitere Artikel zu Medizintechnik

Weitere Artikel zu Künstliche Intelligenz (KI)

Weitere Artikel zu Künstliche Intelligenz

Weitere Artikel zu Computertomographen (CT)

Weitere Artikel zu Magnetresonanztomographen