»Wir dürfen uns nicht selbst ausbremsen«

KI in der Verteidigung

29. Dezember 2026, 14:19 Uhr | Corinne Schindlbeck
»Man kann das bedauern, aber Kriege verschwinden nicht einfach. Und wenn andere Akteure KI einsetzen, müssen wir in der Lage sein, auf Augenhöhe zu agieren.« Prof. Dr. Patrick Glauner, Geschäftsführer des KI-Beratungsunternehmens skyrocket.ai GmbH und Professor für KI an der Technischen Hochschule Deggendorf, im Teams-Gespräch mit Corinne Schindlbeck, Markt&Technik.
© Componeers GmbH/Teams

Wieviel Regulierung braucht – oder verträgt – KI in der Verteidigungsindustrie? In seiner Keynote auf der Enforce TAC Conference am 23. Februar spricht KI-Experte Prof. Dr. Patrick Glauner von der skyrocket.ai GmbH unter anderem über den realen Einsatz von KI im militärischen Umfeld.

Diesen Artikel anhören

Herr Prof. Glauner, Sie kritisieren die Debatte zu KI und Verteidigung als häufig zu alarmistisch und werden zu dem Thema auch eine Keynote auf der Enforce Tac Conference am 26. Februar halten. Wo sehen Sie die größte Diskrepanz zwischen öffentlicher Wahrnehmung und der tatsächlichen Einsatzrealität?

Was mir immer wieder berichtet wird  -  auch von Generälen - , ist, dass in politischen Diskussionen sehr schnell das Stichwort »Killerroboter« fällt, sobald es um KI im militärischen Kontext geht. Das ist aber ein stark verkürztes Bild. KI im Militär bedeutet sehr viel mehr als autonome Waffensysteme: Logistik, Personalplanung, Lageanalyse, Satellitenbildauswertung – all das basiert heute bereits auf KI-Methoden. Natürlich gibt es Ängste, auch getrieben durch Filme wie Terminator. Aber diese verkürzte Sichtweise verstellt den Blick auf die Realität. Autonome oder teilautonome Waffensysteme sind nur ein kleiner Teil eines viel größeren technologischen Spektrums.

Die sicherheitspolitische Lage lässt es nicht zu, autonome Waffensysteme pauschal zu verbieten oder so stark einzuschränken, dass sie faktisch nicht mehr einsatzfähig sind. Eine solche Überregulierung würde am Ende die Verteidigungsfähigkeit westlicher Demokratien schwächen – während sich andere Akteure an solche Vorgaben nicht gebunden fühlen.

Sie warnen, dass wir durch Überregulierung ins Hintertreffen geraten könnten. Wo sehen Sie aktuell die größte Gefahr?

In internationalen Foren dominieren oft zivilgesellschaftliche Akteure ohne tiefes technisches Verständnis. Dort wird dann schnell gefordert, Systeme stark einzuschränken oder ganz zu verbieten. Das Problem: Diese Regeln gelten am Ende nur für uns. Andere Akteure  -  denken Sie etwa an Terroristen  -  halten sich nicht daran. Die Folge wäre eine einseitige Selbstbeschränkung des Westens.

Sie sagen, KI sei im militärischen Kontext längst eine Notwendigkeit. Was hat zu dieser Entwicklung geführt  - technologisch, operativ oder sicherheitspolitisch?

Kriege wurden historisch meist durch technologische Überlegenheit entschieden. Der Übergang vom Pferd zum Panzer war ein solcher Einschnitt, heute ist es der Übergang zur KI. Wenn wir uns aktuelle Konflikte anschauen - etwa den zwischen Aserbaidschan und Armenien oder den Krieg in der Ukraine -, sehen wir, wie stark sich Kriegsführung in kürzester Zeit verändert. Drohnen, automatisierte Auswertung, schnelle Entscheidungsprozesse: Das alles ist ohne KI kaum noch denkbar.

Man kann das bedauern, aber Kriege verschwinden nicht einfach. Und wenn andere Akteure KI einsetzen, müssen wir in der Lage sein, auf Augenhöhe zu agieren - nicht nur Staaten, sondern auch nichtstaatliche Akteure. Es geht letztlich auch um Abschreckung und Verteidigungsfähigkeit.

Wo zeigt sich heute besonders deutlich, dass menschliche Reaktionszeiten an Grenzen stoßen?

Man sieht das vor allem dort, wo große Datenmengen in sehr kurzer Zeit verarbeitet werden müssen – etwa bei der Auswertung von Sensordaten oder im Luftlagebild. Menschen können das in dieser Geschwindigkeit schlicht nicht leisten.

Hinzu kommt: Moderne Gefechtsfelder sind hochdynamisch. Entscheidungen müssen in einem Bruchteil von Sekunden getroffen werden. Wenn man dort jede Entscheidung manuell freigeben müsste, wäre man dem Gegner strukturell unterlegen.

Die Vorstellung, dass der Mensch in jeder Situation schneller oder besser entscheidet als ein technisches System, ist in dieser Form nicht mehr haltbar.

Der CEO von Arx Robotics schilderte kürzlich anschaulich, wie regulatorische Vorgaben – etwa ein verpflichtender Not-Aus-Knopf – Drohnen im Ukraine-Krieg angreifbar gemacht haben. Passt das zu Ihrer Kritik an überzogener Regulierung?

Absolut. In der Ukraine geht es um das tägliche Überleben. Ein Not-Aus-Knopf mag aus regulatorischer Sicht gut gemeint sein, kann aber im Einsatzfall genau das Gegenteil bewirken. Wenn der Gegner ihn manipulieren kann, ist das System wertlos. Das ist ein gutes Beispiel dafür, wie gut gemeinte Regulierung technische Realität ignorieren kann. Sicherheit entsteht nicht durch Symbolmaßnahmen, sondern durch robuste Systeme.

Um Fehlentwicklungen zu vermeiden, soll KI immer durch einen Menschen überwacht und freigegeben werden. Warum halten Sie das im militärischen Kontext für problematisch?

Das Stichwort dazu lautet „Human in the Loop“. In der Theorie klingt das sinnvoll, in der Praxis bedeutet es oft, dass Autonomie faktisch verhindert wird. Wenn ein System im Einsatz permanent auf eine externe Freigabe angewiesen ist, wird es verwundbar - etwa durch Jamming oder Cyberangriffe. Gerade in umkämpften Umgebungen funktioniert das nicht. Ein durchgängiger ‚Human in the Loop‘ würde in hochdynamischen Einsatzlagen dazu führen, dass Systeme faktisch nicht mehr einsatzfähig sind.

Natürlich muss der Mensch die Zieldefinition und die rechtliche Bewertung vornehmen. Die Genfer Konventionen sind hier eindeutig. Aber wenn das Ziel einmal definiert ist, muss das System autonom handeln können. Alles andere führt zu Verzögerungen und erhöht letztlich das Risiko – auch für Zivilisten.

Sie betonen, dass Autonomie nicht Verantwortungslosigkeit bedeutet. Wie lässt sich Verantwortung organisieren?

Verantwortung entsteht nicht durch permanente menschliche Eingriffe, sondern durch klare Strukturen wie saubere Zieldefinition, überprüfbare Entscheidungslogiken, nachvollziehbare Systeme und klare Zuständigkeiten. Ist das der Fall, kann KI sogar helfen, Kollateralschäden zu reduzieren, weil sie emotionslos agiert und präziser selektieren kann als der Mensch. Sie hat keine Rachegelüste, keine Panik, kein Überreaktionsverhalten. Auch der Einsatz autonomer Systeme entbindet den Staat nicht von seiner Verantwortung. Entscheidend ist nicht das System, sondern die Zurechenbarkeit staatlichen Handelns.

Welche Rolle spielt KI heute in Szenarien elektronischer Kriegsführung?

Gerade dort ist KI entscheidend. Wenn Kommunikation gestört ist, wenn Satellitenverbindungen ausfallen, müssen Systeme eigenständig weiterarbeiten können. Ein System, das ständig auf Rückkopplung angewiesen ist, ist unter solchen Bedingungen wertlos. Autonomie ist hier keine Option, sondern Voraussetzung für Funktionsfähigkeit.

Gerade in solchen Szenarien zeigt sich, dass Systeme ohne eigenständige Entscheidungsfähigkeit operativ nicht mehr einsetzbar sind.

KI-Systeme werden ständig weiterentwickelt. Was bedeutet das für Zulassung und laufenden Betrieb?

KI entwickelt sich über ihren Lebenszyklus weiter. Das stellt klassische Zulassungsmodelle infrage, die auf statischen Systemen basieren. Deshalb braucht es neue Konzepte für Prüfung, Betrieb und Wartung - ähnlich wie bei sicherheitskritischer Software in der Luftfahrt. Das ist lösbar, aber es erfordert Kompetenzaufbau in Behörden, Streitkräften und Industrie.

Nochmal zur Regulierung: Sie vertreten die Auffassung, dass das humanitäre Völkerrecht ausreicht. Wo liegt dann die eigentliche Herausforderung?

In der Umsetzung. Die Genfer Konventionen geben klare Regeln vor. Das Problem ist nicht das Recht, sondern die fehlende technische und organisatorische Kompetenz, es umzusetzen. Es geht um Ausbildung, um Verständnis für Systeme, um klare Prozesse. Und darum, KI nicht als Blackbox zu behandeln, sondern als Werkzeug, das man beherrschen muss.

Wie gut ist Deutschland darauf vorbereitet?

Es gibt Fortschritte, aber auch Defizite. Das Verteidigungsministerium arbeitet an neuen Strategien, und es gibt Bewegung. Aber gleichzeitig sehe ich weiterhin große Zurückhaltung in Deutschland, gerade wenn es um konkrete Umsetzung geht. In den USA ist man da deutlich offensiver. Dort wurde durch Verteidigungsminister Pete Hegseth im Dezember klar angewiesen: KI gehört in alle Prozesse – nicht nur in Waffensysteme, sondern auch in Verwaltung, Logistik und Planung.

Sie sprechen sich für mehr technische Kompetenz aus. Worauf spielen Sie an?

Weil viele Ängste aus Unwissen entstehen. Wer versteht, wie KI funktioniert, bewertet sie anders. Wir brauchen mehr Ausbildung, mehr Professuren, mehr Forschung – auch im militärnahen Bereich. Und wir müssen akzeptieren, dass Technikstudiengänge modernisiert werden müssen, sonst verlieren wir den Nachwuchs.

Welche Annahme über KI in der Verteidigung sollte besonders kritisch hinterfragt werden?

Dass KI grundsätzlich unsicher sei. Dass sie zwangsläufig außer Kontrolle gerät. Dass man sie nur durch maximale Einschränkung beherrschen könne. Das Gegenteil ist der Fall: KI kann sicher gebaut werden. Rechtlich ist vieles bereits geregelt. Was uns fehlt, ist der Mut zur Umsetzung.

Das Interview führte Corinne Schindlbeck

 


Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Technische Hochschule Deggendorf (THD)

Weitere Artikel zu Künstliche Intelligenz (KI)