angst.jpg
previous arrow
next arrow

Kriegsmatrix - männliche Hegemonie, martialische Epistemologie und expertimentelle KI-Kriegsführung

veröffentlicht am 18. Dezember 2025

„Die Gewalt macht jeden, der sie erleidet zum Ding.
So unerbittlich, wie die Gewalt vernichtet,
so unerbittlich berauscht sie den, der sie besitzt oder zu besitzen glaubt.“
Simone Wei

Die Militarisierung der europäischen Politik, der zunehmende Autoritarismus in Politik und Wirtschaft sowie die Beteiligung am Wettrennen um KI-basierte Kontroll- und Waffentechnologien ist die Antwort der Europäischen Union (EU) und Deutschlands auf eine sich verändernde, multipolare Welt und Zeichen ihrer Angst vor dem Verlust westlicher Hegemonie. [1] Die Behauptung u.a. eines baldigen Angriffs Russlands in Europa, der Sabotage und Subversion durch Cyberwar und die aktuelle Aufregung der Politik wegen Überflügen unbekannter Drohnen, die seit Jahren in Europa u.a. über Atommülllagern und Gefängnissen gesichtet werden und gegen die man lange nichts unternommen hat, sollen die explodierenden Aufrüstungskosten der EU und der NATO rechtfertigen. Im EU-Weißbuch ’European Defence Readiness 2030‘ vom März 2025 geht man tatsächlich von der „realen Perspektive eines vollumfänglichen Krieges“ aus. [2]
Doch Aufrüstung und Kriegsbereitschaft sind vor allem das Ergebnis einer komplexen Dynamik aus internationalen Beziehungen, gesellschaftlich-politischen und ökonomischen Konstellationen, kulturellen soziotechnischen Vorstellungswelten, aber auch dominanten Narrativen und psychischen Dispositionen. Worüber ’westliche’ Politiker:innen eher selten sprechen, ist, dass sich Europa und letztlich der komplette globale Norden in einer grundlegenden, umfassenden Krise der Globalisierung befinden. Wie schreibt die Friedensforscherin Almut Rochowanski so treffend: „Ich finde es wichtig, dass wir unsere schöne Selbsterzählung beenden. Denn der Westen unterstützt die Ukraine nicht, weil sie Opfer eines Aggressors wurde, sondern weil sie gegen eine Großmacht kämpft, die wir als Rivalin sehen. Ansonsten würde man Opfer von Gewalt weltweit unterstützen – was nicht getan wird. [3]
Die Polykrise der Ökonomie, der Demokratie, der Reichtumsverteilung, der Pandemien und des Klimas begann schon lange vor dem Russland-Ukraine-Krieg und entfaltet sich auf verschiedensten Ebenen. [4]
Und die historische hegemoniale Stellung des globalen Nordens und seiner meist männlichen führenden Politiker und Industriebosse bröckelt genauso wie seine ökonomische und politische Macht.

Polykrise und Autoritarismus
Die Aufrüstung, die wir heute erleben, wird nicht von ungefähr begleitet von Rechtsradikalismus, Populismus, Sexismus und der Zurückdrängung von Geschlechtergerechtigkeit. Im Rahmen dieser Polykrise verstärken sich alte und neue Ängste auch in den Geschlechterordnungen.
Man kämpft in konservativer, autoritärer Politik, in SocialMedia und Feuilletons gegen einen sogenannten ‚Genderwahn‘. Man verbietet in Bayern geschlechtergerechte Sprache, in Ungarn jegliche Formen von queerer Kultur und macht in Polen legale Abtreibungen fast unmöglich.
Die Gleichzeitigkeit von Aufrüstung und dem Kampf gegen Geschlechtergerechtigkeit und -vielfalt ist kein Zufall. In ihrem lesenswerten Buch ’Die Evolution der Gewalt’ bringen es die Autoren Harald Meller, Kai Michel und Carel van Schaik auf den Punkt: „Patriarchale Strukturen und ein martialisches Verständnis von Männlichkeit sind Kernelemente der Kriegsmatrix. [5]
Wir erleben eine massive Verteidigung der westlichen weißen männlichen Hegemonie, die Entwicklung neuer ökonomischer Modelle angesichts eines sich beschleunigenden Kapitalismus mit seinem Hunger nach neuen Märkten und Rohstoffen, eine Rhetorik der Kriegstüchtigkeit und der nationalen Verteidigung, die alte patriarchale Logiken, Narrative und Praktiken toxischer Männlichkeit weiterführt bzw. erneuert.
Im Folgenden möchte ich diese Kriegsmatrix mit Blick auf Künstliche Intelligenz herausgreifen und die Logik KI-basierter Kriegstechnologien und die in sie eingeschriebenen Werte und Normen sowie ihre materialen Konsequenzen skizzieren.

KI-Systeme: Maschinengeschwindigkeit und …
Generell gilt schon lange in der feministischen Friedensforschung mit Blick auf Aufrüstung: Security ruins safety.
Was wirklich Frieden sichert, sind nicht immer noch mehr Waffen, sondern Bildung, Reduzierung von Armut, Arbeit, Gesundheitssysteme und Ähnliches mehr. Und letztlich sollte es primär um die Sicherheit von Zivilist:innen ghen und nicht um nationale (Sicherheits-)Interessen. Doch Europa investiert aktuell lieber in den rasanten Rüstungs wettlauf KI-gestützter Systeme, dessen martialische Logikprimär von weißen, männlichen CEOs von Rüstungsunternehmen und Startups, militärischen Protagonisten, Informatiker:innen, aber auch Politiker:innen vorangetrieben wird. So behauptet Alex Karp, CEO der Rüstungsfirma Palantir, ihr Besitz sei so entscheidend wie derjenige taktischer Atomwaffen. Auch Eric Schmidt, Ex-CEO von Google [6] oder Putin [7] verbreiten gerne den technikdeterministischen Mythos, dass die Weltherrschaft von KI abhänge.
KI-basierte militärische Systeme beinhalten u.a. Entscheidungssysteme wie Palantirs AIP-Plattform. Dies sind Systeme, „die KI-Techniken zur Datenanalyse einsetzen, umsetzbare Empfehlungen liefern und Entscheidungsträger auf verschiedenen Ebenen der Befehlskette bei der Lösung halbstrukturierter und unstrukturierter Entscheidungsaufgaben unterstützen. [8] Auch hochautomatisierte Targeting- bzw. Zielfindungssysteme wie z.B. das System ’Lavender’ der Israeli Defense Forces, die automatisiert mögliche Ziele für Tötungen von Menschen oder Zerstörung von Gebäuden oder Infrastruktur vorschlagen, sind zunehmend von Interesse. Und neben teleoperierten Drohnen zu Wasser, zu Land und vor allem in der Luft werden auch autonome Tötungssysteme eingesetzt. Das reicht von luftgestützten First-Person-View-bzw. Kamikaze-Drohnen mit Sprengstoff – die per Datenbrille ins Ziel gesteuert werden –, mit Schnellfeuerwaffen bestückte Quadrokopter (z.B. im Gaza-Krieg) hin zu Drohnen, die über weite Strecken fliegen und größere Mengen an Sprengstoff transportieren können. Diese Systeme entscheiden häufig über Leben und Tod. Und sie werden immer tödlicher. In der Ukraine gehen 70% der Opfer auf Drohnen zurück. [9]

Um die abstrakte Gewalt, die diese Systeme ausüben, zu verstehen, muss man etwas über die theoretischen Grundlagen von Künstlicher Intelligenz (KI) bzw. Machine Learning wissen. Die Grundlagen von KI sind alt, aber mit den heutigen Hochleistungsrechnern und mit Big Data – gesammelt vom Militär, Geheimdiensten und Plattformen wie Google, Amazon oder Microsoft – entstehen neue Anwendungsmöglichkeiten. Machine Learning ist eine Methode, um auf der Basis von Korrelation Muster in Daten zu finden bzw. zu produzieren für die Vorhersage von Ereignissen. Korrelation basiert auf der Annahme, dass Vergangenes mit mehr oder wenig großer Wahrscheinlichkeit wieder in der Zukunft passieren wird.krieg03
Man vergleicht millionenfach automatisiert Texte, Bilder, Sprachnachrichten, extrahiert Muster, analysiert mit diesen Mustern wieder neue Daten – und so weiter und so fort. So funktionieren Bilderkennung oder auch Large Language Models (LLM) wie ChatGPT. Im Korrelationsparadigma „berechnet“ man das Verhalten von Menschen, Märkten, das Eintreten von Ereignissen auf Basis von Wahrscheinlichkeiten – ohne dieses Verhalten zu verstehen oder auch nur verstehen zu wollen. KI ist Teil einer neuen Technorationalität jenseits klassischen analytischen, theoriegeleiteten Denkens. [10] Der Schwerpunkt dieser Erkenntnispolitik liegt nicht auf Richtigkeit oder Wahrheit, sondern auf „brauchbarer“ Evidenz. KI hat letztlich keinerlei objektiven Wahrheitsanspruch. [11] Diese Wissensordnung reflektiert eine Welt, die vom Gefühl der Instabilität, Unsicherheit und Geschwindigkeit geprägt ist und in der es – aus Angst vor der Zukunft – wichtiger erscheint, approximative Prädiktionen von Eintrittswahrscheinlichkeiten zu nutzen als nach kausalen Erklärungen zu suchen. Eine KI weiß nicht, was sie tut. Sie approximiert bzw. jongliert. Auf diese Weise Entscheidungen über Leben und Tod zu treffen, ist abstrakte Gewalt.
Die verheerenden Konsequenzen dieser Technologie wurde schon mehrfach mit Blick auf das KI-basierte Targetingsystem ’Lavender’, mit dem das israelische Militär 47.000 Palästinenser (von zwei Millionen Menschen im Gazastreifen) als Terroristen identifiziert, diskutiert. Das System soll mit einer Fehlerquote von etwa zehn Prozent arbeiten. [12] Die Datenanalyse stützt sich u.a. auf Videos, E-Mails, Mobilkommunikation und Social-Media-Inhalte. Vermutlich setzt man für die Analyse dieser Datenmengen u.a. quantitative Link-Analysemethoden ein. [13]
Das bedeutet konkret: Je häufiger ein Verdächtiger mit jemandem in Kontakt tritt, desto verdächtiger wird auch diese Person – auch wenn die kontaktierte Person vielleicht nur der Patenonkel ist. Aus Angst, potenzielle Verdächtige zu übersehen, definiert man die Suchkriterien in den Erkennungsalgorithmen eher weit, um alle möglichen Korrelationen und Muster zu erfassen. Dadurch werden immer mehr Menschen als potentielle Terroristen identifiziert. Um eine hohe Zahl falscher Negativ- oder Positivmeldungen zu vermeiden, bräuchte man ein genau definiertes Suchprofil – was nicht möglich ist. Also unterstellt man, dass derjenige Terrorist ist, der mit anderen Terroristen kommuniziert, sich in ähnlichen Gebieten aufhält, bestimmte Meinungen teilt, etc. Durch das Schneeballprinzip werden immer mehr unschuldige Menschen zu potentiellen Zielen. Ähnlich problematisch sind KI-basierte Entscheidungssysteme, die mit Machine Learning arbeiten. Oft potenzieren sich die schon erwähnten Fehler durch Machine Learning durch die Nutzung von Large Language Models (LLM) wie ChatGPT, die recht häufig ’halluzinieren’. Weltweit sitzen Tausende von Menschen, meistens schlecht bezahlt, in Bürocontainern, um den Unsinn der LLM auszubügeln – aber das funktioniert nicht in Echtzeit mit militärischen Entscheidungssystemen. [14]
Der Wunsch nach technologischer Überlegenheit bzw. der Glaube an den Vorteil von Entscheidungen in Maschinengeschwindigkeit sitzt offensichtlich so tief, dass man diese massiven und menschenverachtenden Fehler(raten) wissentlich in Kauf nimmt und hofft, man könne so den ’Fog of War’ durch KI eliminieren. Die Toten des letzten Gazakriegs, in dem die IDF vermutlich umfangreich KI-gestützte Waffen eingesetzt haben, sind zu 83% Frauen und Kinder. Aber auch die NATO hat unlängst erklärt, dass sie ein KI-gestützes System für Aufklärung, Entscheidungsprozesse und Targeting erworben hat und einsetzt: das Maven Smart System. [15] Dieses System ist von der Firma Palantir, die auch Israel umfassend in ihrer KI-Kriegsführung unterstützt hat.
Aber die Ungeheuerlichkeiten gehen noch weiter: Aktuell beginnt man in den USA Diskussionen darüber, ob man die Entscheidung über den Einsatz von Nuklearwaffen nicht den schnelleren KI-Entscheidungssystemen überlassen sollte. [16]

… delegierte Verantwortung
Last but not least werden immer mehr autonome KI-basierte Waffensysteme entwickelt und eingesetzt, da diese Systeme angeblich nicht nur schneller, sondern auch weniger störanfällig sind – vor allem wenn es um die Störung der Systeme durch Jamming oder ähnliches geht.
Vermutlich geht es aber auch um die Delegation von Verantwortung – nun muss man nicht mehr (allein) entscheiden, welche Aktion durchgeführt und wer getötet werden soll. Oder man kann sich gerade auch im Angesicht der verheerenden Konsequenzen dieser Systeme, die nicht von ungefähr viele Kritiker:innen als völkerrechtswidrig betrachten, [17] auf die Empfehlung der Maschine berufen.
Doch laut Genfer Konvention muss jede militärische Handlung einem Menschen zuschreibbar sein – und nicht einem Computerprogramm.

KI-basierte (Drohnen-)Kriegsführung lässt sich von dem sogenannten ’Human-In-The-Loop’ nicht qualitativ kontrollieren – ohne den erwünschten Vorteil der Maschinengeschwindigkeit zu verlieren. Ein Soldat kann weder die Korrektheit der Trainingsdaten der Algorithmen noch deren laufende ‚Lern‘- sprich Optimierungsprozesse überprüfen. Das gilt für alle intelligenten Systeme – aber
in zunehmend softwarebasierten Kriegen gewinnt das eine neue Qualität. Kriegsführung wird (noch) experimentell(er), v.a. auch, wenn man z.B. im laufenden Betrieb jede Woche Softwareupdates auf Drohnen aufspielt, wie z.B. das Startup Helsing bei Drohnen in der Ukraine [18]. Das ist letztlich Trial-and-Error. Man will ausprobieren, was geht. Die Ukraine, Gaza oder auch der Sudan dienen als Experimentallabor für KI-gestützte Systeme mit Soldat:innen und Zivilist:innen als Versuchskaninchen.
Diese Logik basiert auf der Überzeugung, dass das angestrebte Ziel alle Mittel rechtfertigt. Wir haben es dabei mit einer martialischen Männlichkeit sowie westlich und weiß codierter epistemischer und militärischer Gewalt [19] zu tun. Die zugrundeliegende ‚martialische Epistemologie‘ [20] stützt sich auf vage Wahrscheinlichkeiten und soll helfen, immer umfassendere Bereiche auf der Basis fragwürdiger Annahmen im hochkomplexen Feld Krieg zu automatisieren. Die entsprechenden militärischen Praktiken nehmen keine Rücksicht auf die Konsequenzen der sogenannten ‚Verteidigungs‘waffen
von Jutta Weber

Quelle: https://www.imi-online.de/2025/12/12/ausdruck-dezember-2025/

[1] Vgl. BICC, IFSH, INEF, PRIF: Friedensgutachten 2025 friedensgutachten.de; Uta Ruppert: Ein bisschen Feminismus im Krieg? Über das Paradoxe feministischer Außenpolitik. Prokla. Zeitschrift für kritische Sozialwissenschaft. Heft 208. 52. Jg., Nr. 3, 9/2022, 409-507.

[2] European Commission, High Representative of the Union for Foreign Affairs and Security Policy: Joint White Paper for European Defence Readiness 2030.

[3] Almut Rochowanski, zit. nach Magdalena Berger, Marie Serah Ebcingolu: Feministische Perspektiven auf Aufrüstung und Frieden. 8.9.2025, missy-magazine.de.

[4] Adam Tooze: Zeitenwende oder Polykrise? Das Modell Deutschland auf dem Prüfstand. Dez. 2022 willy-brandt.de.

[5] Harald Meller, Kai Michel, Carel van Schaik: Die Evolution der Gewalt. München 2024. S. 334.

[6] Lucy Suchman: Six Unexamined Premises Regarding Artificial Intelligence and National Security. Mar 31, 2021. AI Now, https://aiinstitute.org.
Lucy Suchman: Six Unexamined Premises Regarding Artificial Intelligence and National Security. Mar 31, 2021. AI Now, https://aiinstitute.org.

[7] Vgl. Peter Wahl, Erhard Crome, Frank Deppe, Michael Brie: Weltordnung im Umbruch. Krieg und Frieden in einer multipolaren Welt. Köln: Papyrossa 2025.

[8] Klaudia Klonowska: Israel - Hamas Symposium. AI-based Targeting in Gaza. Surveying Expert Responses and Refining the Debate. 7.6.2024 lieber.westpoint.edu. Übs. deepl/JW.

[9] M. Santora, L. Jakes, A.E. Kramer, M. Hernandez, L.Sholudko: A Thousands Snipers in the Sky. The New War im Ukraine. 3.3.2025 New York Times.

[10] Jutta Weber: „Eine sorgfältig konstruierte Maschine der Gewalt“ Über algorithmische Kriegsführung, abduktive Mutmaßungen und automatisiertes „Völkerrecht“.
PROKLA 217, Heft 4, Dezember 2024, 609-625.

[11] Rainer Mühlhoff: KI und der neue Faschismus. Stuttgart: Reclam 2025.

[12] Yuval Abraham: ‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza. 3.4.2024 972mag.com

[13] Weber 2024. a.a.O.

[14] Bianca Prietl, Jutta Weber: Wissen – Macht – Technik: Perspektiven für kritische feministische Wissenschafts- und Technikforschung am Beispiel Künstlicher Intelligenz. In: Lehrbuch „Wissenschafts- und Technikforschung“. Reihe „Sozialwissenschaftliche Einführungen“, hg. von Anne Krüger, Cornelius Schubert, Julia Schubert, Jan-Felix Schrape, De Gruyter Verlag 2025.

[15] NATO: NATO acquires AI-enabled Warfighting System. 14.4.2025 shape.nato.int.

[16] Michael Hirsh: The AI Doomsday Machine Is Closer to Reality Than You Think. 2.9.2025 politico.com.

[17] 17 Christoph Marischka: AI-based Targeting - The Case of Gaza. Paper presented at the PreConference Workshop „Imaginations of Autonomy“. 22.5.2024 imi-online.de.
Elke Schwarz: Autonomous Weapons Systems, Artificial Intelligence, and the Problem of Meaningful Human Control. The Philosophical Journal of Conflict and Violence. Vol. V, 1, 2021, 53-71; Lucy Suchman: The Algorithmically Accelerated Killing Machine. Jan 24, 2024.

[18] Bloomberg: Sind Helsings KI-Drohnen überteuert? 9.4.2025; www.wiwo.de.
19.3.2025 defence-industry-space.ec.europa.eu.

[19] Claudia Brunner: Epistemische Gewalt. Wissen und Herrschaft in der kolonialen Moderne. Bielefeld: transcript 2020; Ishmael Bhila: Worldmaking Practices in Algorithmic Warfare Discourse: Perspectives in and from the Global South. Unveröffentlichte Dissertationsschrift, Universität Paderborn 2025.

[20] 0 Erik Reichborn-Kjunnerud: The World According to Military Targeting. Martial Epistemologies and Ecologies of Operation. Cambridge, MA: MIT Press 2025.