Mehr und andere Waffen für den Krieg von morgen
Schriftgröße
Die schlechte Nachricht kommt gleich zu Beginn. „Warum wir wieder lernen müssen, mit Krieg umzugehen“, so lautet der Untertitel, den Franz-Stefan Gady seinem neuen Buch gegeben hat, und die Erklärung dafür ist schlüssig: Nur wer sich ernsthaft mit bewaffneten Konflikten auseinandersetzt, kann sie verhindern; nur wer sich auf gewalttätige Angriffe vorbereitet, kann sie abwehren oder im besten Fall sogar vorbeugen.
In „Die Rückkehr des Krieges“ beschreibt Gady, wie künftige Kriege aussehen könnten, er zeichnet zwei Szenarien für einen Krieg der NATO gegen Russland und China und gibt eine Art Handlungsanleitung für politische Entscheidungsträger, wie einem potenziellen Weltkrieg vorgebeugt werden kann. Nebenher räumt Gady mit dem Mythos vom „unblutigen“ Hightech-Krieg auf und erläutert die Gefahren von Waffen mit künstlicher Intelligenz (KI). Ein Vorabdruck.
Gaza und der Technologiekult
Technologieoptimismus hat wesentlich zum Ausbruch des jüngsten Gazakrieges beitragen, der mit einem Überraschungsangriff der Terrorgruppe Hamas auf Israel am 7. Oktober 2023 begann. Annähernd 1200 Israelis wurden an dem Tag ermordet.
In diesem Fall hatte der Optimismus aber nicht dazu geführt, einen Angriffskrieg zu beginnen, sondern zu der irrigen Annahme verleitet, man könne den Gegner mit technologischer Überlegenheit von einem Krieg abhalten. Israel wähnte sich mit Blick auf seine Streitkräfte, die Israel Defense Forces (IDF), und den gesamten Sicherheitsapparat vor Überraschungsangriffen sicher, weil man davon ausging, jeden potenziellen Angriff schon im Frühstadium erkennen und mit überwältigender Feuerkraft abwehren zu können. Niemand schien sich mehr ernsthaft klarzumachen, zu welchen Operationen ein Gegner wie die Hamas bei aller technologischen Unterlegenheit fähig wäre.
Die IDF gelten als eine der technologisch fortgeschrittensten Streitkräfte der Welt. Das hat vor allem zwei Gründe: Erstens kann die IDF auf einen sehr starken und innovativen Hightech-Sektor zurückgreifen, der seit Jahrzehnten der am stärksten wachsende Bereich der israelischen Wirtschaft ist. Er versorgt die IDF mit militärischen Hochtechnologien, insbesondere in den Bereichen Nachrichtengewinnung, Überwachung und Aufklärung.
Der Sektor ist auch federführend, was die Integration von KI in Militäroperationen betrifft. Die IDF nutzen beispielsweise KI zur Unterstützung bei der Zielauswahl für Luftangriffe. Zweitens ist die technologische Überlegenheit der IDF gegenüber jedem potenziellen Gegner dezidierte US-Politik. Die USA unterstützen dies mit einer jährlichen Militärhilfe in Höhe von etwa 3,8 Milliarden US-Dollar.
Diese zwei Faktoren ermöglichen es Israel, ein teures Hightech-Militär zu unterhalten, das nicht nur über modernste Luft- und Raketenabwehrsysteme verfügt, sondern auch über Drohnen, Tarnkappen-Kampfflugzeuge, Präzisionswaffen aller Art sowie die vielleicht fortgeschrittensten Aufklärungs- und Überwachungssysteme der Welt. Über die Jahre hat sich so ein wahrer Technologiekult innerhalb der Streitkräfte und der Nachrichtendienste des Landes entwickelt.
In Verbindung mit einem besonderen Gefühl der militärischen Überlegenheit gegenüber einem Lowtech-Gegner wie der Hamas trug dieser Kult dazu bei, dass man die Gefahr unterschätzte und von dem brutalen, aber gut koordinierten Großangriff der Hamas am 7. Oktober überrascht wurde.
Die Gefahr der Komplexität
Mit der allmählichen Einführung von immer komplexeren Militärtechnologien wird es in Zukunft sehr wahrscheinlich noch häufiger zu Fehlscheinschätzungen kommen. Emergente Technologien wie KI werden nicht nur die technologische Abhängigkeit von Streitkräften erhöhen. Der Einsatz von nicht ausreichend getesteten beziehungsweise sich noch im Entwicklungsstadium befindlichen KI-unterstützten Technologien kann Streitkräfte auch fragiler und fehleranfälliger machen. Diese Gefahr besteht zurzeit vor allem dort, wo Menschen mit Unterstützung selbstlernender Algorithmen (also KI) militärische Entscheidungen treffen – etwa die, welches Ziel mit welchem Waffensystem angegriffen werden soll –, oder dort, wo KI die automatisierte Zielerkennung im Gefechtsfeld komplett übernimmt.
Wenn man bereit ist, den Tod von Zivilisten in Kauf zu nehmen, kann man auch rudimentäre KI-Systeme für die schnelle Zielerfassung einsetzen.
So passiert es in Tests nach wie vor oft, dass KI-Systeme bei der automatischen Zielerkennung gravierende Fehler begehen, indem sie zum Beispiel einen Baum mit einem Soldaten verwechseln – oder umgekehrt. Auch lassen sich KI-Systeme noch immer leicht austricksen. So konnten sich US-Marines, die sich Pappkartons übergestülpt hatten, unbemerkt einer KI-unterstützten Überwachungskamera nähern. Ein anderer Marine verbarg sein Gesicht hinter einem Stück Baumrinde und marschierte ebenfalls auf die Kamera zu, ohne von ihr als Ziel erkannt zu werden. Mit anderen Worten: Menschen werden auch in naher Zukunft noch eine Rolle bei der Zielerkennung im Gefechtsfeld spielen müssen, um solche fatalen Fehler zu vermeiden.
Von künstlicher Intelligenz (KI) unterstützte Drohnen erkennen Muster, sind lernfähig und können autonom Ziele angreifen. Mithilfe einer speziellen Software lassen sie sich in einem Netzwerk („Schwarm“) miteinander verknüpfen. Der Mensch gibt nur noch das letzte Okay für den automatischen Angriff.
Wenn man bereit ist, den Tod von Zivilisten in Kauf zu nehmen, wie es in den IDF während des Gazakrieges 2023 und 2024 offenkundig der Fall war und ist, kann man auch rudimentäre KI-Systeme für die schnelle Zielerfassung einsetzen, die zwar Unschuldige als legitime Ziele identifizieren, aber eben auch Terroristen, und das in einer Geschwindigkeit, zu der kein Mensch fähig wäre. Eines dieser Systeme, „Lavender“ genannt, soll 37.000 palästinensische Männer mit Verbindungen zur Hamas identifiziert haben. Wie viele davon fälschlich identifiziert wurden, ist bis heute unklar. Laut einigen Quellen nahmen die IDF aber den Tod von mehr als 100 Zivilisten in Kauf, um einzelne Bataillon- oder Brigadekommandeure der Hamas zu töten.
Solange KI fehleranfällig ist, wird sie den Krieg nicht weniger blutig machen. Im Gegenteil, die schnellere Zielidentifizierung erhöht auch die Wahrscheinlichkeit, dass man Ziele bekämpft, die sich hinterher als falsch herausstellen.
Autonome russische Drohnen
Russland nutzt den Krieg in der Ukraine aktiv, um mit Prototypen von KI-gelenkten Kampfdrohnen, ja sogar Drohnenschwärmen zu experimentieren, die ohne menschlichen Piloten starten, ihr Ziel finden und bekämpfen, also autonom agieren. Die russische Einwegdrohne „Lancet“ ist ein gutes Beispiel. Ehemals noch komplett ferngesteuert, wurde sie mittels eines Software-Updates inzwischen so mit Autonomie ausgestattet, dass sie nun Ziele eigenständig bekämpft. Wie erfolgreich diese Drohnen auf dem Gefechtsfeld tatsächlich sind, ist jedoch unklar.
Moskau und Peking versuchen, durch die Autonomisierung von Teilen ihrer Streitkräfte einen entscheidenden Vorteil für zukünftige Kriege zu erlangen. So setzt Chinas Marine, deren traditionelle Stärke der Seeminenkrieg ist, auf eine Flotte von unbemannten Unterwasserdrohnen zur Verlegung von intelligenten Minenfeldern, experimentiert aber auch mit autonomen, KI-unterstützten Torpedos. Russland fokussiert seine Anstrengungen stark auf die Entwicklung von autonomen Landsystemen, Kampf- oder Kampfunterstützungsrobotern, die nicht nur Ziele bekämpfen, sondern auch Minen räumen und sogar Verwundete evakuieren können.
(…)
© afp/APA/AFP/GENYA SAVILOV
Ferngesteuerte Kampfroboter wie „Roboterhunde“ können Ziele angreifen, Minen räumen und Verwundete evakuieren. Staaten wie Russland streben nach völlig autonomen, von KI gesteuerten Systemen.
Ferngesteuerte Kampfroboter wie „Roboterhunde“ können Ziele angreifen, Minen räumen und Verwundete evakuieren. Staaten wie Russland streben nach völlig autonomen, von KI gesteuerten Systemen.
Die USA und die NATO haben teilweise einen anderen Ansatz in Bezug auf die Integration von KI in den Streitkräften gewählt. Sie setzen weniger auf die komplette Autonomisierung einzelner Waffensysteme als vielmehr auf die Optimierung der Zusammenarbeit zwischen KI-gesteuerten Maschinen und Menschen. Dieses Konzept eines Mensch-Maschine-Teams, auch „Zentaur-Modell“ genannt (nach dem mythischen Mischwesen aus Mensch und Pferd), basiert auf Überlegungen des Pentagons, wonach die Integration von Maschinen und Menschen der Schlüssel zum effektivsten Einsatz von KI-Technologien in zukünftigen Militäroperationen ist.
KI im Nuklearkrieg
So weit wir aus öffentlich zugänglichen Quellen schließen können, hat bislang zwar keine der Nuklearmächte die Entscheidungsautonomie über den Einsatz von nuklearen Massenvernichtungswaffen an KI-Systeme übertragen. Doch es gibt einen allgemeinen Trend, in vielen Bereichen, zum Beispiel der Datenanalyse, verstärkt KI-Systeme einzusetzen. Und wie in der konventionellen Kriegsführung versprechen sich die einzelnen Staaten in ihrem Technologieoptimismus auch in der nuklearen einen „First Mover Advantage“, indem sie den Menschen obsolet machen.
Mögliche Kriege der Zukunft: ein NATO-Krieg gegen Russland (und China)
Hauptpfeiler deutscher Sicherheitspolitik sollte die Abschreckung eines ausgewachsenen Krieges zwischen Russland und der NATO sein, der nicht zuletzt ein potenzieller Dritter Weltkrieg wäre. Eine wichtige Planungsannahme, die hierbei in jedes Szenario einfließen muss, lautet, dass China direkt oder indirekt als Partner oder sogar Verbündeter Russlands auftreten wird.
KI-gelenkte Kampfdrohnen wie die russische Einwegdrohne „Lancet“ finden und bekämpfen ihr Ziel autonom, also ganz ohne menschliche Piloten. Die „Kamikaze-Drohne“ gehört zur Gruppe „Loitering Munition“ („herumlungernde Waffen“) und stürzt sich mit Sprengstoff beladen auf ihr Ziel.
Dies hat nämlich vor allem Einfluss auf die Rolle der USA in einem europäischen Konflikt, stellt sich doch die Frage, inwiefern die USA im Falle eines gleichzeitigen Krieges mit China oder allgemeiner militärischer Spannungen in Ostasien überhaupt bereit und in der Lage wären, die Europäer über den amerikanischen nuklearen Schutzschirm hinaus effektiv zu unterstützen.
In Konturen ist dieses Szenario schon im russischen Angriffskrieg in der Ukraine zu erkennen, obwohl China hier bislang sehr zurückhaltend agiert und Russland nicht entscheidend militärisch unterstützt hat, etwa durch die Lieferung schwerer Artilleriemunition. Gleichzeitig muss jedoch unterstrichen werden, dass China ein großes Interesse an der Fortsetzung des Ukrainekrieges hat, weil dadurch Europa und die USA wichtige militärische Ressourcen im Kampf gegen Russland verbrauchen, die sie in einem möglichen Kampf um Taiwan nicht mehr einsetzen könnten. Der für China günstigste Zeitpunkt, sich Taiwan einzuverleiben – ein dezidiertes Ziel der chinesischen Kommunisten –, durch eine Blockade oder durch eine Invasion des Inselstaates, wäre ein militärischer Konflikt zwischen den USA beziehungsweise der NATO und Russland.
Obwohl die Wahrscheinlichkeit hierfür noch immer sehr gering ist, muss sich der Westen auf ein solches Worst-Case-Szenario vorbereiten. In dem Moment, wo er militärisch vorbereitet ist, lassen sich auch alle anderen Szenarien leichter bewältigen.
Doch auf welche konkreten Szenarien sollte sich die Bundeswehr vorbereiten? NATO-Militärplaner gehen vor allem von einem potenziellen Angriff Russlands auf die baltischen Staaten aus. Die NATO verfügt über eine Reihe von regionalen Verteidigungsplänen, die alle in der einen oder anderen Form zum Ziel haben, das Baltikum gegen Russland militärisch zu verteidigen.
Die Szenarien unterscheiden sich in der Größe der Militärverbände, die involviert sind, in den Zeitleisten, in denen Russland plant, seine Ziele zu erreichen, in den Angriffsachsen, die von den russischen Formationen gewählt werden, um baltisches Territorium einzunehmen, sowie in der Art und Weise, wie Russland Nuklearwaffen einsetzen könnte – ob als politisches Druckmittel zur Erpressung oder tatsächlich als Waffe auf dem Gefechtsfeld. Von diesen regionalen Verteidigungsplänen leiten sich wiederum die konkreten Anforderungen an die Bundeswehr und andere NATO-Streitkräfte in Bezug auf Fähigkeiten und Personalstärke ab.
Der Kalte Krieg, in dem sich in den 1970er-Jahren 2,3 Millionen Mann und 12.000 Kampfpanzer auf NATO-Seite und 2,6 Millionen Mann und 30.000 Kampfpanzer aufseiten des Warschauer Paktes in der Mitte Europas gegenüberstanden, mag zwar vorbei sein: Millionenheere gehören in Europa der Vergangenheit an. Dass ein künftiger Krieg mit Russland deswegen aber weniger Zerstörung mit sich bringen würde, darf bezweifelt werden.