Manchmal hat die EU auch die Nase vorn: Mitte März hat das Europäische Parlament einem Gesetz zur Regulierung von Künstlicher Intelligenz (KI) zugestimmt. Der AI Act ist damit das weltweit erste umfassende Gesetz dieser Art. Mit einer Ausnahme: Es gilt nicht für den Einsatz von KI in Waffensystemen. Dabei schreitet die Forschung gerade in diesem Bereich massiv voran. Zwar ist man sich in der Fachwelt weitgehend einig, dass es die sogenannten Lethal Autonomous Weapons (LAWS) – also vollständig autonom agierende Systeme – noch nicht gibt. Aber KI kommt längst beim Flugabwehrraketensystem Patriot oder in Zukunft beim Einsatz von Drohnen-Schwärmen zum Tragen.
Da eine europäische Regelung bislang nicht in Sicht ist, fordern Wissenschaft und Rüstungsindustrie schon seit längerem eine nationale Vorgabe. „Deutschland braucht dringend eine militärische KI-Strategie, um sowohl die positiven als auch die negativen Konsequenzen des Einsatzes neuer Technologien bestimmen zu können“, sagt Vanessa Vohs, wissenschaftliche Mitarbeiterin im Projekt AI For Defense an der Universität der Bundeswehr in München.
Doch die Politik ist seltsam still. „Es gibt da einen großen Erkenntnisbedarf, sowohl was die technologische Entwicklung betrifft als auch ethische Fragen“, so Wolfgang Hellmich, Obmann der SPD-Fraktion im Verteidigungsausschuss. Auch CDU-Außenpolitiker Roderich Kiesewetter bekennt, man habe bislang andere Schwerpunkte gehabt und sehe die Gefahr, „dass wir der technischen Entwicklung politisch hinterherlaufen“.
Frank Sauer, der an der Universität der Bundeswehr in München seit über zehn Jahren zum Thema KI im Militär forsch t, äußert wenig Verständnis für die zögerliche Haltung: „Das Thema Autonomie in Waffensystemen ist ausgeforscht. Chancen und Risiken sind bekannt. Wir wissen, was zu tun ist.“ Nämlich die Entwicklung von Leitlinien, die vor allem zwei Fragen beantworten: Wann ist die Maschine leistungsfähiger als der Mensch? Und wo muss die menschliche Kontrolle einsetzen? „Es gibt keinen one-size-fits-all-Standard für menschliche Kontrolle. Autonomie in Waffensystemen bedeutet beim Flugabwehrsystem einer Fregatte auf hoher See etwas anderes als im Falle eines Infanteriezugs, der in urbanem Gelände kämpft“, meint Sauer.
Die Enquetekommission Künstliche Intelligenz des Bundestages hat die Erwartungen an die Politik bereits in der letzten Legislaturperiode formuliert : „Die Bundesregierung muss ein sicherheitspolitisches Leitliniendokument zum militärischen Einsatz von KI erarbeiten. Hier sollten die Grundsätze und die Grenzen für die Mensch-Maschine-Interaktion festgeschrieben werden.“
Der Druck auf die Politik wächst also: Ein Bündnis aus Rüstungsindustrie und Forschung hat sich Mitte vergangenen Jahres mit einem Appell an die Politik gewandt. Der 2020 gegründete Arbeitskreis KI Verteidigung, dem Vertreter des Bundesverbandes der Deutschen Sicherheits- und Verteidigungsindustrie (BDSV) sowie Wissenschaftler eines Instituts der Fraunhofer-Gesellschaft und der Universität der Bundeswehr in München angehören, forderte in einem Impulspapier: „Die Politik muss eine nationale militärische KI-Strategie liefern, die angesichts der aktuellen Technologieentwicklung einerseits und der Bedrohungslage für Landes- und Bündnisverteidigung andererseits unerlässlich erscheint.“ Allerdings, so Hans-Christoph Atzpodien, Hauptgeschäftsführer des BDSV und einer der Autoren des Papiers, sei die Forderung „weitgehend ungehört verhallt“.
Auch bei den Ampel-Fraktionen im Bundestag scheint das Thema nicht oben auf der Agenda zu stehen. Bei der SPD beschäftigt sich seit Ende 2023 die AG Sicherheit und Verteidigung mit dieser Frage. Bei der FDP gibt man sich skeptisch, ob eine rein nationale KI-Strategie für den Militärbereich überhaupt sinnvoll ist. „Wir brauchen eine europaweit abgestimmte Regelung“, erklärt Alexander Müller, verteidigungspolitischer Sprecher der FDP-Fraktion. So sieht es auch die stellvertretende Fraktionsvorsitzende der Grünen, Agnieszka Brugger: „Das Parlament kann hier Impulse setzen. Was wir brauchen, sind internationale Regeln.“
Die aber sind in weiter Ferne. Seit 2014 versucht eine Initiative der Vereinten Nationen auf der Ebene von Regierungsexperten diese Frage nach der menschlichen Kontrolle zu regeln. Der Regulierungsprozess bei der „Convention on Certain Conventional Weapons“ (CCW) in Genf „ist mit viel Hoffnung gestartet und hängt seit Jahren politisch fest“, analysiert die KI-Spezialistin Anja Dahlmann vom Institut für Friedensforschung und Sicherheitspolitik an der Universität Hamburg.
Umso entscheidender wäre eine nationale Richtlinie für Deutschland, sind sich Wissenschaftler wie Dahlmann oder Sauer einig. Diese scheitere aber bislang an der „besonderen Berliner Verantwortungsdiffusion“, wie KI-Forscher Sauer es nennt. Formell ist das Auswärtige Amt nämlich federführend für die Verhandlungen in Genf zuständig. Das spiele dem „risikoaversen, von der Drohnendebatte traumatisierten Verteidigungsministerium“ in die Hände, die Verantwortung für eine KI-Strategie ins Außenministerium zu schieben.
Entscheidend also wäre eine parlamentarische Initiative für eine militärische KI-Strategie, wie KI-Expertin Vanessa Vohs erklärt: „Diese könnte den Druck auf das Verteidigungsministerium erhöhen. Bislang wurde das Ministerium nicht tätig und beabsichtigt nicht, dies zeitnah zu tun, obwohl andere Partner wie die USA, Frankreich oder die Niederlande längst eine solche Strategie besitzen.“