Dossier 93

Künstliche Intelligenz zieht in den Krieg

von Hans-Jörg Kreowski, Aaron Lye, Thomas Reinhold, Elke Schwarz, Christoph Marischka und Marius Pletsch

Herausgegeben von der Informationsstelle Wissenschaft und Frieden e.V. (IWIF) und dem Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung e.V. (FIfF)

Beilage zu Wissenschaft und Frieden 4/2021
ermöglicht durch finanzielle Unterstützung der Rosa-Luxemburg-Stiftung

Vorwort

von Hans-Jörg Kreowski und Aaron Lye

Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik, in dem es vor allem darum geht, einzelne isolierte Aufgaben, für deren Bewältigung Menschen ihre Intelligenz bemühen, von Programmsystemen bewerkstelligen zu lassen. Solche Entwicklungen werden der »schwachen« KI zugeordnet, um die es in diesem Dossier ausschließlich geht. Dagegen verweist die »starke« KI auf Überlegungen zu Systemen, die selbst intelligentes Verhalten hervorbringen, bisher aber reine Spekulation geblieben sind. Typische Beispiele im Sinne der schwachen KI sind Spiele wie Schach, Go und Poker sowie Sprach- und Bildverarbeitung. In den letzten Jahren sind für derartige Anwendungen äußerst erfolgreiche KI-Systeme entwickelt worden.

Das hat nicht nur Begehrlichkeiten in Politik und Wirtschaft geweckt, die in KI die Schlüsseltechnologie für zukünftige Wertschöpfung sehen, sondern auch bei Militärs weltweit, die sich vom Einsatz von KI Überlegenheit in zukünftigen Kriegen versprechen. Die militärische Nutzung von KI ist jedoch nicht nur Zukunftsmusik, sondern KI-basierte Anwendungen sind im militärischen Kontext längst gang und gäbe. Ein perfider Beleg dafür sind Killerdrohnen, die insbesondere von den USA schon tausendfach eingesetzt wurden und – im krassen Widerspruch zum humanitären Völkerrecht – Tausende ziviler Opfer gefordert haben.

In der öffentlichen Wahrnehmung und medialen Darstellung kann leicht der Eindruck entstehen, dass KI mit maschinellem Lernen (oder »deep learning«) auf der Basis neuronaler Netze gleichgesetzt werden kann. Das führt allerdings in die Irre. Das Gebiet der Künstlichen Intelligenz wurde in den 1950er Jahren gegründet und wurde seitdem in verschiedenen Ausprägungen entwickelt, die teils wenig miteinander zu tun haben. Wichtige Bereiche sind wissensbasierte Systeme, Bildverarbeitung einschließlich Bilderkennung und Bildverstehen, Sprachverarbeitung, Kognition, Schwarmintelligenz, Robotik, maschinelles Lernen, autonome Systeme und Datenwissenschaft. KI ist kein homogenes Gebiet, die Zuordnung zu KI ist nicht immer eindeutig, und viele andere Teilgebiete der Informatik weisen große Überschneidungen mit KI auf. An vielen Stellen in diesem Dossier wird deshalb eher auf die Teilbereiche verwiesen, als auf KI insgesamt.

Die Beiträge in diesem Dossier spannen einen weiten Bogen, wie KI in den Krieg zieht.

  • Thomas Reinhold skizziert die technischen Möglichkeiten, die KI mit Fokus auf militärische Anwendungen bietet und leitet daraus die neuen Herausforderungen für Rüstungskontrolle ab. Sein Text steht am Anfang, weil der Autor mit einer allgemeinen Einführung in KI beginnt, was insgesamt zum Verständnis beitragen kann.
  • Elke Schwarz richtet ihren Blick in Richtung Silicon Valley. Sie weist darauf hin, dass der Mensch beim Einsatz von KI-Systemen leicht die Kontrolle verlieren kann und dass das im Krieg ethisch, aber auch völkerrechtlich problematisch ist.
  • Dagegen geht Christoph Marischka in seinem Beitrag insbesondere auf die ­Mitwirkung deutscher Forschungseinrichtungen bei der Entwicklung von Bild­erkennungsmethoden im militäri­schen Kontext ein. Ein interessanter Aspekt dabei ist die gezielte Vermengung von zivilen und militärischen Anwendungen.
  • Marius Pletsch setzt sich in seinem Beitrag mit einer Problematik auseinander, die im militärischen Kontext erst in letzter Zeit große Aufmerksamkeit erzielt hat: das Zusammenwirken von Soldat­*innen und (teil)autonomen Waffensystemen. Dieser etwas überarbeitete Beitrag ist ein Nachdruck der IMI-Analyse 2020/11 mit freundlicher Genehmigung des Autors und der Informationsstelle Militarisierung (IMI).
  • Die sogenannte »Teambildung« zwischen bemannten und unbemannten Systemen ist auch ein zentrales Problem bei der jüngst begonnenen und für die nächsten Jahrzehnte geplanten Entwicklung eines neuen europäischen Kampfflugzeugs (FCAS). Hier soll KI als allumfassende Querschnittstechnologie in der gesamten Entwicklung eingesetzt werden. Im letzten Beitrag des Dossiers wird dieses gigantomanische Projekt vorgestellt.

Die fünf Artikel in diesem Dossier können nur einige Schlaglichter auf die vielfältigen und weitgespannten Verflechtungen von KI und Krieg werfen. Sie machen aber deutlich, dass es an der Zeit ist, wie im speziellen Fall der autonomen tödlichen Waffen, auf UN-Ebene über ein Verbot von KI-basierten Waffensystemen zu verhandeln. Aus »Killerroboter stoppen« muss »Killer-KI stoppen« werden.

Überlegungen zur Militarisierung Künstlicher Intelligenz

Von Fallstricken, Grenzen und Problemen der Rüstungskontrolle

von Thomas Reinhold

Gegenwärtig wird viel zu künstlicher Intelligenz (KI) und maschinellem Lernen (ML) geschrieben. Mit Blick auf diese Publikationen scheint es der Leser*in fast so, als wären diese Technologien aktuell das »nächste große Ding« – zumindest so lange bis das Forschungsfeld des Quantencomputings weitere bahnbrechende Ergebnisse liefert. Auch für militärische Entscheidungsträger*innen muss KI aktuell wie die nächste »revolution in military affairs« (Umwälzung des Militärwesens) aussehen, die ihnen den winzigen Vorteil verschafft, nach dem sie stets verzweifelt suchen. Aktuelle Debatten gehen noch einen Schritt weiter und deuten scheinbar darauf hin, dass KI innerhalb weniger Jahre in bestehende Waffensysteme eingebaut werden könne, was die Effektivität der Waffen erhöhen würde und zwar ohne die Erfordernisse jahr(zehnt)elanger Planungen, Finanzierungen und Forschung wie bei früheren Waffensystemen. Einige Politiker*innen betrachten KI sogar als diejenige Technologie, deren Überlegenheit in Zukunft über das globale Mächteverhältnis entscheiden wird (Meyer 2017). Generell wird KI in den aktuellen Debatten häufig als »enabling technology« bezeichnet, die neue Vorgehensweisen ermöglichen wird.

Was sicherlich eine etwas polemische Darstellung des aktuellen Trends ist, scheint dennoch Sicherheitspolitiker*innen, Wissenschaftler*innen und die Rüstungskontrollgemeinschaft zu einer neuen Welle von Veröffentlichungen und Stellungnahmen über den Einfluss der KI auf die militärische Macht zu treiben. Die Technologie selbst wird dabei oft als »großes digitales Gehirn« beschrieben, das mit der Steuerung sowie der Integration und Verarbeitung des komplexen Informationsflusses militärischer Systeme betraut wird oder werden soll. Natürlich ist es wichtig, die Konsequenzen zu bedenken, die sich beispielsweise aus der Integration von KI in nukleare Kontroll-, Überwachungs- und Kommandosysteme ergeben, wie sie von Saalmann (2020) oder Klare (2020) exemplarisch beschrieben wurden. Allerdings birgt die Konzentration auf die »Big Brain«-Perspektive auch die Gefahr, die tatsächliche Entwicklung von KI zu unterschätzen. KI war, ist und wird vermutlich auch in absehbarer Zukunft nämlich dort am stärksten vorzufinden sein, wo sie für sehr spezifische und kleinteilige Aufgaben wie Bild- und Tonverarbeitung, Mustererkennung, Informationsklassifizierung oder begrenzte autonome Wegfindung eingesetzt werden kann. Diese Anwendungsfelder sind bereits so intensiv erforscht, dass die Technologie in kleinen handelsüblichen Mikrochips zum Einsatz kommt, die wir bereits seit einigen Jahren in unseren Smartphones mit uns herumtragen. Die Gefahr der Überbetonung der Vollautomatisierung durch KI liegt hierin: Was würde es bedeuten, wenn in absehbarer Zukunft eben nicht die in Forschungs- und Entwicklungsunternehmungen visionierten komplexen KIs, sondern diese kleinteiligen KI-Entwicklungen auf den militärischen Bereich übergriffen und in weit verbreitete Waffensysteme wie Handfeuerwaffen, Minen, kommerzielle Drohnen oder sogar »intelligente«, zielsuchende Munition eingebaut würden?

Worüber sprechen wir? Definition und Unterscheidung von KI

Doch bevor wir uns diesen Fragen zuwenden, sollten wir dem Rat der Hohen Beauftragten für Abrüstungsfragen der Vereinten Nationen Izumi Nakamitsu folgen (vgl. Nakamitsu 2020) und technisches Fachwissen in die Debatte einbeziehen, um Missverständnissen vorzubeugen, ein klareres Bild davon zu gewinnen, was die KI-Technologie leisten kann, wo ihre Grenzen liegen, welche Anwendungen durch diese Verbesserung wahrscheinlich gefördert werden und welche Implikationen dies für Debatten über Rüstungskontrolle und Nichtverbreitung hat.

Aus technischer Sicht besteht jedes KI- oder ML-Tool – ich verwende diese Begriffe synonym – im Grunde nur aus Computercode, also aus Regeln für die Verarbeitung beliebiger digitaler Eingabedaten in beliebige Ausgabedaten, die in Zeilen von maschinenlesbaren Befehlen zusammengefasst sind. Wir müssen uns dies als eine Blackbox vorstellen, die jede Art von Information entgegennimmt, sie verarbeitet und ein Ergebnis aus einem vordefinierten Spektrum möglicher Ausgabewerte zurückgibt. Solche Antworten könnten lauten: „Mit einer mittleren Wahrscheinlichkeit handelt es sich bei dem gezeigten Bild um einen Hund“ oder „Die Worte der vorgelegten handschriftlichen Buchstaben bedeuten mit hoher Sicherheit ‚Berlin‘“. Darüber hinaus könnten sie auch einfach nur Zahlenwerte enthalten, wie etwa „Bei der vorgegebenen Eingabe von aktueller Geschwindigkeit, gemessener Sichtweite, Straßenbedingungen und den wahrgenommenen Straßenschildern beträgt die berechnete notwendige Verringerung der Geschwindigkeit 15 %“. Allerdings ist dies nichts Neues oder Revolutionäres im Vergleich zu bereits bestehenden Algorithmen, die große Mengen an Informationen gleichzeitig verarbeiten können – erinnert sei beispielsweise an den »Big-Data-Trend« vor einigen Jahre.

Der Twist liegt in einer zusätzlichen relevanten Eigenschaft: KI-Systeme – zumindest die modernen Algorithmen, über die wir heute sprechen – werden gewöhnlich nicht mit expliziten Regeln ausgestattet, sondern erlernen Regeln implizit. In Datenspeichern ist jede Art von trainiertem Wissen und Zusammenhängen des erlernten Kontextes enthalten, die damit eine Art Basiswissen bzw. einen »inneren Zustand« der KI darstellen. Jede Eingabe in ein KI-System – seien es Bilder, Handschriften oder andere Informationen – wird auf Basis dieses Zustands des gelernten Wissens verarbeitet oder mit ihm kombiniert. In der Regel funktioniert dies durch die Berechnung numerischer Werte mit Hilfe von Schwellenwertfunktionen. Darüber hinaus kann jede Eingabe und Verarbeitung selbst den inneren Zustand der KI verändern, wodurch die KI in der Lage ist, ihre Anwendung anzupassen und ihre Leistung im besten Falle zu optimieren. Auf diese Weise kann eine KI auch mit Unschärfen, Ähnlichkeiten oder leichten Abweichungen umgehen, was durch fest vorgegebene, im Vorfeld streng und eindeutig definierte Regeln kaum zu erreichen wäre. Daraus ergibt sich die Stärke von KI-Algorithmen: Sie trainieren sich selbst auf das Erkennen von Mustern in digitalen Daten oder das Filtern, Verarbeiten und Klassifizieren einer großen Menge von Informationen.

Dieser kurze Überblick führt zu einer ersten, aber wichtigen Schlussfolgerung: KI selbst ist keine Waffe und wird auch nie eine sein, weil ihr jede Möglichkeit fehlt, selbst zu handeln. Eine KI stellt vielmehr ein Werkzeug zur Entscheidungsfindung dar, das immer einen externen »Aktuator« benötigt, um Berechnungen in konkrete Aktionen umzusetzen, so wie menschliche Gehirne Arme, Hände und Füße brauchen, um in der physischen Welt zu handeln. Für den militärischen Bereich bedeutet dies, dass eine KI ein bestehendes oder zukünftiges Waffensystem im physischen Bereich oder im Cyberspace benötigt, dessen Kontrolle sie übernehmen soll. Natürlich ist es bedenklich, die Entscheidung über den Einsatz von Waffen an einen Algorithmus zu delegieren. Zudem verstärken bekannte Effekte wie der »automation bias« oder Probleme wie die inhärente menschliche Voreingenommenheit beim Training einer KI (EDRi 2021) diese Gefahren sicherlich. Dennoch sollte neben all den aktuellen Trends und Hypes der Fokus einer kritischen Perspektive auf den Waffensystemen selbst liegen, denn letztlich ist nicht die KI für möglicherweise apokalyptische Folgen verantwortlich, sondern das von ihr ausgelöste Waffensystem.

Leistungsumfang und Grenzen von KI

Bleiben wir noch etwas länger bei den technischen Details, um zu verstehen, wozu KI in der Lage ist. Wie bereits angesprochen, ist das stärkste Merkmal einer KI ihr innerer Zustand, also die Repräsentation der Muster und Beziehungen, auf deren Erkennung, Unterscheidung und Klassifizierung sie trainiert wurde. Die Qualität dieses erlernten Wissens hängt stark von den Daten ab, die für das Training verwendet wurden, sowie von den angewendeten Lernalgorithmen. Dieses Wissen ist demnach nicht deterministisch vordefiniert und kann sich sogar noch weiter verändern. Auf diese Weise kann eine KI mit Grenzfällen umgehen, unvollständige Informationen verarbeiten und Ähnlichkeiten sowie verborgene Beziehungen und Muster in einer riesigen Menge von Rohdaten erkennen. Diese Fähigkeit, Ergebnisse zu erzeugen, die nicht explizit durch den Computercode vorgegeben sind, unterscheidet einen insoweit »einfachen« Algorithmus von etwas, das wir (künstliche) Intelligenz nennen. Gleichzeitig bedeutet dieses technische Design aber auch, dass KI-gestützte Anwendungen weniger effizient sind als »fest verdrahteter« Code, der auf deterministischen Regeln beruht. KI-Algorithmen benötigen im Allgemeinen mehr Berechnungen und müssen mit dem sogenannten digitalen Rauschen umgehen können (also dem Vorhandensein einer Menge irrelevanter Informationen, die verarbeitet werden müssen, da es keine Ausschlussregeln gibt, aber nicht ins Ergebnis mit einfließen). Zudem wird es zukünftig nötig sein, dass KI-Algorithmen getroffene Schlussfolgerungen so aufbereiten, dass sie für Menschen nachvollziehbar sind – was zu weiteren Berechnungsschritten und Datenspeicherung führen wird. Darüber hinaus benötigen KI-Anwendungen möglicherweise eine Rückkopplungsmöglichkeit, damit ein Mensch die Ergebnisse auf ihre Gültigkeit überprüfen kann, um eventuelle falsch-positive oder falsch-negative Ergebnisse zu markieren und diese an die KI zur weiteren Optimierung ihres internen Trainingszustands zurückzugeben. All diese Mechanismen sind aufwendig und aus Sicht der Leistungsfähigkeit eines Systems eher hinderlich.

Demgegenüber ist ein gängiges Argument für die Vorteile, die KI als militärische Technologie bieten kann, dass ein solches System eine deutlich größere Menge an Sensordaten und Informationen verarbeiten kann. Darauf aufbauend kann das System aussagekräftige Zwischenergebnisse errechnen. Mit Bezug auf die hier zu diskutierenden militärischen Anwendungen wäre das für weitere Schritte wie beispielsweise die taktische Gefechtsfeldentscheidungsfindung verwendbar. Doch die schiere Steigerung der Verarbeitungskapazität allein ist auch nicht sehr neu. Die Optimierung der Datenanalyse ist seit Jahren eine Herausforderung. Gerade auch Militärs und Einsatzkräfte verfügen seit jeher in aller Regel über die stärksten, leistungsfähigsten und modernsten Computer. So bleibt nach Abzug aller nicht wesentlichen Elemente festzuhalten, dass die einzigartige relevante Veränderung, die KI in diese Systeme einbringen könnte, die Fähigkeit ist, verborgene Muster und Beziehungen in Informationen zu entdecken, die durch einen »einfachen« Algorithmus nicht identifiziert werden könnten.

Vom zu erwartenden militärischen Nutzen

Abgesehen von den möglichen Gefahren und Schwachstellen eines solchen Ansatzes stellt sich nun aber die Frage, welche militärischen Anwendungen von solchen Fähigkeiten überhaupt profitieren und welche Art von Anwendungen sie verbessern oder ermöglichen könnten. Die überzeugenden Ergebnisse von KI-gestützten Verteidigungssystemen – wie z. B. für automatisierte Cybersicherheitsmaßnahmen – führen sichtbar zu der Annahme bei Sicherheitspolitiker*innen und Militärs, dass solche Verbesserungen auch auf offensive militärische Fähigkeiten anwendbar sein müssten. Wirft man einen Blick auf einzelne Ausschreibungen für militärische Forschungsprojekte, gewinnt man einen Eindruck davon, in welche Richtung militärische Streitkräfte die Entwicklungen gerne lenken würden. Beispielsweise das 2017 gestartete »Project Maven« (Deputy Secretary of Defense 2017), das ein „Algorithmic Warfare Cross-Functional Team“ etablierte, dessen Ziel es ist, die dem Verteidigungsministerium zur Verfügung stehenden enormen Datenmengen schnell in verwertbare Informationen und Erkenntnisse für die aktive Kriegsführung umzuwandeln. Ein ähnlicher Ansatz wurde kürzlich in den USA mit dem »Joint Artificial Intelligence Center« gestartet (Boyd 2020), das „mit künstlicher Intelligenz ausgestattete Produkte zur Unterstützung von Kriegseinsätzen liefern und dazu beitragen soll, KI-Entscheidungen und -Analysen auf allen Ebenen der Operationen des Verteidigungsministeriums zu verankern“. Wie dies aussehen kann, veranschaulicht ein Bericht über einen simulierten Infanteriezug (Freedberg Jr. 2019). Bei dieser Simulation wurden in kleinem Maßstab luft- und bodengestützte autonome Waffen- und Überwachungssysteme getestet, die von einer komplexen KI kontrolliert und gesteuert wurden mit dem Ziel, Infanteriesoldat*innen zu unterstützen. Der Bericht merkt jedoch an, dass eine solche KI mit derartig komplexen Fähigkeiten noch nicht existiert. Um dennoch die Wirkungsweise einer solchen KI zu simulieren, stützte sich das sogenannte »Fort Benning War­game« in hohem Maße auf Menschen, die als eine neutrale »weiße Zelle« agierten und die Sensordaten aufnahmen, interpretierten und zusammenfassten. Ein letztes erwähnenswertes Beispiel betrifft einen Forschungswettbewerb, der darauf abzielt, eine KI-gestützte Software mit dem Namen »Skyborg« zu entwickeln. Die KI soll hierbei einen Verbund unbemannter Luftfahrzeuge kontrollieren und koordinieren, die klassische, von Menschen gesteuerte Kampfjets begleiten und unterstützen (Reim 2020).

Zur Debatte ethischer und moralischer Grenzen

Betrachtet man die technischen Möglichkeiten, die KI heutzutage zu versprechen scheint, so erscheinen solche Forschungsvorschläge schlüssig. Allerdings werfen diese Entwicklungsversuche eine Vielzahl an unmittelbaren ethischen und moralischen Bedenken auf. Was ist mit den Einschränkungen und Risiken, die solche Algorithmen von Natur aus in die Anwendungen einbringen? Wie entwickelt man ein solches System? Wer entscheidet über das Trainingsmodell und die Klassifikatoren, die die KI verwendet und wie werden die für den Lernprozess erforderlichen Daten gesammelt? Können sich militärische Entscheidungssysteme und militärische Befehlsketten wirklich auf technische Unterstützung verlassen, die potenziell falsche, nicht-deterministische Ergebnisse liefern kann? Inwieweit sind militärische Entscheidungsträger*innen bereit, falsch-positive Ergebnisse z. B. der Bildverarbeitung zu akzeptieren bzw. einzukalkulieren, die als Grundlage für Entscheidungen über den Einsatz von Waffensystemen dienen?

Selbst unter der hypothetischen Annahme, dass die technische Entwicklung der sogenannten erklärbaren KI (»explainable AI«; Vilone und Longo 2020) zu einsetzbaren Lösungen gelangt, stellt sich die Frage, ob und wie Entscheidungen getroffen werden sollen, wenn ein Computer ein berechnetes Ergebnis mit einer Reliabilität von bspw. 70 % ausgibt. Natürlich haben auch menschliche Operator*innen ihre Grenzen und auch sie laufen Gefahr, falsche Entscheidungen zu treffen. Aber ein*e menschliche*r Operator*in versteht den Kontext und die Konsequenzen der Entscheidungen und ist (im besten Fall) in der Lage, mit Unsicherheit und Zweifeln umzugehen. Vor allem aber sind sie verantwortbar für ihr Handeln.

Sofern KI lediglich zur verbesserten Sensorintegration und beschleunigten Informationsverarbeitung eingesetzt werden soll, stellt sich die Frage, welche militärischen Zusammenhänge so entscheidend oder zeitkritisch sind, dass Vorteile gegenüber deterministischen Algorithmen die beschriebenen Nachteile (höhere Rechnerleistung, Ressourcenverbrauch, unbestimmbare Entscheidungsfindung) einer KI rechtfertigen. Können wir uns wirklich KI-Systeme leisten, die eng in militärische Kommando- und Kontrollprozesse integriert sind und über eigenständige Entscheidungsfähigkeiten oder Spielraum für autonome Aktivitäten verfügen – ein Szenario das bereits zu Befürchtungen über nicht mehr nachvollziehbare KI-gegen-KI-Blitzkriege geführt hat? Vielleicht ist dies reiner Optimismus meinerseits, aber sollten wir nicht etwas aus der Geschichte der nuklearen Beinahe-Katastrophen gelernt haben?

Rüstungskontrollmechanismen auch für KI?

Was bedeutet diese Entwicklung schluss­endlich für die Debatten über mögliche Rüstungskontrollmechanismen bezüglich KI? Als Friedensforscher und Informatiker muss ich betonen, dass Bedenken hinsichtlich möglicher Bedrohungen durch KI-gestützte militärische Systeme ernstzunehmen sind. Auch deren technische Entwicklungen und Fähigkeiten müssen intensiv beobachtet werden. Im Hinblick auf politische Debatten wird es von entscheidender Bedeutung sein, darüber zu diskutieren und zu befinden, welche roten Linien in dieser Entwicklung nicht überschritten werden sollten und einen normativen Rahmen der Rüstungskontrolle zu schaffen.

Meiner Einschätzung nach ist das gegenwärtige Narrativ über ein zerstörerisches, vielleicht katastrophales Potenzial dieser Technologie im Verhältnis zu den versprochenen »Vorteilen« nicht stark genug, um Staaten zu Verhandlungen über Rüstungskontrolle oder gar zu möglichen Rüstungskontrollverträgen auf internationaler Ebene zu bewegen. Zu verlockend erscheinen doch die militärischen Vorteile, die durch KI-Anwendungen versprochen werden.

Gleichsam sind solche militärischen »Big Brain«-Anwendungen derzeit (noch) reine Science-Fiction und Forscher*innen wie politische Beobachter*innen sollten darauf achten, sich nicht von großen KI-Visionen ablenken zu lassen, die den Blick auf die möglicherweise viel näherliegenden, kleinteiligen Entwicklungen verstellen. Darüber hinaus ist es wichtig, in den Debatten auf die technischen Details der KI und die kritische Bewertung davon hinzuweisen. Das Herunterbrechen der Konzepte auf die verschiedenen technischen Ebenen der KI – die Datenbeschaffung und -aufbereitung, die Erstellung des Lernmodells und dessen Training sowie die Implementierung und Anwendung in Waffensystemen – wird einerseits helfen, den Fokus auf die tatsächlichen technischen Fähigkeiten dieser Maßnahmen, aber auch auf ihre strukturellen Grenzen zu richten.

Darüber hinaus könnte eine solche Aufschlüsselung auch dabei helfen, Ähnlichkeiten zu Debatten über andere Waffentechnologien zu erkennen und Synergien sowie »lessons learned« zu nutzen. Beispielsweise stellen sich in Bezug auf autonome militärische Systeme ähnliche Fragen hinsichtlich menschlicher Verantwortlichkeit und Haftung, wie diese oben für KI aufgeworfen wurden. Diese Fragen sind bereits für LAWS (Lethal Autonomous Weapon Systems; tödliche automatisierte Waffensysteme), unter anderem im Rahmen der »Campaign to Stop Killer Robots« (Kampagne gegen Killerroboter), breit diskutiert worden.

In diesem Zusammenhang ist eine spezifisch technische Perspektive auch deshalb dem Diskurs zuträglich, da sie helfen kann, Ansatzpunkte für mögliche Rüstungskontroll- und Regulierungsmaßnahmen zu identifizieren und technische Verfahren zu entwickeln, wie sie für die Verifikation von Rüstungskontrollverträgen benötigt werden. Sicher ist, dass die fortschreitende militärische Anwendung von KI das bereits bestehende Dual-Use-Dilemma anderer Technologien weiter verschärfen wird. Dies gilt insbesondere für den Fall, dass miniaturisierte Computerchips, die bereits heute in Unterhaltungselektronik stecken, in Zukunft großflächig von Rüstungsunternehmen aufgegriffen und in deren Produkte eingebaut werden könnten. Da die KI-Technologie vor allem ein internationaler Markt des geistigen Eigentums und der technologischen Konzepte, weniger jedoch der physischen Gegenstände ist, wird dies die ohnehin bereits bestehenden Regulierungsschwierigkeiten dieser Waffentechnologie, wie etwa aufgrund des ausgeprägten Dual-Use-Charakters sowie die Probleme bei der Rüstungskontrolle von Software noch weiter vorantreiben.

Die aufkommende Technologie der KI stellt die Rüstungskontrolldebatte somit vor neue Aufgaben und Herausforderungen und verlangt nach konkreten und neuen Antworten. Eine der grundlegenden Herausforderungen wird darin bestehen, die richtige Perspektive auf die technologischen Fähigkeiten der KI zu finden und die Veränderungen, die sie für kommende Waffensysteme bedeutet. Ein Blick in die Technik und eine Perspektive aus der Technik kann dabei nur zuträglich sein.

Literatur

Boyd, A. (2020): The Pentagon‘s $800M Effort to Embed AI In Decisions in ‚All Tiers‘. Defense One, 20.05.2020.

Deputy Secretary of Defense (2017): Establishment of an Algorithmic Warfare Cross-Functional Team (Project Maven). Govexec.com, 26.04.2017.

European Digital Rights (EDRi) (2021): If AI is the problem, is debiasing the solution? 21.09.2021.

Freedberg Jr., S. J. (2019): AI & Robots Crush Foes In Army Wargame. Breaking Defense, 19.12.2019.

Klare, M. T. (2020): ‚Skynet‘ Revisited: The Dangerous Allure of Nuclear Command Automation. Arms Control Today, (Vol. 50, Ausgabe 3), April 2020.

Meyer, D. (2017): Vladimir Putin Says Whoever Leads in Artificial Intelligence Will Rule the World. Fortune.com, 4.9.2017.

Nakamitsu, I. (2020): Emerging technology and nuclear risks; sustaining and developing expertise in the next generation – Keynote. Virtual UK Project on Nuclear Issues, 2020 Annual Conference Royal United Services Institute for Defence and Security Studies.

Reim, G. (2020): US Air Force launches Skyborg competition, artificial intelligence for loyal wingman UAV. Flight Global, 18.05.2020.

Saalman, L. (2020): The Impact of AI on Nuclear Deterrence: China, Russia, and the United States. East-West Wire, 14.04.2020.

Vilone G.; Longo, L. (2020): Explainable Artificial Intelligence: a Systematic Review. ArXiv.org, V4., 12.10.2020.

Thomas Reinhold ist wissenschaftlicher Mitarbeiter und Doktorand am Fachgebiet Wissenschaft und Technik für Frieden und Sicherheit (PEASEC) der TU Darmstadt. Er befasst sich mit IT-gestützten Möglichkeiten für Rüstungskontrolle militärischer Aktivitäten im Cyberspace sowie den Problemen einer Militarisierung von Künstlicher Intelligenz.

Menschenzentrierte Künstliche Intelligenz in der Kriegsführung: Ein Widerspruch?

von Elke Schwarz

Künstliche Intelligenz (KI) für militärische Waffensysteme wird oft in der Rubrik »aufkommende Technologien« aufgeführt, obwohl die Ursprünge von KI als Technologie und Wissenschaft schon in der Kybernetik und aufkommenden Informatik der 1950er Jahren lagen. Seither gab es immer wieder neue Wellen an technischen Fortschritten in diesem Bereich – alle mit der Zielsetzung, eine »Denkmaschine« zu produzieren, die dem Menschen in der Entscheidungsfindung ähnelt. KI ist auch augenblicklich in aller Munde, da Fortschritte sowohl im maschinellen Lernen mit künstlichen neuronalen Netzen als auch in der Prozessortechnik neue, bisher unerreichbare Erfolge versprechen. Das gilt auch für das Militär, wo man zunehmend auf KI in allen Bereichen setzt – auch in der Zielbearbeitung. Autonome Waffensysteme kann es zum Beispiel ohne KI nicht geben – das wirft allerlei ethische Probleme auf. Das Internationale Rote Kreuz nennt die KI – insbesondere mit dem maschinellen Lernen – als eine der größten Herausforderungen für das humanitäre Völkerrecht und das aus gutem Grund (ICRC 2019).

Wenige Staaten, die eine militärische KI-Strategie planen, haben spezifische ethische Richtlinien, und wo diese existieren – wie zum Beispiel in Frankreich und den USA – werden im Wesentlichen zwei Aspekte hervorgehoben: Zum einen, dass die KI die Kriegsführung mit großer Wahrscheinlichkeit signifikant verändern wird, und zum anderen, dass durch die KI militärisch enorme Vorteile erzielt werden könnten. Ob und wie die KI die Kriegsführung verändert, ist natürlich noch sehr unklar und spekulativ. Dass KI Vorteile in vielen Bereichen der militärischen Struktur bringen kann, ist klar: Für das Rationalisieren von Infrastrukturen, für die Logistik, für die Verwaltung von Waren- und Lieferketten, optimierte Kommunikation oder gar für die präventive Wartung von Kampfflugzeugen ist die KI ideal, um Prozesse zu optimieren. Wenn es allerdings darum geht, KI in der Offensive oder für Kampfeinsätze zu verwenden, sind die Vorteile weniger klar, als viele Befürworter*innen uns oft glauben lassen. Spezifisch geht es in den meisten Debatten darum, ob es einem KI-System überlassen werden sollte oder kann, die kritische Funktion in der Zielbearbeitung zu übernehmen – das heißt, ein Ziel zu identifizieren, anzuvisieren und eine tödliche Entscheidung zu treffen. Diese Debatten formulieren die Frage: Ist es eine gute Idee, die KI über Leben und Tod entscheiden zu lassen beziehungsweise ihr auch generell Entscheidungshoheit im Krieg zu geben, wo ethische Aspekte schwerstens zum Tragen kommen.

Diese Fragen sind in den letzten Jahren Bestandteil vieler heftiger Debatten geworden – ganz besonders jedoch, wenn es um komplexe KI-Systeme geht, die fortgeschrittenes maschinelles Lernen einsetzen. Ethiker*innen, Aktivist*innen sowie KI- und andere Expert*innen bestehen darauf, dass es höchste Zeit ist, sich ernsthaft und effektiv mit den Auswirkungen von KI auf die Handlungsfähigkeit, Verantwortungsfähigkeit und generell auf die menschliche Kontrolle von autonomen Systemen auseinanderzusetzen – vor allem in moralisch schwerwiegenden Bereichen, wie zum Beispiel im Militäreinsatz. Dennoch sind glaubhafte Auseinandersetzungen mit der KI-Ethik im Militärbereich noch sehr selten und vorwiegend vage. In den USA wurden ethische Prinzipien und Richtlinien für die KI im Militär vom US Defense Innovation Board (DIB) zusammengestellt, das mehrere Expert*innen und Ethiker*innen zu Rate gezogen hatte. Die KI-Prinzipien wurden im Oktober 2019 erstellt und kurz darauf vom Pentagon abgesegnet. Das ist vielleicht ein guter Anfang, aber Kritiker*innen befürchten, dass die oft vage und abstrakt formulierten Prinzipien eher als quasi-moralische Fassade dienen und weniger als wirklich ernsthafter ethischer Versuch, die Nutzung von KI in der Kriegsführung zu limitieren (O’Brien 2020). Das ist vielleicht nicht allzu überraschend: Zu dem Zeitpunkt, als die KI-Prinzipien entstanden sind, war der ehemalige Google-CEO und KI-Enthusiast Eric Schmidt Vorsitzender des Defense Innovation Board. Seine Verbindungen zu Google, einem zentralen Akteur bei der Entwicklung, dem Ausbau und der Implementierung von Formen der KI, bleiben bis heute bestehen. Auch andere Versuche, bei der militärischen KI konkret zu werden, wie zum Beispiel Frankreichs »Stratégie de l’intelligence artificielle au service de la Défense«, lassen zu wünschen übrig. Und oft bleibt außer einem wiederholten Beteuern, dass Ethik schon wichtig sei und dass diese ernst genommen werde, wenig Konkretes über. Dennoch – oder vielleicht gerade deswegen – sind wichtige Bemühungen von Seiten einiger Nichtregierungsorganisationen im Gange, um zumindest sicherzustellen, dass eine sogenannte „bedeutungsvolle menschliche Kontrolle“ der KI gewährleistet bleibt. Wie das Internationale Komitee vom Roten Kreuz betont: „KI muss ein Instrument bleiben, welches dem Vorhaben menschlicher Akteure unterlegen ist und die Entscheidungsfindung verbessern und nicht ersetzen soll“ (International Committee of the Red Cross 2019, S. 32). Das ist allerdings vielleicht einfacher gesagt als getan.

Die Grenzen der menschlichen Kontrolle über die KI

Dass die KI ein Instrument, ein Werkzeug, bleiben soll, ist ein wichtiges Ziel. Ein menschenzentrierter – und auch ein Menschlichkeits-zentrierter – Umgang mit Kriegstechnologie ist wichtig, wenn wir ein Minimum an Menschenwürde und Menschlichkeit im Krieg bewahren möchten. Um das zu erreichen, muss man sowohl die Grenzen der KI-Technologie als auch die des Menschen im Umgang mit der KI-Technologie ernstnehmen. Wo die KI, maschinelles Lernen und menschliches Denken ein Ökosystem bilden, ist die menschliche Handlungsfähigkeit begrenzt. Als Menschen haben wir eine Tendenz, den vorkalkulierten Entscheidungen eines Computers recht blind und unvoreingenommen zu vertrauen (Cummings 2004). Oft fehlt Menschen das notwendige Wissen, um die vom Computer getroffenen Entscheidungen nachvollziehen und dann auch entsprechend kontrollieren zu können. Das gilt vor allem dann, wenn es sich um komplexe KI-Vorgänge handelt, die einen Überlegungsmodus einsetzen, der dem Menschen fremd ist und im Nachgang zur Entscheidung der KI eine schnelle menschliche Entscheidung vonnöten ist. In genau diesem Zusammenhang steckt ein Risiko. Wie das mit allen Technologien so ist, steckt das Potenzial zum Unglück „nicht allein in dem leblosen Objekt, sondern in der vielseitigen Art und Weise, wie Menschen mit ihm umgehen“, wie die Technologie-­Theoretikerin Sheila Jasanoff schreibt (ibid. 2016, S. 56).

Potenziert wird das Problem, wenn der Mensch vollends in die Maschinen-Logik eingebettet ist, in welcher er dann hauptsächlich als Systemteil funktioniert (der Entscheidungen in Handlungen übersetzt) und die Maschinen-Logik auf eine Art und Weise arbeitet und Entscheidungen trifft, die der Mensch intellektuell und kognitiv nicht so richtig verstehen kann. Das ist konkret so mit neuronalen Netzen und maschinellem Lernen, welches eine KI-Entwicklung erlaubt, in der selbst die Programmierer*innen nicht immer genau wissen, wieso ein System eine bestimmte Entscheidung getroffen hat.

Da wir eingebettet sind in diese omnipräsenten digitalen Strukturen, ist es relevant zu erkunden, in welchem Maße wir überhaupt die Technologie als pures Instrument benutzen können und inwieweit unser Handeln, Denken, unser Verlangen, unsere Ideen und auch unsere Rechtfertigungen von technologischen Strukturen geformt werden. Bei den militärischen Technologien stellen sich diese Fragen sogar noch wesentlich ausgeprägter, da ein*e Soldat*in ziemlich tief in Netzwerken von Interfaces und digitalen Informationsstrukturen eingebunden ist und unter solchen Umständen oft in Sekundenschnelle handeln muss. Genau da wird es problematisch mit der Kon­trolle und auch damit, Verantwortung bei moralisch schwierigen Entscheidungen zu übernehmen.

Um als moralische Akteur*innen verantwortungsvoll handeln zu können, müssen – ganz generell gesprochen – gewisse Voraussetzungen gegeben sein. Zum einen müssen die Akteur*innen eine gewisse Handlungsfreiheit haben. Das bedeutet, sie werden nicht zu einer Handlung gezwungen. Zum anderen müssen die Akteur*innen auch über ausreichendes Wissen verfügen, um die Folgen einer Handlung adäquat abschätzen zu können. Das wird im Zusammenhang mit vernetzter digitaler Technologie und speziell mit KI kompliziert, denn wir Menschen kommen da an unsere Grenzen.

Die ethischen Grenzen der KI-Entscheidungen

Wenn wir also die KI als reines Instrument oder Werkzeug – als Mittel zum Zweck – betrachten, übersehen wir vielleicht eine wichtige und unüberwindbare Spannung zwischen der Logik der Maschine und den Anforderungen ethischen Denkens. Die Logik der KI beruht darauf, dass das Leben in berechenbare Daten klassifiziert und kodifiziert werden kann. Sie verwendet Denkweisen, die menschlichen Denkprozessen oft sehr fremd sind, und trifft Entscheidungen in Sekundenschnelle, auf den kodifizierten Daten basierend. Diese Logik steht jedoch im krassen Gegensatz zum komplexen, langsamen und unlösbaren Charakter des ethischen Denkens. In der Computer-Logik wird Ethik als Problem aufgegriffen, das einer Lösung bedarf. Wenn es also um die Zielfindung und -bearbeitung mit KI geht, bedeutet das, dass dieser höchst moralische Akt – der Schiedsspruch zur Anwendung tödlicher Gewalt – als Optimierungsproblem erfasst wird und nicht als eine schwerwiegende ethische Entscheidung. Die Lösung ethisch anspruchsvoller Aufgaben, einschließlich der Identifizierung potenzieller menschlicher Ziele mit KI, selbst wenn hier die raffiniertesten maschinellen Lerntechniken eingesetzt werden, bedeutet einen bewussten Verzicht auf diese einzigartige menschliche Aufgabe, eine moralisch schwierige Entscheidung als solche zu erkennen, abzuwägen und die Schwere dieser Entscheidung auch zu spüren, also wortwörtlich Verantwortung zu »übernehmen«. Diese wichtige Aufgabe kann uns keine Maschine abnehmen und sollte dies auch nicht tun. Wir sollten es nicht zulassen, dass solche herausfordernden Entscheidungen im Krieg durch das reibungslose Funktionieren der Techno-Logik erleichtert oder ersetzt werden. Auch sollten wir uns nicht dazu hinreißen lassen, anzunehmen, dass ein solcher Ersatz möglich ist. Er ist es nicht.

Die Maschinen-Logik hat Grenzen und wir als Menschen haben auch Grenzen im Umgang mit unseren Maschinen. Ohne diese grundlegende Einsicht wird es uns kollektiv schwerfallen, dem immer lauter werdenden Chor der KI-Befürworter*innen Einhalt zu gebieten und ein Mindestmaß an Menschlichkeit in der Kriegsführung aufrecht zu erhalten. Besonders besorgniserregend ist in diesem Zusammenhang die Dominanz des Privatsektors bei der Entwicklung von KI-Technologien für den militärischen Einsatz. Der fest in Silicon Valley verankerte Leitspruch »Move fast and break things« (kurzum: »Erst mal machen, auch wenn etwas kaputt geht, und dann später verbessern.«), enthält wenig von der Vorsicht, die die Vorväter der KI in den 1950er Jahren geäußert hatten. Norbert Wiener zum Beispiel war schon damals klar, dass der Einsatz der Computer-Autonomie im Krieg zu katastrophalen Ergebnissen führen könnte. Zu fremd sind sich die menschliche und die maschinellen Entscheidungsführungen (Wiener 1960). Das Silicon-Valley-Motto hat keinen Platz, wenn es konkret um Menschenleben geht, und sollte keinesfalls zum Diktat für KI-gesteuerte Militär­einsätze werden.

Literatur

O’Brien, M. (2020), Pentagon adopts new ethical principles for using AI in war. Associate Press News online, 24.02.2020.

Cummings, M.L. (2004): Automation Bias in Intelligent Time Critical Decisions Support Systems. American Institute of Aeronautics and Astronautics, AIAA 3rd Intelligent Systems Conference, Chicago 2004.

Defense Innovation Board (2019): AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense. defense.gov, 31.10.2019

International Committee of the Red Cross (ICRC) (2019): International Humanitarian Law and the Challenges of Contemporary Armed Conflicts – Recommitting to Protection in Armed Conflict on the 70th Anniversary of the Geneva Convention. 2019 Challenges Report. Genf: ICRC.

Jasanoff, S. (2016): The Ethics of Invention: Technology and the Human Future. New York: W. W. Norton & Co.

Wiener, N. (1960): Some Moral and Technical Consequences of Automation. Science 131, S. 1355-58.

Elke Schwarz ist Dozentin für Politische Theorie an der Queen Mary University London. Sie ist Mitglied des International Committee for Robot Arms Control (ICRAC) und Autorin des Buches »Death Machines: The Ethics of Violent Technologies« (Manchester University Press 2019).

Bilderkennung und Aufklärung: Wie Künstliche Intelligenz längst mitkämpft

von Christoph Marischka

Militärische Relevanz hat Künstliche Intelligenz unter anderem in der Bild­erkennung. Während diese eine ihrer wesentlichen Wurzeln in der zivilen Fernerkundung und militärischen Satellitenaufklärung hat, findet mittlerweile an vielen Standorten in Deutschland unter verschiedenen Aspekten damit zusammenhängende Forschung an KI in der Bilderkennung statt, die für Rüstung und Militär interessant ist. Explizit militärische Forschung zur Bilderkennung findet in der Rüstungsindustrie, einigen Standorten des Deutschen Zentrums Luft- und Raumfahrt (DLR), der Bundeswehruniversität in München, einigen zivilen Hochschulen (TU München und Leibniz-Universität Hannover), sowie einigen Fraunhofer-Instituten statt. Einen expliziten Schwerpunkt auf die Bilderkennung hat das Fraunhofer Institut für Optronik, Systemtechnik und Bildauswertung (IOSB) in Karlsruhe und Ettlingen, weshalb wir dort unsere kleine Erkundung zur militärischen Bilderkennung beginnen wollen.

Die Wurzeln des IOSB

Das IOSB geht auf eine lange Geschichte von Umbenennungen und Umstrukturierungen zurück. Eine der Wurzeln des Instituts liegt im 1958 unter der Leitung von Karl Steinbuch gegründeten Institut für Nachrichtenverarbeitung (später umbenannt in Institut für Technik der Informationsverarbeitung, ITIV) der Universität Karlsruhe. Darin bildete sich eine »Arbeitsgruppe für Bildverarbeitung«, deren „Betätigungsfeld […] sich vor allem auf Mustererkennung und maschinelle Luftbildauswertung, insbesondere für wehrtechnische Anwendungen [erstreckte]“ (ITIV 2021). 1971wurde die »Forschungsgruppe für Informationsverarbeitung und Mustererkennung« aus dem Institut herausgelöst und in die »Gesellschaft zur Förderung der astrophysikalischen Forschung e. V.« (ASTRO) integriert und mit weiteren Forschungsgruppen verschmolzen. 1975 wurde aus der ASTRO die »Forschungsgesellschaft für Angewandte Naturwissenschaften« (FGAN).1 Sowohl die ASTRO als auch die FGAN waren nahezu ausschließlich im Auftrag des Bundesverteidigungsministeriums (BMVg) aktiv, aus dessen Haushalt sie auch ihre Grundfinanzierung erhielten. Ein großer Teil der Forschung fand unter Geheimhaltung statt, was dazu beitrug, dass der Austausch mit der zivilen Wissenschaft und auch der Wettbewerbsdruck auf die (meist männlichen und unbefristet) beschäftigten Wissenschaftler*innen aus Sicht des BMVg ungenügend war. Deshalb beauftragte das BMVg 2003 den Wissenschaftsrat (WR), eine Eingliederung der FGAN-Institute in die (ebenfalls als Verein organisierte) Fraunhofer Gesellschaft zu prüfen und „Empfehlungen zur künftigen Organisation und Finanzierung“ vorzulegen. Konkret bestand der Auftrag des BMVg an den WR auch darin, „festzustellen, ob für die Leistungen bei der Umsetzung der Ergebnisse auch ein ziviler Markt besteht und die Institute dort einen größeren Teil ihrer Finanzierung einwerben können“ (Wissenschaftsrat 2007). Die 2007 vorgelegten Ergebnisse des WR wurden in den folgenden Jahren umgesetzt: Alle drei FGAN-Institute wurden in die Fraunhofer Gesellschaft integriert, wobei das FOM noch mit dem Fraunhofer-Institut für Informations- und Datenverarbeitung (IITB) zum heutigen IOSB fusioniert wurde. Das IITB ging auf das 1956 in Tübingen gegründete »Institut für Schwingungsforschung« zurück, das seinerzeit v.a. die Wahrnehmung von Tieren als Signalverarbeitung erforschte.

Dual Use am IOSB

Die Abteilung Videoauswertesysteme des Fraunhofer IOSB forschte in den vergangenen Jahren im Auftrag des BMVg z.B. an der Signalverarbeitung der Drohne »Luna«, während diese in Afghanistan eingesetzt wurde. Hier ging es u.a. um die Bildstabilisierung, aber auch die automatische Hervorhebung von Gebäuden oder Fahrzeugen (»Projekt ABUL«). Auf der zivilen Seite lieferte dieselbe Abteilung die Software für ein – nach eigenen Angaben – europaweit einmaliges Pilotprojekt zur intelligenten Videoüberwachung des öffentlichen Raumes in Mannheim. Diese arbeite „handlungsbasiert“: „Nur wenn ein Algorithmus Verdächtiges [tätliche Übergriffe oder abgestellte und verwaiste Gegenstände] entdeckt, stellt das System das Bild scharf und alarmiert den menschlichen Operator“. Offenbar ermöglicht es auch die Durchsuchung von Videoaufnahmen anhand „sogenannter soft biometrischer Merkmale wie etwa bestimmter Accessoires, Haarfarbe oder Körpergröße“ (IOSB 2018). Parallel entwickelte die Abteilung Videoauswertesysteme beständig seine Produktfamilie »ivisX« (Integrated Video Investigation Suite) zur Auswertung „massenhaft zur Verfügung stehender Videodaten“ weiter und begründet dies so: „Die Notwendigkeit zur Auswertung von (Bild/Video-)Massendaten ergibt sich insbesondere in den Fällen schwerer (z.B. Terroranschläge wie in Berlin 2016) oder in einer Vielzahl verübter Straftaten (z. B. Silvesternacht in Köln oder G20-Gipfel in Hamburg)“ (IOSB 2021a).

Eine ähnliche Bandbreite militärischer und ziviler Aufträge findet sich auch in den anderen Abteilungen des IOSB. So entwickelte die Abteilung »Interaktive Analyse und Diagnose« (IAD) im Auftrag des damaligen Bundesamtes für Wehrtechnik und Beschaffung (BWB) den »Erkennungs­assistenten« Recceman, der seit 2010 als operationelles System auf allen Luftbildauswerteanlagen in der Bundeswehr eingesetzt“ wird und dessen Datenbestand bislang aus militärischen Land-, Luft- und Seefahrzeugen und dazugehörigen „Merkmal-Bäumen“ besteht, anhand derer man den jeweiligen Typ bestimmen kann (IOSB 2021b). Ein langfristiges Forschungsprojekt im Auftrag des BMVg hat die Fortentwicklung eines „digitalen Lagetischs“ und seiner Integration in virtuelle Realitäten zum Ziel, der offenbar zugleich im Projekt »S²UCRE« (Sicherheit in städtischen Umgebungen: Crowd-Monitoring, Prädiktion und Entscheidungsunterstützung) Anwendung finden soll, an dem verschiedene Polizeibehörden beteiligt sind und das vom Bundesministerium für Bildung und Forschung (BMBF) finanziert wird.

Im Jahresbericht 2012 zur Wehrtechnischen Forschung stellten Angehörige der Abteilung IAD des IOSB ihre Forschung an einem „Objektorientierten Weltmodell“ vor, eine „Fusionsarchitektur“, die als Informationsdrehscheibe zwischen Signalverarbeitungsalgorithmen und Situationsanalysediensten“ dient. Die Forschung wurde demnach von der Wehrtechnischen Dienststelle 81 gefördert und „begleitet durch Projekte der zivilen Sicherheitsforschung: DeMarine, AMASS (Autonomous Maritime Surveillance System) und WiMA2S (Wide Maritime Area Airborne Surveillance)“ (Bundesministerium der Verteidigung 2012).2 Im Rahmen von WIMA2S ging es zwischen 2008 und 2011 darum, den Einsatz unbemannter Luftfahrzeuge für den Grenzschutz (und explizit auch Frontex) vorzubereiten. Aktuell ist die Abteilung IAD des IOSB am Projekt »Ocean2020« beteiligt, das von der EU-Verteidigungsagentur finanziert wird und den Einsatz verschiedener unbemannter Luft- und (Unter-)Wasserfahrzeuge in einem multinationalen Verband von Kriegsschiffen erproben soll.

»Zivile« Sicherheitsforschung

Die Eingliederung der fast ausschließlich in militärischem Auftrag und unter Geheimhaltung operierenden FGAN-­Institute in die Fraunhofer Gesellschaft erfolgte auch mit dem ausdrücklichen Ziel, sie für die Gelder zugänglich zu machen, die im Rahmen der zeitgleich von EU und Bundesregierung aufgelegten Forschungsprogramme für die »zivile Sicherheit« bereitgestellt wurden. Laut Recherchen des Projekts »Security for Sale« war die Fraunhofer Gesellschaft (die alle Fraunhofer Institute zusammen umfasst) mit Stand vom Februar 2017 jenes Forschungsinstitut, das am umfangreichsten von den EU-Programmen FP7 und Horizon2020 profitierte (Biermann und Fuchs 2017). Im Rahmen der zivilen Sicherheitsforschung ging es in Dutzenden von Projekten unter Szenarien des Grenzschutzes, des Katastrophenschutzes, oder der Verkehrs- und Flughafensicherheit darum, Sensoren auf bemannten und unbemannten Plattformen anzubringen, die von ihnen erfassten Daten zu verarbeiten und zu fusionieren und an Mensch-Maschine-Schnittstellen zur »Entscheidungs­unterstützung« darzustellen. Dabei spielte neben der Objekterkennung oft auch die Szenen- und Situationserkennung eine große Rolle. Neben der sozusagen »abbildenden« Sensorik (Radar, Infrarot) wurde in (Teil-)Projekten auch die Integration von seismischen oder akustischen Signalen (z.B. durch das INDECT-Projekt) und »elektronischen Nasen« zur Rekonstruktion olfaktorischer Reize in die Situationserkennung einbezogen.

Mit der Fusion von Sensordaten wurden wesentliche Fortschritte bei Cloud-basierten (Sicherheits-)Anwendungen und der Kommunikation von (teil-)autonomen Systemen erzielt. Damit wurden auch Grundlagen für jene »Combat-Clouds« und »Battle Management Systems« geschaffen, die aktuell (jeweils unter Beteiligung des Atos-Konzerns) zur Vernetzung von Spezial- und Luftstreitkräften der französischen und deutschen Armee implementiert werden und künftige Europäische Rüstungsprojekte wie das »Future Combat Air System« (FCAS, siehe auch Kreowski und Lye in diesem Dossier) und das »Main Ground Combat System« (MGCS) prägen sollen. Bei beiden ist geplant, dass jeweils ein zentrales, bemanntes Luft- bzw. Bodensystem von einer Vielzahl von (teil-)autonom und kooperativ agierenden unbemannten Plattformen begleitet wird.

Die vielen Projekte zu unbemannten Plattformen haben – wie auch deren günstige Verfügbarkeit – die Forschung auf verschiedenen Gebieten der Bilderkennung beflügelt. So sind zur GPS-­unabhängigen Navigation autonomer Systeme sogenannte SLAM-Anwendungen (»Simultaneous Localization and Mapping«, Zeitgleiche Lokalisierung und Kartierung) zu einer viel beforschten Funktion geworden, die hohe Anforderungen an Objekterkennung und ein gewisses Situationsverständnis voraussetzen. Klassische Anwendungen der Fernerkundung kommen – wenn auch in höherer Auflösung – z.B. bei Flugdrohnen zum Einsatz, wenn diese (etwa nach Abbruch des Datenlinks) eigenständig Notlandplätze identifizieren sollen. Forschungsarbeiten zur Personenverfolgung durch kleinere, handelsübliche Drohnen (Quadro- oder Oktokopter) gehören auch an vielen zivilen Informatik-Instituten zum Repertoire der untersuchten Fragestellungen. Zumindest größere Drohnen verfügen meist auch über Systeme zur Kollisionsvermeidung, mit denen etwa Stromleitungen oder andere Flugkörper identifiziert und deren Verhalten antizipiert werden soll.

In den zivilen Anwendungen führen diese Fortschritte zu einer bis ins Dystopische erhöhten Überwachungsdichte. Indem etwa die vielen Kameras zur Überwachung eines Flughafens oder anderer öffentlicher Räume über ein System vernetzt werden, das zudem über eine Form von Situationserkennung verfügt, können sie Personen mit »verdächtigem Verhalten« (typischerweise etwa das »loitering«, »Herumhängen«) über große Distanzen und Zeiträume verfolgen oder nachträglich verfolgbar machen. Über entsprechende Schnittstellen könnten sie das umfangreiche Bildmaterial nach einzelnen Handlungen oder Merkmalen durchsuchen und so Verhaltensweisen rekonstruieren, die bereits länger in der Vergangenheit liegen. Falls diese Systeme mit funktionierenden Schnittstellen oder Datenbanken zur Gesichtserkennung ausgestattet werden und also die entsprechenden Personen identifiziert werden könnten, könnten sie den Systemoperator*innen auch eine kurze Auswertung derer Aktivitäten in den Sozialen Netzwerken oder daraus extrahierte Bewegungsprofile einblenden. Praktisch gesehen scheitert die Umsetzung entsprechender Systeme mittlerweile weniger an technischen als an regulatorischen Hürden.

»Perimeter Defence«: Einsatz in der Gebietsüberwachung

Industrieseitig waren an der zivilen Sicherheitsforschung bis 2017 v.a. Unternehmen aus der Rüstungsindustrie beteiligt, darunter unter den sieben laut »Security for Sale« größten privatwirtschaftlichen Nutznießern Thales, Finmeccanica (heute Leonardo), Airbus, Atos, Indra und EADS (EADS und Airbus wurden mittlerweile zusammengeführt und haben ihre Sensorik-Sparte als Hensoldt AG ausgegliedert). Thales bietet bereits seit vielen Jahren u.a. vollautomatische Flugabwehrsysteme für Kriegsschiffe an, die – sofern aktiviert – identifizierte Bedrohungen eigenständig bekämpfen. Außerdem bietet Thales (wie auch Airbus) bereits seit längerer Zeit Bodenradare an, die großflächige Gebiete überwachen und eigenständig Personen oder Fahrzeuge detektieren und aufgrund von Mustererkennung klassifizieren können. Entsprechende Systeme werden einerseits von der EU an ihren Außengrenzen eingesetzt, von der Bundesregierung aber auch teilweise kostenlos z.B. an nordafrikanische Staaten geliefert, damit diese ihre Außengrenzen besser kontrollieren. Auch die Bundeswehr in Mali setzt solche Systeme von Thales ein, um die Gebiete um ihre Stützpunkte zu überwachen.

Im benachbarten Niger wird ein weiterer Stützpunkt der Bundeswehr zukünftig mithilfe eines sogenannten »Aerostats«, eines Fesselballons, überwacht. Die Firma Rheinmetall, die diesen (für 21 Mio. €) nicht nur bereitstellt, sondern auch Betrieb und Ausbildung des Personals übernimmt, schreibt hierzu:

„Die Ballons können über lange Zeiträume in großer Höhe über dem zu schützenden Objekt schweben und mit ihren hochempfindlichen Sensoren gegnerische Objekte schon auf große Distanzen erkennen“ (Rheinmetall 2021). Solche Aerostats kamen auch in der Vergangenheit bereits z.B. zum Schutz deutscher Feldlager in Afghanistan zum Einsatz. Im Rahmen des Projekts AMFIS (Aufklärung und Überwachung mit Miniaturfluggeräten im Sensorverbund) hatte die Abteilung Interoperabilität und Assistenzsysteme des IOSB bereits vor über einem Jahrzehnt ein System zur Vernetzung solcher Aerostats mit kleinen Überwachungsdrohnen entwickelt und erprobt. AMFIS wird vom IOSB dem Bereich der zivilen Sicherheit zugeordnet, wobei als Ziel u.a. die „Überwachung von Szenen und Wegen“, „die Detektion, Lokalisierung und Identifikation von Personen und Fahrzeugen“ sowie die „Feststellung und Klassifikation auffälligen Verhaltens von Personen oder Fahrzeugen“ genannt werden (IOSB 2012 sowie IOSB 2021c). Eingesetzt – oder vielleicht eher werbend vorgeführt – wurde das System AMFIS – im konkreten Fall bestehend aus einem Verbund von Fesselballon und Quadrocoptern sowie vermutlich dem »Digitalen Lagetisch« des IOSB – u.a. 2011 bei einem kostenlosen Festival in Karlsruhe (Kalscheuer 2013). Das IOSB hatte dies mit einer Pressemitteilung unter dem Titel »Sie feiern und wir passen auf Sie auf« angekündigt.

Wenige Jahre später finanzierte die Europäische Verteidigungsagentur unter dem Akronym »EUROSwarm« ein nicht unähnliches Projekt für ein „optimales Sensor-Network-Design“. Das Szenario ging in diesem Fall davon aus, dass ein „hochwertiges Ziel“, z.B. „ein strategisch wichtiges Feldlager“ gegenüber einem „gut bewaffneten und starken“ Gegner gesichert werden müsse. Die Sicht um das Feldlager ist demnach durch Hügel und Vegetation eingeschränkt, weshalb die Sicherungskräfte um das Lager herum großflächig stationäre und mobile (bodengebundene) Sensoren anbringen. Diese seien zwar robust und könnten die Präsenz von Tieren, Menschen und Fahrzeugen detektieren, darüber hinaus jedoch keine ausreichende Situationseinschätzung vornehmen. Stattdessen alarmieren sie kleine Flugdrohnen, die weitgehend autonom ausschwärmen und einerseits den Sicherungskräften im Feldlager Bilder liefern, andererseits durch Informationsfusion auch zur Identifikation und Detektion verdächtigen Verhaltens beitragen sollen (Euroswarm 2021).

Während AMFIS und EUROSwarm militärisch unter dem Begriff der »Perimeter Defence« (Umgebungsverteidigung) eingeordnet werden können, also der Absicherung relativ überschaubarer und klar abgegrenzter Gebiete, wird auch unter »zivilen« Szenarien offen an einer deutlich weiträumigeren Überwachung geforscht und diese erprobt. Neben dem Schutz kritischer Infrastrukturen gilt dies insbesondere für den Grenzschutz, bei dem ebenfalls zunehmend Aerostats zum Einsatz kommen sollen. Frontex testet entsprechende Systeme mit einem Überwachungsradius von etwa 60km bereits seit 2019 an der türkisch-griechischen Seegrenze. Die Zeppeline des französischen Herstellers A-NSE sind mit Radar, optischen- und Wärmebildkameras sowie einem AIS-Sensor ausgestattet.3

Pseudo-Satelliten und ROI

Die „Überwachungslücke“ (Monroy 2021), die gegenwärtig noch zwischen Aerostats zur Perimeterverteidigung und zum Grenzschutz einerseits und der Satellitenüberwachung andererseits besteht, könnten zukünftig sogenannte Pseudo-Satelliten füllen, wie sie mit tatkräftiger und finanzieller Unterstützung der Europäischen Verteidigungsagentur und der Europäischen Weltraumbehörde (ESA) aktuell v.a. von Thales und Airbus entwickelt werden. Es handelt sich dabei um Leichtbau-Flugzeuge oder Zeppeline, die mithilfe von Solar-Panelen wochen- oder gar monatelang in der Stratosphäre operieren und sehr weiträumige Gebiete überwachen können. Während die grundsätzliche Aufgabendefinition sozusagen »am Boden« stattfindet, planen sie ihre konkrete Route weitgehend autonom, z.B. KI-gestützt in Abhängigkeit von den Wetterverhältnissen. Da die Sensorik und auch die Energie-/Übertragungskapazität im Verhältnis zur Fläche des überwachten Gebietes weiterhin begrenzt ist, ist wieder verstärkt mit einer Verarbeitung »onboard« zu rechnen. Dies soll u.a. in Form einer sogenannte ROI-basierten Verarbeitung erfolgen, wobei ROI für »Regions of Interest« steht. Das können kleinere Flächen sein, auf denen sich gegenüber vorangegangenen Aufnahmen z.B. bauliche Veränderungen zeigen oder auch Gebiete, die das System aufgrund anderer Merkmale als relevant markiert. Diese werden in höherer Auflösung erfasst und an die Bodenstation übermittelt. Der Zielkonflikt zwischen einer niedrig auflösenden Überwachung großer oder einer hochauflösenden Erfassung kleiner Gebiete wird damit in Teilen aufgehoben. Ein anschauliches Beispiel, wie Künstliche Intelligenz dazu beitragen kann, der Vision einer vollständigen Überwachung in nahezu Echtzeit näher zu kommen.

Rechnerarchitekturen

Bereits der frühen Literatur zur Bild­erkennung ist zu entnehmen, dass diese nie als reine Aufgabe von Software verstanden wurde. Obwohl z.B. in der frühen digitalen Fernerkundung auf Grundlage des Landsat-Programms zunächst die Hardware bestimmte, welche Daten überhaupt zur Verarbeitung zur Verfügung standen, hatten die hieraus entwickelten Algorithmen und Anwendungen Rückwirkungen auf die Architektur der Sensorik. Mittlerweile werden selbst in handelsüblicher Digitalkameras bereits vor der Speicherung der Bilder automatisch so viele Bearbeitungsschritte vorgenommen, dass Fotograf*innen bereits die zugespitzte Frage stellen, ob wirklich sie oder nicht eher die Hardware-Entwickler*innen das Urheberrecht für die geschossenen Bilder beanspruchen können.

Auch »am Boden« wurde parallel zur Software meist auch die Hardware weiterentwickelt oder zumindest nach besonders geeigneten Rechner- und Prozessorarchitekturen Ausschau gehalten. Joachim Wiesel etwa weist im Sammelband von Bähr von 1985 darauf hin, dass die klassische Von-Neumann-Architektur für die speziellen Anforderungen der (damaligen) Bildbearbeitung („meist einfache Operationen, diese jedoch an vielen Bildelementen auszuführen“ (Bähr 1985)) weniger geeignet sei, als Vektor- oder Pipeline-Architekturen, die im Anschluss nicht nur in diesem Anwendungsfeld wesentlich an Relevanz gewonnen haben. Auf der Homepage des von Karl Steinbuch gegründeten Instituts für Technik der Informationsverarbeitung heißt es zur Arbeit der Arbeitsgruppe für Bildverarbeitung: „Die mit der Ausgliederung dieser Forschungsgruppe einhergehenden Veränderungen ermöglichten den Ausbau des Bereichs Entwurfsautomatisierung. Die hergebrachte Schaltwerkstheorie lief allmählich aus, und die Arbeit konzentrierte sich eher auf hochintegrierte Schaltkreise“ (ITIV 2021). Im Nachruf des KIT auf deren Leiter Helmut Kazmierczak, der bei Steinbuch gelernt hatte und später das FIM leitete, heißt es zu dessen Wirkungsfeld: „Aus den Anfängen, in denen noch für die Bildauswertung spezialisierte Computersysteme und andere Hardware selber entwickelt wurden, bildete er zielstrebig das international anerkannte Forschungsinstitut für Informationsverarbeitung und Mustererkennung, eines der Fundamente des heutigen IOSB“ (IOSB 2020). Auch das IOSB ist bis heute – ausdrücklich natürlich im Rahmen seiner »Kernkompetenz Optronik« – weiterhin in der Hardware-Entwicklung tätig.

Entwicklungen in der Bionik für Geheimdienste und Cyberkrieg

Karl Steinbuch (ehemaliger Leiter des ITIV) selbst entwarf 1961 mit seiner Lernmatrix ein frühes Modell dessen, was heute als »Künstliche Neuronale Netzwerke« (KNN) bezeichnet wird. Vorgestellt wird sie in seinem Buch mit dem Titel »Automat und Mensch«, das mit einem Kapitel zur »Rationale[n] Analyse geistiger Vorgänge« beginnt und im anschließenden Unterkapitel »Signal und Nachricht« zunächst Aufbau und Funktion des menschlichen Sehens erläutert (Steinbuch 1965). Bis heute ist die Erforschung des Sehens von Säugetieren eng mit der Weiterentwicklung der KNN verbunden. Das zeigt sich u.a. am Projekt MICrONs (Machine Intelligence from Cortical Networks). Nach Angaben der Universität Tübingen geht es dabei darum, „das für das Sehen zuständige Hirnareal von Mäusen zu analysieren und Erkenntnisse auf technische Systeme zu übertragen, maßgeblich mit Methoden des Maschinellen Lernens“ (Marischka 2020a). Das Projekt wurde von der gemeinsamen Forschungsbehörde der US-Geheimdienste (IARPA) in Auftrag gegeben, die als explizite Aufgabenstellung das »Scene Parsing« formuliert, also die Zerlegung komplexer Szenerien in einzelne Gegenstände und Vorgänge. Insgesamt strebe man an, „das maschinelle Lernen durch ein reverse-engineering der Algorithmen im Gehirn zu revolutionieren“ (IARPA 2015).

Auch wenn die IARPA selbst von Anwendungsforschung für die Geheimdienstarbeit spricht (Office of the Director of National Intelligence 2015), haben die beteiligten Tübinger Wissenschaftler*innen vermutlich recht, wenn sie behaupten, es ginge um Grundlagenforschung. Tatsächlich will die IARPA in erster Linie erfahren, ob und welche Fortschritte von einer weiteren, am biologischen Modell orientierten Ausdifferenzierung von KNNs zu erwarten sind. Die konkreteren Anwendungen wie »Scene Parsing« gelten hier eher als Benchmarking bzw. Testanwendungen, weiterentwickeln und anwenden werden die entsprechenden Geheimdienstbehörden die Technologie jedoch vermutlich für die Auswertung von Big Data in verschiedensten Bereichen.

Welche Technologien dafür sonst noch im Rennen sind, kann man einer Präsentation zur noch im Aufbau befindlichen »Cyber-Agentur« der Bundesregierung entnehmen. Diese verfolgt laut ihrem Gründungsdirektor Christoph Igel (der zuvor am Deutschen Forschungszentrum Künstliche Intelligenz tätig war) das Ziel, ähnlich wie die IARPA, „Forschung [zu] stimulieren und [zu] koordinieren“: „Es geht um Forschungsfragen, die zum Beispiel das Bundeskriminalamt, die Bundespolizei, die Marine, die Luftwaffe haben könnten“ (Marischka 2020b). Als Beispiele für Handlungsfelder der Cyberagentur nennt der Bericht des Aufbaustabes „unter anderem die Quantentechnologie, Künstliche Intelligenz oder alternative Rechnerarchitekturen“. Als Themen und Kandidaten für Letzteres werden genannt: „Organische, DNA-basierte IT-Architektur“; „Miniaturisierte/Autarke Energieversorgung“; „Organisch-elektrochemische IT-Architektur“; „Neuromorphe und neuronale Architekturen“. Als konkreter Anwendungsbereich Künstlicher Intelligenz gilt hingegen die Cybersicherheit. Diesen hob die ehemalige Rüstungs-Staatssekretärin Katrin Suder bereits im Oktober 2018 in einem Interview mit der Zeitschrift Internationale Politik hervor: „KI lässt sich zum Beispiel als Tool einsetzen, um Cyberangriffe zu fahren oder sich dagegen zu verteidigen. KI kann Cyberangriffsmuster erkennen, und wer es schafft, die beste KI zu entwickeln, hat wiederum einen Verteidigungs- oder gar Angriffsvorteil“ (Suder 2018). Das Wettrüsten ist in vollem Gange – und Deutschland rüstet mit.

Anmerkungen

1) Diese nahm in den 1990er Jahren wiederum erhebliche Umstrukturierungen vor, aus denen letztlich drei Institute hervorgingen: Das Forschungsinstitut für Hochfrequenzphysik und Radartechnik (FHR) und das Forschungsinstitut für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE) – jeweils in Bonn – sowie das Forschungsinstitut für Optronik und Mustererkennung (FOM) in Ettlingen bei Karlsruhe.

2) Im Rahmen von WIMA2S ging es zwischen 2008 und 2011 darum, den Einsatz unbemannter Luftfahrzeuge für den Grenzschutz (und explizit auch Frontex) vorzubereiten

3) AIS ist ein (freiwilliges) automatisches Identifikationssignal im Schiffsverkehr, welches dessen Sicherheit sicherlich erhöht, allerdings von verschiedenen militärischen Behörden und zivilen Unternehmen genutzt wird, um Bewegungs- und Risikoprofile zu erstellen.

Literatur

Bähr, H.-P. (1985): Digitale Bildverarbeitung. Karls­ruhe: Wichmann.

Biermann K. und Fuchs C. (2017): 800.000 Euro für einen Terror-Airbag, der nie fertig wurde. DIE ZEIT, 23.02.2017.

Bundesministerium der Verteidigung (2012): Wehrwissenschaftliche Forschung Jahresbericht 2012 – Wehrwissenschaftliche Forschung für deutsche Streitkräfte.

Euroswarm (2021): Unmanned Heterogeneous Swarm of Sensor Platforms. aml.euroswarm.upatras.gr.

Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung (IOSB) (2012): Jahresbericht 2011/2012.

Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung (IOSB) (2018): Intelligente Videoüberwachung für mehr Privatsphäre und Datenschutz. Karlsruhe, 16.01.2018.

Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB (2020): Nachruf. Trauer um Prof. Dr.-Ing. Helmut Kazmierczak. Karlsruhe und Ettlingen. 03.12.2020.

Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung (IOSB) (2021a): Integrated Video Investigation Suite for Forensic Applications (ivisX). Projektwebsite.

Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung (IOSB) (2021b): RecceMan. Projektwebsite.

Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB (2021c): Aufklärung mit mobilen und ortsfesten Sensoren im Verbund (AMFIS). Projektwebsite.

Institut für Technik der Informationsverarbeitung (ITIV) (2021): Die Geschichte des ITIV. Website.

Intelligence Advanced Research Projects Activity (IARPA) (2015): MICrONS. Machine Intelligence from Cortical Networks. Forschungsprojektwebsite.

Kalscheuer B. (2013): Den Durchblick bewahren – Digitaler Lagetisch im Lagezentrum. Sicherheit.info, 11.04.2013.

Marischka C. (2020a): Cyber Valley, MPI und US-Geheimdienste. Ein militärisch-forschungsindustrieller Komplex? IMI-Studie 2020/03. 15.05.2020.

Marischka, C. (2020b): Ein diskreter Dammbruch der Rüstungsforschung. Das Corona-Konjunkturpaket dient auch der Stimulation staatsnaher und militärischer Forschung. IMI-Analyse 2020/32. 02.07.2020.

Monroy, M. (2021): Frontex closes surveillance gaps in the air and in space. Blogeintrag digit.site36.net, 16.08.2021.

Office of the director of national intelligence (2015): Machine Intelligence from Cortical Networks (MICrONS) Proposers’ Day Conference. Projektpräsentation.

Rheinmetall (2021): Pressemitteilung. Absicherung von Einsatzliegenschaften der Bundeswehr – „Fliegendes Auge“ von Rheinmetall soll Feldlager aus großer Höhe schützen – Auftrag über 21 Mio. EUR gewonnen. 25.08.2021.

Steinbuch K. (1965): Automat und Mensch, Berlin/Heidelberg: Springer.

Suder, K. (2018): ‚Es geht um den Kern von Sicherheit‘ – Die frühere Staatssekretärin Katrin Suder über Künstliche Intelligenz. Internationale Politik 4 (Juli-August 2018), S. 14-19.

Wissenschaftsrat (2007): Drucksache 7703-07. Stellungnahme zur Neustrukturierung der Forschungsgesellschaft für Angewandte Naturwissenschaften e.V. (FGAN).

Christoph Marischka ist Politikwissenschaftler und Mitglied im Vorstand der Informationsstelle Militarisierung. Seine Schwerpunkte dort sind u.a. die EU-Afrikapolitik und Technologiepolitik. In den vergangenen Jahren war er zudem im »Bündnis gegen das Cyber Valley« aktiv.

Mensch-Maschine

EU-Großprojekte zum Manned-Unmanned-Teaming

von Marius Pletsch

Wenn Soldat*innen mit Robotern, zusätzlichen Sensoren und unbemannten Luft- oder Landfahrzeugen während des Kampfgeschehens interagieren, wird das als »Manned-Unmanned-Teaming« (MUM-T) bezeichnet. Das amerikanische Verteidigungsministerium hat MUM-T im Jahr 2013 wie folgt definiert: MUM-T „kombiniert die inhärenten Stärken der bemannten Systeme mit den Stärken der UAS [unbemannten Luftfahrzeuge], wobei Produktsynergien entstehen, die bei einfachen Systemen nicht zu finden sind. MUM-T kombiniert Robotik, Sensorik, bemannte/unbemannte Fahrzeuge und zu Fuß operierende Soldat*innen, um ein verbessertes Lagebewusstsein, erhöhte Kampfkraft, verbesserte Überlebensfähigkeit und Unterstützung zu erreichen. Bei richtiger Konzeption erweitert MUM-T die Sensorabdeckung in Zeit und Raum und bietet zusätzliche Möglichkeiten zur Erfassung und Bekämpfung von Zielen“ (Department of Defense 2013, S. 139). Ziele des MUM-T sind dabei im Wesentlichen, die Reichweite von Sensoren und Waffen zu erweitern, die Risiken für die eigenen Soldat*innen zu reduzieren und eine verbesserte Früherkennung von möglichen Gefahren (Paul und Brämer 2013, S. 34). MUM-T kann in allen Teilstreitkräften genutzt werden und entsprechende Systeme werden aktuell in zahlreichen Forschungsprojekten entwickelt und erprobt. Am Boden können z.B. Infanteriesoldat*innen auf Informationen von sie umgebenden unbemannten Systemen zurückgreifen und diesen Systemen Zielgebiete vorgeben, in denen diese operieren sollen. Die Soldat*innen können von weitestgehend autonomen Fahrzeugen begleitet werden, die Lasten, Verwundete oder ­schwerere Bewaffnung tragen können. In der Luft werden bemannte Kampfflugzeuge begleitet von Drohnen, denen Aufgaben zugewiesen werden können, z.B. ein unsicheres Gebiet vor ihnen aufzuklären und zu sichern, also mögliche Gefahren für das Flugzeug mit Pilot*in, wie Radarstationen oder Flugabwehrstellungen, zu zerstören. Zu Wasser können Kriegsschiffe oder U-Boote durch unbemannte Wasser- oder Luftfahrzeuge begleitet werden, die in einem bestimmten Radius um das Schiff oder U-Boot agieren.

Mehr KI in der Bundeswehr?

Das Positionspapier zur Anwendung künstlicher Intelligenz (KI) in den Landstreitkräften schildert ein solches Zukunftsszenario:

Soldat*innen der Bundeswehr sind im Auslandseinsatz und »schützen« ein Umspannwerk. Sie scheinen noch nicht alle Herzen und Köpfe gewonnen zu haben und ihre Netzwerke werden von Hacker*innen attackiert und auch mit Drohnen angegriffen. Deshalb sollen Kräfte des Bataillons »taktisches Unbemanntes Luftsystem« (TaUAS) eingreifen. Dieses besteht aus vier Zügen mit je 5.000 Drohnen unterschiedlicher Bauart und Größe. Die Drohnen werden aus mehreren Transportflugzeugen heraus gestartet. Sie formieren sich zu Schwärmen, um verschiedene Aufgaben auszuführen: „Mehrere hundert Sensor-UAS [sind] mit hochauflösenden Kameras ausgestattet. Andere Schwärme wiederum haben die Aufgabe, gegnerische Drohnen zu stören oder dienen als Relais zur Kommunikation der eigenen UAS. Andere sind mit kleinsten Wirkmitteln zum Angriff gegnerischer Sensorik und zur Markierung bzw. Verfolgung von Zielen ausgestattet und zudem in der Lage, eine verlegefähige UAS-Sperre zu bilden“ (Amt für Heeresentwicklung 2019, S. 4). Mit Hilfe von KI werden „gegnerische Kräfte […] hoch automatisch klassifiziert und in Bezug auf die gegnerische Gefechtsgliederung zugeordnet“ (Ebd., S. 5).

Im Szenario wird eine enorme Zahl von Drohnen eingesetzt – im Verlauf des Szenarios kommen noch der zweite und dritte Zug zur Unterstützung hinzu, womit sich die Zahl auf 15.000 unbemannte Luftfahrzeuge addiert. Diese enorme Menge zu koordinieren, würde einen enormen Personalaufwand erfordern, weshalb stärker auf Technologien wie die KI gesetzt wird. Im Szenario bewegen sich die Drohnen entsprechend in Schwärmen. Sie werden nicht mühsam per Fernbedienung gesteuert, sondern es werden für diese jeweils Zielgebiete und Aufgaben definiert. Zur KI heißt es in dem Strategiepapier: „Das zuverlässige automatische Ausführen von Teilaufträgen erfordert eine KI, die den gesamten (automatischen) OODA-Zyklus zur Führung der UAS inklusive einer Verbundwirkung zwischen UAS (Schwarm) sowie MUM-T sicherstellt“ (Ebd., S. 23). Der OODA Zyklus ist ein (militärisches) Modell zur Entscheidungsfindung, das sich aus folgenden Elementen zusammensetzt: Beobachten (observe), Orientieren (orient), Entscheiden (decide) und Handeln (act).

Risiken und Nebenwirkungen

Zu den (möglichen) Folgen solcher Szenarien und Entwicklungen gehört eine zunehmende Datenflut, welche die Soldat*innen im Einsatz entweder direkt auf einem eigenen Display, z.B. in Form eines Tablets oder einer Augmented-Reality-Brille oder auch per Sprachausgabe erreichen kann. Wenn sie Kontrolle über die unbemannten Systeme haben und diese nicht von anderen gesteuert oder automatisiert/autonom Missionsziele definieren und abarbeiten, müssen die Kräfte im Feld Entscheidungen darüber treffen, wo die Systeme benötigt werden und welche Aufgaben sie ausführen sollen. Wie genau die Systeme kontrolliert und gesteuert werden ist daher von enormer Bedeutung, da die (zusätzliche) Arbeitsbelastung ebenso wie die erwünschte „Kampfwertsteigerung“ von der technischen Umsetzung abhängen. Entscheidungen müssen kontinuierlich evaluiert und, wenn nötig, erneuert werden: Soll die Drohne die Position wechseln, um das Zielgebiet besser in den Blick nehmen zu können? Sollen Drohnen das Handynetz stören, um die Kommunikation des Gegners (und infolgedessen auch die der Zivilbevölkerung) zu erschweren? Soll das unbemannte geschützte Fahrzeug anrollen, um Deckung zu bieten, Ziele anzugreifen oder eine schnelle Möglichkeit zum Rückzug zu bieten? Je nach Level der Interoperabilität (siehe Infokasten) müssen diese Eingaben und/oder der Empfang der Daten direkt erfolgen oder vermittelt. Je nach Level und Umsetzung der Möglichkeit des Datenempfangs und der Dateneingabe können jedoch auch „visuelle Überlastung, erhöhte Arbeitsbelastung und Aufgabensättigung, Ablenkung und verringertes Situationsbewusstsein im Flug, Bewegungskrankheit und räumliche Des­orientierung“ (Gaydos und Curry 2014, S. 1231) bei den Soldat*innen auftreten. Damit wäre der erhoffte Vorteil ad absurdum geführt.

INFOKASTEN:

Um zwischen Stufen der Interoperabilität – also den Modi der Steuerung unbemenschter Systeme, bzw. der Steuerung der Sensoren und dem Empfang der Sensordaten durch das Bedienpersonal – differenzieren zu können, wurden diese innerhalb der NATO standardisiert.

STANAG 4586 unterscheidet 5 Level (NATO Standardization Agency 2007):
Level 1: Indirekter Empfang / Übertragung von UAV-bezogenen Daten und ­Metadaten.
Level 2: Direkter Empfang / Übertragung von UAV-bezogenen Daten und ­Metadaten.
Level 3: Steuerung und Überwachung der UAV-Nutzlast, nicht der Einheit.
Level 4: Steuerung und Überwachung der UAV ohne Start und Rückholung.
Level 5: Steuerung und Überwachung der UAV einschließlich Start- und ­Landevorgang.

Erheblicher noch sind die Risiken für die globale Stabilität, da durch die derzeit forcierten Projekte, die stark auf das MUM-T setzen, ein risikoreduziertes Einsetzen der eigenen Streitkräfte erreicht werden soll, indem z.B. die gegnerische Luftabwehr ausgeschaltet oder überlastet wird. So werden schnelle militärische Schläge auf z.B. kritische Infrastrukturen möglich, die so in der Abwägung leichter zu wählen sind und gleichzeitig auch schnell eskalieren können.

Forschungsprojekte, Konzepte und Tests

Ein frühes Projekt zum MUM-T wurde 2002 von der Defense Advanced Re­search Projects Agency (DARPA), der Rüstungsforschungsagentur des US-Verteidigungsministeriums, gemeinsam mit dem US-Heer in Angriff genommen. Entwickelt werden sollte ein unbemannter bewaffneter Kampfhubschrauber (UCAR) mit einem hohen Autonomiegrad. Unter Führung der großen Rüstungskonzerne Boeing, Northrop Grumman, Lockheed Martin und Sikorsky sollten vier Industriegruppen Prototypen bauen, um das zu entwickelnde System bis 2012 in die Streitkräfte einführen zu können (Woodbury 2014). Das Projekt wurde allerdings bereits 2004 eingestellt, mit der offiziellen Begründung, dass der Finanzierungsbedarf bei Flugzeugen gestiegen und deshalb eine finanzielle Umsetzung des Projekts nicht länger möglich sei. Tatsächlich war wohl auch schnell absehbar, dass sich der benötigte Grad an Autonomie so schnell nicht umsetzen ließe (Strenzke et al. 2011, S. 2).

Auch die Bundeswehr forscht schon seit einigen Jahren zu MUM-T. Beauftragt wurden etwa die Elektroniksystem- und Logistik-GmbH (ESG), die Universität der Bundeswehr München (UniBwM) und das Zentrum für Luft- und Raumfahrt, um gemeinsam herauszufinden, wie die Bundeswehr von der Zusammenarbeit bemannter Hubschrauber (insbesondere CH-52, NH-90 und dem Kampfhubschrauber TIGER) und unbemannter Systeme profitieren könnte (Paul und Brämer 2013, S. 34). Die Autoren eines Aufsatzes über das Projekt sahen v.a. folgende Aufgaben für das unbemannte System, in diesem Falle ebenfalls eine Helikopterdrohne: Sie solle vorausfliegen und Informationen zu „Feinden, Hindernissen und Wetter“ sammeln, „gefährliche Aufgaben ausführen, wie als Kundschafter, Effektor [z.B. durch Waffenwirkung] oder zur Zielmarkierung“. Außerdem solle die Drohne „ein Relay für die Kommunikation zur Verfügung stellen“ oder „Transportaufgaben ausführen“ (Paul und Brämer 2013, S. 35). Um die Drohne(n) zu steuern, wurden verschiedene Ansätze untersucht und erprobt. Eine Steuerung könnte durch den Missionskommandeur direkt im Cockpit erfolgen oder durch Operateure direkt neben ihm im Helikopter, um eine schnelle Kommunikation zu ermöglichen. Der erste Ansatz wurde durch die Integration der Steuerung ins Cockpit des Kampfhubschraubers TIGER erprobt, der zweite durch den Einbau einer Steuerungseinheit in den Laderaum eines Hubschraubers des Typs Bell UH-1D, von wo aus die Drohnen bedient werden sollten. Für eine Steuerung aus dem Cockpit müsste deutlich stärker auf Autonomie gesetzt werden: Um das Personal nicht zu überfordern, müsste die Drohne sich selbst steuern und den eigenen Status überprüfen können. Das realisierbare Level der Interoperabilität in dem beschriebenen Projekt ist entsprechend Stufe 3 (siehe Kasten), bei dem Kontrolle nur über die »Payload« besteht, also z.B. eingebaute Kamera(s) und andere Sensoren, Laser zur Zielmarkierung oder eine eigene Bewaffnung (Paul und Brämer 2013, S. 36-39).

Schwächen sahen die Autoren damals noch bei der Mensch-Maschine-Schnittstelle, da es zu Verwirrungen kam. So meldete bei einem Test mit der zweiten Variante (ein Drohnenoperateur im Helikopter neben dem Missionskommandeur) diejenige Person, welche die Drohne steuerte und die Videoübertragung sah, einen anderen Helikopter im Gebiet – das Problem: der gemeldete Helikopter war der, in dem der Drohnenoperateur selbst saß (Paul und Brämer 2013, S. 39f.). In neueren Flugtests von 2018 flogen die beiden Systeme auf unterschiedlichen Höhen, um solche Probleme zu vermeiden und Unfälle zu verhindern. Auch hier wurde wieder über die Optionen einer Kontrollstation in dem Helikopter oder die Integration der Steuerung ins Cockpit nachgedacht. Langfristig konnten sich die Autoren der Studie vorstellen, dass der Helikopterdrohne lediglich abstrakte Aufgaben gegeben werden und auch die Analyse der Bilddaten und Fehlerkorrekturen im Kurs automatisch erfolgen, ohne direkte Überwachung durch eine Person (Mehling, Viertler und Paul 2018, S. 6).

Umsetzung: Europäische Großprojekte

Doch MUM-T ist längst kein abstraktes Forschungsprinzip mehr. Das »Multipurpose Unmanned Ground System« ist ein modulares unbemanntes Kettenfahrzeug, das im Zuge der »Ständigen Strukturierten Zusammenarbeit« der Europäischen Union (PESCO) entwickelt wird. Die Führungsnation bei dem Projekt ist Estland, mit dabei sind aber auch Belgien, Tschechien, Finnland, Frankreich, Deutschland, Ungarn, Lettland, Niederlande, Polen und Spanien. Im Europäischen Programms zur industriellen Entwicklung im Verteidigungsbereich der EU (EDIDP) der EU-Kommission sind für das Projekt 30,6 Mio. € vorgesehen (European Commission 2019, S. 3f.) – plus Gelder aus den nationalen Haushalten. Es haben sich folgende Unternehmen gemeinsam auf die Mittel aus diesem Budget beworben: Milrem Robotics, GT Cyber Technologies, Safran Electronics & Defense, NEXTER Systems, Krauss-Maffei Wegmann, Diehl Defence, Bittium Wireless, Insta DefSec, (Un)Manned, dotOcean, Latvijas Mobilais Telefons, GMV Aerospace and Defence, die Estnische Militärakademie und die Königliche Militärakademie aus Belgien (BusinessWire 2019).

Auch in zwei großen europäischen Rüstungsprojekten soll das Konzept des MUM-T zur Anwendung kommen. Zum einen soll es Teil des »Next Generation Weapons System« sein, dem bemannten Kampfflugzeug, das Frankreich, Deutschland und Spanien gemeinsam produzieren wollen und das frühestens 2040 in Dienst gestellt werden soll. Begleitet werden soll das Kampfflugzeug von Drohnen, darunter der »Remote Carrier«, der hauptsächlich von Airbus entwickelt werden soll. Airbus hat bereits 2018 MUM-T Tests mit fünf Do-DT 25 Zieldarstellungdrohnen und einem Learjet, worin das Cockpit eines Tornados eingebaut wurde, über der Ostsee durchgeführt (Monroy 2018). Dabei wurden u.a. der Formationsflug, das Ausweichen vor einer simulierten Bedrohung, simulierte Aufklärung bei einer Geo-Koordinate und die Kompensation einer im Flug ausgefallenen Drohne getestet. Eine Änderung der Mission musste von Piloten freigegeben werden, ansonsten flogen die Drohnen automatisiert (Drucksache 19/5433, S. 5). Miteinander verbunden sein sollen die verschiedenen Systeme im zukünftigen Luftkampfsystem, im Englischen »Future Combat Air System« (FCAS) genannt. Darin sollen auch z.B. der Eurofighter und die bewaffnete Eurodrohne, die frühestens 2025 integriert werden soll, ständig miteinander Daten austauschen können.

Zum anderen wird derzeit ein neuer Kampfpanzer geplant: das »Main Ground Combat System« (MGCS). Der Panzer soll auch hier nicht ohne unbemannte Begleitung auskommen. Bei dem Projekt hat Deutschland die Führungsrolle übernommen. Frankreich ist mit an Bord, u.a. Spanien und Polen hätten an einer Mitwirkung auch Interesse, aber gerade auf der französischen Seite ist man skeptisch, das Projekt für viele Staaten zu öffnen. Kaufen sollen sie das MGCS natürlich dennoch gerne. Von der Industrie umgesetzt werden soll das Projekt von der Holdinggesellschaft KNDS, an der Nexter einen Anteil von 50 Prozent hält während auf Krauss-Maffei Wegmann und Rheinmetall je 25 Prozent Anteil entfallen (­Friese und Schubert 2019).

MUM-T als Teil der Rückbesinnung auf Großmachtkonflikte

Gerade die beiden zuletzt vorgestellten europäischen Großprojekte zeigen, dass man sich wieder vermehrt für Großmachtkonflikte (China und Russland) rüstet, in denen z.B. die gegnerische Luftverteidigung durch Drohnen, welche die bemannten Flugzeuge begleiten, gestört oder ausgeschaltet werden soll. Dabei ist der Druck groß, die unbemannten Systeme mit einem hohen Autonomiegrad auszustatten, um eine Überlastung des Bedienpersonals in den bemannten Systemen zu vermeiden und um auch weniger störanfällig zu sein, indem Kommunikations- und Datenverbindungen reduziert werden sollen. Inwiefern in solchen Szenarien – wenn der Schritt zu Autonomie in Teilsystemen bereits getan ist – eine bedeutsame menschliche Kontrolle überhaupt noch möglich ist, bleibt dabei fraglich.

Literatur

Amt für Heeresentwicklung (2019): Künstliche Intelligenz in den Landstreitkräften.

BusinessWire (2019): Milrem: Leading European Defence Companies Submit a Project for an Unmanned Ground System to the European Commission, 24.9.2019.

Department of Defense (2013), Unmanned Systems Integrated Roadmap FY2013-2038.

Drucksache 19/5433 – Antwort der Bundesregierung auf die Kleine Anfrage der Abgeordneten Andrej Hunko, Heike Hänsel, Michel Brandt, weiterer Abgeordneter und der Fraktion DIE LINKE. – Drucksache 19/4715 – Drohnen-Schwärme in Waffensystemen der Bundeswehr.

European Commission (2019): Commission Implementing Decision of 19.3.2019 on the financing of the European Defence Industrial Development Programme and the adoption of the work programme for the years 2019 and 2020, 19.3.2019.

Friese, U.; Schubert, C. (2019): Nukleus für einen europäischen Panzerkonzern. FAZ, 14.10.2019.

Gaydos, S. J.; Curry, I. P. (2014): Manned-Unmanned Teaming: Explaining the Envelope of UAS Operational Employment. In: Aviation, Space, and Environmental Medicine 85 (12).

Mehling, T.; Viertler, F. und Paul, T. (2018): Potential of the Unmanned Wingman in Manned-Unmanned Teaming Tested in Flight.

Monroy, M. (2018): Airbus arbeitet an tödlichem Drohnenschwarm, Telepolis, 18.9.2018.

NATO Standardization Agency (NSA): Standard Interfaces of UAV Control System (UCS) for NATO UAV Interoperability. Edition 2.5. 2007. STANAG 4586.

Paul, T.; Brämer, E. (2013): Operational Considerations for Teaming Manned and Unmanned Helicopter. In: Journal of Intelligent & Robotic Systems 69.

Strenzke, R. et al. (2011): Managing Cockpit Crew Excess Task Load in Military Manned-Unmanned Teaming Missions by Dual-Mode Cognitive Automation Approaches. Conference Paper from: AIAA Guidance, Navigation, and Control Conference, 8-11.8.2011, Portland, Oregon.

Woodbury, D. (ARC.AIAA.org, 2014): DARPA/Army Unmanned Combat Armed Rotorcraft (UCAR) Program. Slideshow from AIAA International Air and Space Symposium and Exposition: The Next 100 Years, 14-17.7.2003, Dayton, Ohio.

Marius Pletsch ist Redaktionsmitglied von »Wissenschaft und Frieden«, Beirat der Informationsstelle Militarisierung und seit 2019 Mitglied im Bundessprecher*innenkreis der Deutschen Friedensgesellschaft – Vereinigte Kriegsdienstgegner*innen (DFG-VK).

Future Combat Air System

Künstliche Intelligenz fliegt und kämpft mit

von Hans-Jörg Kreowski und Aaron Lye

Beim Future Combat Air System (FCAS) handelt es sich um ein gigantomanisches europäisches Rüstungsprojekt, das seit der Unterzeichnung eines gemeinsamen Investitionsplans im September 2021 von Deutschland, Frankreich und Spanien auf den Weg gebracht wird und dessen Kosten voraussichtlich im dreistelligen Milliardenbereich liegen werden.

Verbundsystem FCAS

Das FCAS soll ein Verbundsystem mehrerer Luftkampfeinheiten werden, bei dem die Künstliche Intelligenz (KI) eine zentrale Rolle spielen soll. Die Hauptkomponente ist ein neues Kampfflugzeug (»Next Generation Fighter«, NGF), das ab 2040 die Eurofighter und die französischen Rafale ablösen soll. Das Projekt umfasst aber weit mehr. Es soll ein System von Systemen werden, ein sogenanntes »Next Generation Weapon System« (NGWS) bei dem Kampfjets zusammen mit Schwärmen von autonomen Lenkflugkörpern und bewaffneten und unbewaffneten Drohnenschwärmen in einer Weise eingesetzt werden sollen, die Europa dem Plan gemäß in allen Teilen der Welt die Überlegenheit im Luftkampf sichern soll (Renn 2021). Wenn Europa die weltweite Überlegenheit im Luftkampf anstrebt, dann stellt sich die Frage, welche Luftkämpfe Europa gegen wen zukünftig führen will.

Es geht aber nicht nur um kämpferische Überlegenheit. Das FCAS gilt als Kernprojekt bei den deutsch-französischen Bestrebungen, einen von ihnen dominierten europäischen Rüstungskomplex aufzubauen (vgl. Wagner 2021). Der erste Beschluss zur Entwicklung dieses gemeinsamen europäischen Luftverteidigungssystems der nächsten Generation wurde im Sommer 2017 von Bundeskanzlerin Angela Merkel und Präsident Emmanuel Macron gefasst. Schon seit 2001 betrieben die Staaten Europas erste Studien zur Entwicklung neuer Kampfflugzeuge im europäischen Staatenverbund. Das FCAS ist nun also das offizielle Ende einer langjährigen Planung für den europäischen Rüstungskomplex. Offiziell ist neben Deutschland und Frankreich auch Spanien beteiligt, allerdings sind es vor allem deutsche und französische Rüstungsfirmen, die die Komponenten herstellen sollen.

Sieben Säulen

Kampfsysteme werden in Generationen aufgeteilt. Signifikante Neuerungen, die zu einer kämpferischen Überlegenheit führen, zeichnen eine neue Generation aus. Die Eurofighter und Rafale werden zur 4. Generation gezählt. Die F-22 und F-35 sind Beispiele für Kampfflugzeuge der 5. Generation. Kampfflugzeuge dieser Generation unterschieden sich zur vorherigen Generation durch Stealth (Tarnung), Supercruise (ohne Nachbrenner lange Strecken mit Überschallgeschwindigkeit fliegen) sowie durch Vernetzung der Systeme. Die 6. Generation soll sich Planungen gemäß vor allem durch optionale Bemannung, hochsensible Sensorik und Teaming auszeichnen (Vogel 2020).

Teaming, genauer Manned-Unmanned-Teaming (MUM-T), bezeichnet die Interaktion von Soldat*innen mit Robotern und unbemannten Systemen während des Kampfgeschehens, z.B. die Zusammenarbeit von bemannten Flugzeugen mit autonomen Drohnen. Laut dem US-amerikanischen Verteidigungsministerium kombiniert MUM-T „die inhärenten Stärken der bemannten Systeme mit den Stärken der UAS [Unmanned Aireal Systems], wobei Produktsynergien entstehen, die bei einfachen Systemen nicht zu finden sind. MUM-T kombiniert Robotik, Sensorik, bemannte/unbemannte Fahrzeuge und (…) operierende Soldaten, um ein verbessertes Lagebewusstsein, erhöhte Kampfkraft, verbesserte Überlebensfähigkeit und Unterstützung zu erreichen“ (Department of Defense 2013, S. 139. Siehe dazu auch Pletsch 2020; Nachdruck in diesem Dossier).

Da auch die Fähigkeiten der 5. Generation Bestandteil der 6. Generation sein werden und verbessert werden sollen, besteht die Entwicklung des FCAS deshalb im Wesentlichen aus sieben Säulen (Vogel 2020), wobei wir im Folgenden auf die Säulen 1, 3, 4 und 6 genauer eingehen.

(1) »Next Generation Fighter« (das neue Kampfflugzeug an sich)
(2) Triebwerke
(3) »Remote Carrier« (Drohnen) und Schwarmtechnologie
(4) »Air Combat Cloud«
(5) Simulation
(6) »Distributed Sensor System« (Sensorik)
(7) »Stealth« (Tarnungstechnologie)

Die Konzerne Airbus und Dassault Aviation haben sich als nationale Industrieführer für Deutschland und Frankreich auf eine weitreichende transnationale Industriekooperation geeinigt, um dieses Projekt gemeinsam zu leiten. Dassault Aviation soll dabei die Entwicklung des NGF leiten mit Airbus Defence and ­Space als Hauptpartner. Airbus wiederum ist zusammen mit dem Hauptpartner MBDA für die »Remote Carriers« (RC) und mit Thales für die »System-of-Systems /Air Combat Cloud« (SoS/ACC) zuständig. FCMS (ein Konsortium bestehend aus Hensoldt, Diehl, ESG, Rohde & Schwarz), Indra und Thales wurden mit der Entwicklung der Sensoren, die das FCAS ausstatten sollen, beauftragt.

Säule 1: Next Generation Fighter

Einer Studie der Informationsstelle Militarisierung (IMI) nach ist bei dem zukünftigen Kampfjet davon auszugehen, dass dieser nicht nur über eine »Stealth«- und »Supercruise«-Fähigkeit verfügen wird, sondern auch atomwaffenfähig sein dürfte (Wagner 2021). Denn Frankreich will, um das Prinzip der sogenannten »nuklearen Abschreckung« aufrecht zu erhalten, auch atomwaffenfähige Kampfflugzeuge besitzen (Hanke 2021).

MUM-T ist der Auftragsbeschreibung nach eine wesentliche Anforderung an das FCAS. Insbesondere sollen die unbemannten Systeme von einem bemannten Flugzeug aus zu steuern sein (»Command-and-Control«, was weiter unten ausgeführt wird). Das stellt bestimmte Bedingungen an die Entwicklung des NGF. Allerdings ist derzeit sogar nicht einmal ausgeschlossen, dass der NGF selbst unbemannt sein könnte. Dies würde das Gesamtsystem unbemannt machen, da die Begleitsysteme in jedem Fall unbemannt sein sollen.

Hochsensible Sensorik ist außerdem elementare Anforderung an die Überwachungssysteme des NGF (mehr dazu unten).

Säule 3: Remote Carrier

Die »Remote Carrier« (RC) sind in der Planung ein anderer Begriff für bewaffnete Drohnen. Sie sollen autonom handeln, sich als Schwärme formieren und gemeinsam operieren können. Letzteres wird als »Swarming« bezeichnet. Im Rahmen der Entwicklung des FCAS demonstrierte Airbus schon im Jahr 2018 die Möglichkeiten des MUM-T mit fünf von dem Unternehmen gebauten Remote Carrier des Typs Do-DT 25, die autonom agierten und von einem Piloten befehligt wurden, der sich in einem bemannten Führungsflugzeug (Learjet) in der Luft befand (Airbus 2018). Die Tests beinhalteten Formationsflüge, das Ausweichen vor einer simulierten Bedrohung, simulierte Aufklärung und die Kompensation einer im Flug ausgefallenen Drohne.

Um »Teaming« und »Swarming« zu realisieren, sind mehrere Fähigkeiten und Techniken erforderlich, so unter anderem Teaming-/Swarming-Algorithmen, neue Sensoren, oder Missionsmanagementsysteme für die Führungsunterstützung durch die Besatzung des bemannten Flugzeugs. Das von Airbus bisher entwickelte Flugmanagementsystem für unbemannte Luftfahrzeuge kombiniert schon heute vollautomatische Lenkung und Navigation mit Schwarmfähigkeiten.

Die Idee ist, dass RCs im FCAS sowohl als Sensoren für Aufklärungszwecke als auch als Effektoren (d.h. Waffenträger) fungieren, da sie diverse Nutzlasten tragen können. Dazu gehören Ausrüstung für Informationsgewinnung, Überwachung und Aufklärung (ISR) sowie kinetische (z.B. explosive) und nichtkinetische (z.B. elektromagnetische) Waffen. RCs werden gemäß den Planungen wohl eine Vielzahl von Aufgaben unterstützen und durchführen, darunter Luft-Luft-Kampf, Zielerfassung und -aufklärung, luftgestützter elektronischer Angriff. Die Klasse der RCs ist keine Bezeichnung für einen einheitlichen Drohnentyp. Hier ist stattdessen von einer Familie von Luftobjekten die Rede, deren Größe und Fähigkeitsprofile stark schwanken können – von einigen hundert Kilogramm bei den entbehrlichen Drohnen (expendable UAVs, z.B. Coyote) bis zu mehreren Tonnen bei den anspruchsvolleren Loyal-Wingman-­Typen.

Die Überlegungen zur den RCs und ihrem Einsatz im FCAS deuten eine Transformation zu neuen militärischen Taktiken an, die zum einen auf kooperativem Kampf vieler einzelner autonomer Systeme und zum anderen auf dem Einsatz von Täuschung und zahlenmäßiger Überlegenheit beruhen. Ziel scheint es hier zu sein, den Gegner möglichst großflächig zu stören oder durch zahlenmäßige Übermacht zu überwältigen. Wenn die Planungen in die Realität umgesetzt werden, versprechen sie dem Militär vor allem auch eine verbesserte Effizienz, indem sichergestellt wird, dass die für einen bestimmten Einsatz erforderliche Mischung der Fähigkeiten auch zielgenau zur Verfügung steht. Zudem könnte das System die Risiken für den Einsatz menschlicher Kampfeinheiten reduzieren, da die bemannten Einheiten in sicherer Entfernung bleiben könnten, während die RCs konkret die Front bilden (Airbus 2020a). Diese Argumentation des Drohneneinsatzes zum Schutz der Soldat*innen im Kampfeinsatz spielte schon in den vergangenen Jahren bei der Anschaffungsdebatte zu bewaffneten Drohnen in Deutschland eine zunehmend größere Rolle. Sollten sich die erwartbaren Fähigkeiten der RCs realisieren, würde diese Diskussion sicherlich verstärkt geführt werden.

Säule 4: Air Combat Cloud

Um den geschützten Austausch von Daten zwischen NGF, RCs und anderen Systemen zu gewährleisten und so die einzelnen Kampfmittel miteinander zu verbinden, ist der dritte elementare Bestandteil des FCAS eine Netzwerkplattform, die »Air Combat Cloud« (ACC) genannt und von Airbus und Thales gemeinsam entwickelt wird (Airbus 2020b). Beide Unternehmen haben ein breites Spektrum an Produkten in den Bereichen Kampf- und Missionsflugzeuge (einschließlich Entwicklung und Integration von Missions- und Waffensystemen), Raumfahrtsysteme und kollaborative Kommunikations-, Aufklärungs- und Überwachungssysteme.

Die ACC soll alle Flugsysteme verbinden, um die Verarbeitung und Verteilung von Informationen nahezu in Echtzeit zu ermöglichen. Die dafür wesentliche Infrastruktur stellen Satelliten im Weltraum dar – insbesondere Satelliten in niedriger Erdumlaufbahn, welche die Hochgeschwindigkeitsdatenübertragung zwischen den Systemen ermöglichen. Des Weiteren wird in den Planungsunterlagen für FCAS der Zugang zu satellitengestütztem Bildmaterial nahezu in Echtzeit für die Lageeinschätzung als Ziel benannt. Naheliegend ist deshalb auch die geplante neue Satellitengeneration für Informationserfassung, Satellitenaufnahmen und Kommunikationsübertragung.

Säule 6: Distributed Sensor System

Die Erfassung von Daten von einem Luftfahrzeug aus ist wesentlich für militärische Aufklärung und Entscheidungsprozesse. Überwachungsflugzeuge verwenden eine Reihe von Sensoren (z. B. Radar, Kameras für unterschiedliche Wellenlängen, Empfänger für elektro­magnetische Wellen etc.), um die Umgebung über Live-Streaming-Video, Audio und aufgezeichnete Daten zu überwachen. Zahlreiche technologische Fortschritte haben in den letzten zehn Jahren zu raschen Fortschritten bei der Luftüberwachungshardware beigetragen, z. B. vorwärtsgerichtete Infrarotgeräte und hochauflösende Kameras.

Um immer mehr und genauere Daten zu erfassen, ist hochsensible Sensorik eine elementare Anforderung an die Überwachungssysteme. Die Entwicklung der Sensorsäule ist laut Thales von entscheidender Bedeutung. „Die Überlegenheit des FCAS wird weitgehend von der Fähigkeit seines Sensornetzes abhängen, mehr und bessere Informationen zu sammeln als der Gegner“, heißt es (Thales 2020).

Darüber hinaus werden die Daten aus unterschiedlichen Quellen zusammengetragen (Sensorfusion). Weitergedacht für eine verteiltes System bedeutet es Daten über Flugobjekte hinweg bereitzustellen und zusammenzutragen (data fusion and distribution). Das Projekt umfasst daher die Entwicklung einer vernetzten und verteilten Architektur von Sensoren, den Entwurf zukünftiger Sensorarchitekturen und die Entwicklung der zugehörigen Sensortechnologien. Diese verteilte Sensorarchitektur wird in der FCAS-Konzeption die von der ACC bereitgestellte Infrastruktur nutzen, um die Sensordaten auszutauschen.

Was hat das mit Künstlicher Intelligenz zu tun?

Das FCAS gilt als wichtiger Schritt zur KI-Automatisierung des Krieges. Die Aufgaben der vier Säulen 1, 3, 4 und 6, die mit Team- und Schwarmbildung sowie mit Fusion und Verteilung umfangreicher Sensordaten charakterisiert sind, hängen nach Auffassung der Projektbetreiber stark von Entwicklungen in der KI ab. Das lässt sich sehr gut ablesen an dem von den Senator*innen Ronan Le Gleut und Hélène Conway-Mouret am 15. Juli 2020 dem Französischen Senat vorgelegten Informationsbericht im Namen des Ausschusses für auswärtige Angelegenheiten, Verteidigung und Streitkräfte über das Luftkampfsystem der Zukunft (Future Combat Air System, FCAS) (Le Gleut und Conway-Mouret 2020). Der Bericht ist ohne Anhang 84 Seiten lang und nach einer kurzen Zusammenfassung in drei Hauptteile gegliedert, in denen es um die politischen. industriellen und technologischen Bedingungen des FCAS-Kooperationsprojekts geht, mit starker Betonung der erwünschten »strategischen Autonomie Europas«.

In dem Bericht werden dazu 14 Vorschläge gemacht und erläutert, wobei sich der fünfte Vorschlag ausdrücklich um KI dreht: „Die künstliche Intelligenz ist als „transversale Säule“ des FCAS zu betrachten, die mit einem möglichst breiten Anwendungsbereich entwickelt werden muss. Wiederaufnahme der internationalen Diskussionen über Letale Autonome Waffensysteme (LAWS), um einen klaren Rechtsrahmen im Einklang mit der Ethik und den Grundsätzen des humanitären Völkerrechts zu erreichen” (Le Gleut und Conway-Mouret 2020, S. 6). Dieser Vorschlag wird auf den Berichtsseiten 50 bis 55 näher ausgeführt. Bemerkenswert in den Ausführungen zum Vorschlag ist, dass von den Autor*innen ausführlich auf die Problematik eingegangen wird, die der Einsatz tödlicher autonomer Waffensysteme hinsichtlich des Kriegsvölkerrechts mit sich bringt. Dabei ist aber als Rechtsrahmen keineswegs an ein Verbot solcher Waffen gedacht, sondern an ihre Sanktionierung. In der Auseinandersetzung mit dieser Frage wird ausdrücklich auf eine Rede der französischen Verteidigungsministerin Florence Parly am 5. April 2019 im DATA IA Institute in Saclay verwiesen, in der sie die neue französische Strategie zu Künstlicher Intelligenz und Verteidigung vorstellte. Sie führte dabei aus: „Frankreich weigert sich, die Entscheidung über Leben oder Tod einer Maschine anzuvertrauen, die völlig autonom handeln und sich jeder menschlichen Kontrolle entziehen würde. (…) Wir werden künstliche Intelligenz für die Verteidigung nach drei Hauptprinzipien entwickeln: Einhaltung des Völkerrechts, Aufrechterhaltung einer ausreichenden menschlichen Kontrolle und Dauerhaftigkeit der Befehlsverantwortung“ (ebenda, S. 53).

Gleichzeitig vertraut die Ministerin ihrer Rede nach zu urteilen aber auch auf KI als Helferin im Krieg: „Ich möchte zum Beispiel die Verhältnismäßigkeit von Reaktion, Diskriminierung zwischen Kombattant*innen und Nichtkombattant*innen und die Minimierung von Kollateralschäden anführen. Die künstliche Intelligenz wird keine dieser Linien verschieben. Im Gegenteil, die künstliche Intelligenz wird uns ermöglichen, sie in den Konflikten von morgen weiterhin einzuhalten“ (ebenda, S. 53).

Die Ministerin wird auch zitiert mit dem Hinweis auf die Anfälligkeit von KI-Systemen: „Die Manipulation der Lerndaten, die kognitiven Voreingenommenheiten, die von Menschen auf Algorithmen übertragen werden, Systeme, die durch ein einfaches Stück Klebeband desorientiert und fehlerhaft werden, Systeme, die aus der Ferne gehackt werden können: die Risikofaktoren, die wir von der Entwurfsphase an bewerten und kontrollieren müssen, sind extrem zahlreich“ (ebenda, S. 53/4). Das wird allerdings mit einem lapidaren Satz abgetan: “Diese realen Schwierigkeiten könnten jedoch bis 2040 weitgehend überwunden sein” (ebenda, S. 54).

Neben den ethischen und juristischen Aspekten geht der Bericht auch auf die technischen Herausforderungen ein. Dazu heißt es in dem Bericht: „Die Künstliche Intelligenz (KI) wird für die Leistung des FCAS von wesentlicher Bedeutung sein. Sie ist ein virtueller Assistent für den Piloten, der ihm bei seiner Entscheidung helfen kann, indem er die wichtigsten Informationen von den Sensoren sortiert, um eine Sättigung zu vermeiden und den Kampfstress zu verringern. Die KI wird auch die automatische Generierung von Missionsplänen, die Anpassung der Sensoren an das Gelände und die vorausschauende Wartung ermöglichen. Auch im Bereich der Zusammenarbeit zwischen Drohnen wird sie eine Rolle spielen. Die KI spielt somit eine wesentliche Rolle sowohl innerhalb des NGF als auch für die Remote Carriers” (ebenda, S. 36).

Der in der Studie erwähnte virtuelle Assistent wird im Projekt unter dem Acronym ASTARTES entwickelt. ASTARTES steht für »Air Superiority Tactical Assistance Real Time Execution System«. Die Beschreibung des Ziels für diese Komponente bleibt abstrakt. Bisher ist lediglich die Rede davon, menschliche Erfahrungen zu digitalisieren, um die Operator*innen in Taktik zu unterstützen.

In dem Senatsbericht wird auch das Konzept des Mensch-Maschinen-Teamings (MUM-T) noch näher beleuchtet. Ansonsten bleibt der Bericht bezüglich der erforderlichen KI-Entwicklungen und des dabei erreichten Stands eher vage. Es drängt sich der Eindruck auf, dass in dieser Frage bisher wenig Klarheit besteht und vieles Zukunftsmusik ist. Auf jeden Fall lässt sich festhalten, dass KI als die Querschnittstechnologie gesehen wird, ohne die FCAS undenkbar ist.

In welche Richtung gedacht wird, zeigt das Positionspapier zur Anwendung Künstlicher Intelligenz in den Landstreitkräften der Bundeswehr (Amt für Heeresentwicklung 2019). In einem geschilderten Zukunftsszenario für das Bataillon »taktisches Unbemanntes Luftsystem« (TaUAS) wird eine Situation erdacht, in der bis zu 15.000 autonome unbemannte Luftfahrzeuge unterschiedlicher Bauart und Größe sich zu Schwärmen formieren, um verschiedene Aufgaben auszuführen (vgl. Amt für Heeresentwicklung 2019 und Pletsch 2020, Nachdruck in diesem Dossier).

Fazit

Mit FCAS soll in den nächsten knapp 20 Jahren in Europa ein Rüstungsprojekt umgesetzt werden, das die Überlegenheit im Luftkrieg in allen Teilen der Welt verspricht. Das ist Deutschland, Frankreich und Spanien 100 Mrd. € wert allein für die Entwicklung und wohl ein Mehrfaches davon für Anschaffung und Betrieb. Als methodisches und technologisches Kernstück des FCAS ist die Künstliche Intelligenz auserkoren, wobei bisher noch ziemlich unklar bleibt, woran im Einzelnen gedacht ist und ob KI-Methoden überhaupt greifen. So orientieren sich die Konzepte der Schwarmintelligenz an dem Vorbild von Ameisenkolonien, Bienenschwärmen u.ä. Ob sich aber Schwärme von Drohnen für ihre tödlichen Missionen entsprechend modellieren lassen, ist völlig ungeklärt.

Für die Formationsflüge, das Ausweichen vor einer simulierten Bedrohung, simulierte Aufklärung und die Kompensation einer im Flug ausgefallenen Drohne, aber auch für die Interpretation der anfallenden Daten in dem verteilten Sensornetz, ist maschinelles Lernen von besonderer Bedeutung. Maschinelles Lernen beruht auf angewandter Wahrscheinlichkeitstheorie und lässt sich dementsprechend einsetzen, wenn eine große Fallzahl zum Trainieren des Systems verfügbar ist oder durch Simulation generiert werden kann und wenn die Regeln dessen, was gelernt werden soll, bekannt sind. Bei Spielen wie Schach und Go trifft das zu. Die Regeln des Luftkampfes stehen jedoch in keinem Buch und die Fallzahlen von realen Luftkämpfen sind wohl eher klein. Die Anwendbarkeit des maschinellen Lernens für Luftkampfsysteme ist also äußerst zweifelhaft.

Ganz ähnlich muss man das für autonome und teilautonome (Killer-)Roboter im Rahmen von FCAS einschätzen. Es ist schwer vorstellbar, dass derartige Systeme kriegstauglich gebaut und unter Wahrung des humanen Völkerrechts eingesetzt werden können. Solche inneren Widersprüche werden das Projekt aber nicht aufhalten. Umso wichtiger ist es für die Zivilgesellschaft, die Entwicklung mit großer Aufmerksamkeit zu verfolgen und einen wirkungsvollen Widerstand aufzubauen. Das FCAS muss verhindert werden, weil es pure Geldverschwendung ist, weil es die Rüstungsspirale massiv weiterdreht, weil es politisch größenwahnsinnig ist und weil es – im Hinblick auf die Thematik dieses Dossiers – für das Gebiet der Künstlichen Intelligenz eine katastrophale Fehlentwicklung darstellt.

Literatur

Airbus (2018): Airbus demonstrates manned-unmanned teaming for future air combat systems. Website. 02.10.2018.

Airbus (2020a): Manned-Unmanned Teaming and Remote Carriers: transcending individual assets’ capabilities. 08.10.2020.

Airbus (2020b): Airbus and Thales join forces to develop the Air Combat Cloud for Future Combat Air System. Website, 19.02.2020.

Amt für Heeresentwicklung (2019): Künstliche Intelligenz in den Landstreitkräften: Ein Positionspapier des Amts für Heeresentwicklung.

Department of Defense (2013): Unmanned Systems Integrated Roadmap FY2013-2038.

Hanke, T. (2021): Europas größtes Rüstungsprojekt steckt in der Krise, NZZ, 03.03.2021.

Le Gleut, R.; Conway-Mouret, H. (2020): Informationsbericht Nr. 642 Senat Sondersitzung 2019-2020. Ausgestellt im Namen des Ausschusses für auswärtige Angelegenheiten, Verteidigung und Streitkräfte (1) über das Luftkampfsystem der Zukunft (Future Combat Air System, FCAS).

Pletsch, M. (2020): Mensch-Maschine: EU Großprojekte zum Manned-Unmanned-Teaming. IMI-Analyse 2020/11, 16.03.2020.

Renn, U. (2021): Unbemannte Helfer: Zur Bedeutung der Remote Carrier im Future Combat Air System. In: Europäische Sicherheit und Technik 4-2021, S. 38-42.

Thales (2020): Green light for FCMS, Indra and Thales to start designing the sensors that will contribute to NGWS/FCAS superiority. Website, 23.11.2020.

Vogel, D. (2020): Future Combat Air System: To Big to Fail. SWP-Aktuell. Nr. 98. Dezember 2020.

Wagner, J. (2021): Future Combat Air System: Das größte Rüstungsprojekt Europas. IMI-Studie 2021/4b. 13.07.2021.

Hans-Jörg Kreowski ist Professor (i.R.) für theoretische Informatik an der Universität Bremen und Mitglied im Vorstand des Forums InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF) und der Zeitschrift Wissenschaft und Frieden.
Aaron Lye ist Informatiker, Doktorand an der Universität Bremen und seit 2013 Mitglied im Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF).