in Wissenschaft & Frieden 2018-4: Kriegsführung 4.0

zurück vor

Kriegsführung 4.0

Ethische und rechtliche Implikationen

von Daniele Amoroso und Guglielmo Tamburrini

Dieser Beitrag gibt einen kurzen Überblick über die Bemühungen der Internationalen Staatengemeinsschaft, sich mit den ethischen und völkerrechtlichen Fragen auseinanderzusetzen, die durch neue destabilisierende Militärtechnologien aufgeworfen werden.

Dieser Text legt den Fokus auf drei Technologien, die die Konturen der Kriegsführung radikal neu zeichnen: bewaffnete Drohnen, Cyberwaffen und autonome Waffensysteme.

Kriegsführung mit Drohnen

Drohnenangriffe werden überwiegend im Kontext gezielter Tötungen eingesetzt und fallen unter das allgemeine Völkerrechtsregime bezüglich gezielter Tötungen (Melzer 2008). Dieses Regime unterscheidet Tötungen, die im Rahmen bewaffneter Konflikte stattfinden, von solchen, auf die das nicht zutrifft.

Im ersten Fall sind gezielte Tötungen dann legal, wenn die Prinzipien der Unterscheidung (zwischen militärischen und zivilen Zielen), der Verhältnismäßigkeit und der Vorsichtsmaßnahmen gemäß dem Humanitärem Völkerrecht (jus in bello) eingehalten werden. Im letzteren Fall sind gezielte Tötungen als Strafverfolgungsmaßnahmen zu behandeln; diese verletzen das Recht des Menschen auf Leben, außer andere Maßnahmen (wie die Gefangennahme) sind aufgrund einer unmittelbar bevorstehenden und ernsthaften Bedrohung nicht gangbar (Alston 2010).

Diese klaren Linien werden von Staaten, die Angriffe mit Drohnen ausführen, häufig verwischt. In den Vereinigten Staaten wird der globale »Kampf gegen den Terror« unzulässigerweise als bewaffneter Konflikt ausgelegt; dadurch fällt die Tötung von Terrorverdächtigen en bloc unter das weniger restriktive Regime des Humanitären Völkerrechts (Cullen 2017, S. 117-120). Außerdem sind Drohnenschläge meistens gegen unbekannte verdächtige Militante gerichtet, die auf der Basis von Verhaltensmustern ausgewählt werden, die auf ihre Beteiligung an terroristischen Aktivitäten schließen lassen. Diese »signature strikes« basieren auf Kriterien, die nicht notwendigerweise mit denen übereinstimmen, die gemäß Völkerrecht einen Einsatz tödlicher Gewalt rechtfertigen (Heller 2013).

Diese besorgniserregenden Entwicklungen verzerren die Interpretation und Anwendung eines Rechtsregimes, das bei korrekter Anwendung adäquate Regelungen für die Drohnenkriegsführung bietet. Es ist wichtig festzuhalten, dass die internationalen Einwände gegen Drohnenprogramme mehrheitlich als Aufruf formuliert sind, sich an das »lex lata«, also das geltende Recht zu halten, und seltener für die Annahme neuer Rechtsnormen plädiert wird (siehe z.B. Alston 2010; European Parliament 2014; Heyns 2014, Abs. 139-140; UNHCR 2014; Council of Europe (2014).

Mit Blick auf die Nichtverbreitung ist zu erwähnen, dass bereits etliche wichtige multilaterale Regime existieren, die den Handel mit Rüstungsgütern und die Exportkontrolle regulieren, entweder explizit (Raketentechnologie-Kontrollregime, Wassenaar Abkommen, Gemeinsamer Standpunkt der EU zu Rüstungsexporten von 2008) oder implizit (der 2013 geschlossene Vertrag über Waffenhandel, siehe Stohl/Dick 2018). Darüber hinaus wurde 2016 von den USA eine multilaterale Initiative gestartet, die sich speziell mit der Proliferation bewaffneter Drohnen auseinandersetzt. Der »Gemeinsame[n] Erklärung zum Export und der anschließenden Verwendung von bewaffneten oder bewaffnungsfähigen Drohnen« schlossen sich bereits 53 Staaten an (siehe dazu Bundestag 2018; d. Übers.). Einige dieser Instrumente sind zwar lediglich politisch bindend (darunter die Gemeinsame Erklärung von 2016), sie signalisieren aber alle eine Verpflichtung der internationalen Gemeinschaft, den Transfer bewaffneter Drohnen an terroristische Gruppierungen und repressive Regime zu unterbinden. Dennoch könnte die Möglichkeit der zivil-militärischen Nutzung (Dual-use-Problematik) nichtmilitärischer Drohnentechnologie eine effektive Kontrolle behindern. Um tatsächlich eine nicht erwünschte Nutzung zu vermeiden, sind daher weitere multilaterale Anstrengungen nötig (Zwijnenburg/van Hoorn 2015, S. 32).

Kriegsführung mit Cyberwaffen

Für die Verfasser*innen der Genfer Konventionen und ihrer Zusatzprotokolle war die Cyberkriegsführung unvorhergesehen (und unvorhersehbar)“, das verhindert aber nicht ihre Anwendung auf Cyberoperationen (Solis 2016, S. 702). Dieser Ansatz wird im »Tallinn-Handbuch zur Anwendbarkeit des Völkerrechts auf Cyberoperationen«, welches kürzlich in der zweiten Auflage erschien und unter der Schirmherrschaft des NATO Exzellenzzentrums für gemeinsame Cyberabwehr ausgearbeitet wurde, unterstrichen (Schmitt 2017). Mit den 154 »Regeln« des Handbuchs wird versucht, das gesamte traditionelle Völkerrecht mit möglichst sparsamen Anpassungen auf die Cyberdomäne zu übertragen.

In dem Handbuch werden einige neuartige Eigenschaften von Cyberkonflikten offenkundig heruntergespielt, wie im Falle der »Virtualität« des Cyberraums, bei der insbesondere auf den territorialen Zusammenhang mit der Cyberinfrastruktur abgehoben wird (siehe insbesondere die Souveränitätsregeln 1-5), oder wenn der Begriff »Cyberangriffe« auf Cyberoperationen mit potentiell zerstörerischen Auswirkungen in der »physischen“ Welt beschränkt wird (z.B. „Verletzung oder Tod von Personen oder Beschädigung oder Zerstörung von Objekten“; Regel 92 und der zugehörige Kommentar). Nach Einschätzung u.a. des Internationalen Komitees des Roten Kreuzes (IKRK, engl. ICRC) ist die letztere Definition so eng gefasst, dass sie die Notwendigkeit, Zivilisten vor böswilligen Cyberoperationen zu schützen, die »lediglich« zur Löschung oder Veränderung von Daten führen, gar nicht abdeckt (ICRC 2015, S. 43). Dazu ist anzumerken, dass auch Datenverlust oder -fälschung ein »physikalisches« Ereignis ist, selbst wenn es auf Computersysteme und -netzwerke begrenzt ist.

Ein innovativerer Ansatz wurde kürzlich vom Präsidenten und Chefjuristen von Microsoft, Bradford Smith, vorgestellt, der die Staaten dazu aufrief, eine Art »Digitaler Genfer Konvention« zu verhandeln, mit speziellen Normen, die multinationale und globale Hightech-Unternehmen gegen staatliche Cyberattacken schützen, diese aber auch damit beauftragen würden, Zivilisten bei Maßnahmen gegen solche Angriffe zu unterstützen (Smith 2017). Der Vorschlag von Smith sieht auch die Schaffung einer internationalen Organisation vor, lose angelehnt an die Internationale Atomenergieagentur (IAEA), der „technologisch versierte Experten aus Regierungen, dem privaten Sektor, der Wissenschaft und der Zivilgesellschaft“ angehören sollen. Diese Agentur soll „über die Fähigkeit verfügen, spezifische Angriffe zu untersuchen und Material zur Verfügung zu stellen, das beweist, dass ein Angriff von einem bestimmten Nationalstaat durchgeführt wurde“ (Smith 2017). Dieser Punkt berührt das kritische »Attributionsproblem« in der Cyberkriegsführung. Die technische Möglichkeit, einen Angriff zu starten und sich dabei als ein anderer Staat oder eine andere Organisation auszugeben (spoofing), wirft in der Tat Fragen der Beweisführung auf, die mit der aus dem traditionellen Völkerrecht abgeleiteten Verantwortung nur schwer zu beantworten sind. Aus diesem Grund ist die Bekräftigung der klassischen Attributionskriterien (Regeln 15-18) im Tallinn-Handbuch zwar formal korrekt, aber kaum geeignet, ein Schlupfloch zu schließen, welches die Möglichkeit zur Reaktion auf eine rechtswidrige Cyberoperation zu unterminieren droht.

Angesichts dieser Herausforderungen ist es bedauerlich, dass die diesbezüglichen staatlichen Initiativen inzwischen festgefahren sind. So konnte sich die UN-Gruppe von Regierungsexperten (Group of Governmental Experts, GGE), die 2016-2017 tagte, nicht auf einen Konsensbericht einigen, da es bei der Frage der Anwendbarkeit der Prinzipien des »ius ad bellum« (Recht auf Krieg) und des »jus in bello« (Recht im Krieg) auf böswillige Cyberoperationen drastische Meinungsunterschiede gab, weil manche Staaten befürchten, damit würde eine destabilisierende »Militarisierung« des digitalen Raumes gefördert (Sukumar 2017).

Kriegsführung mit autonomen Systemen

Seit 2017 trifft sich eine andere Gruppe von Regierungsexperten, hoffentlich mit mehr Erfolg. Nach mehreren informellen Treffen 2014-2016 entschieden die Mitgliedsstaaten des VN-Waffenübereinkommens (Convention on Certain Conventional Weapons, CCW), eine offene Expertengruppe einzusetzen mit dem Mandat, „mögliche Empfehlungen für Optionen“ zur Frage der tödlichen autonomen Waffensysteme (Lethal Autonomous Weapons Sytems, LAWS) zu erkunden. Das IKRK definiert LAWS als „Waffen, die unabhängig Ziele auswählen und angreifen können, d.h. mit Autonomie in den »kritischen Funktionen« des Aufspürens, Verfolgens, Auswählens und Angreifens von Zielen“ (ICRC 2014 S. 5; für eine Analyse der Definitionen von LAWS siehe auch Amoroso et al. 2018, S. 19-22). Da die Neuartigkeit in der „Technik der Zielauswahl“ (Egeland 2016 S. 97) liegt und nicht in dem Waffensystem per se, ist Autonomie ein Merkmal, dass im Prinzip in jegliche Waffensysteme eingebaut werden kann, auch in bewaffnete Drohnen oder Cyberwaffen.

Die öffentliche Aufmerksamkeit wurde durch die Kampagne »Stop Killer Robots« auf die ethischen und rechtlichen Implikationen einer autonomen Zielauswahl gelenkt. Die Kampagne wurde 2013 von einer internationalen Koalition von Nichtregierungsorganisationen mit dem primären Ziel gestartet, „letale Roboterwaffen zu ächten“ (Stop Killer Robots 2013). Im gleichen Jahr stellte Christof Heyns, der damalige Sonderberichterstatter der Vereinten Nationen zu außergerichtlichen, summarischen oder willkürlichen Hinrichtungen, einen Bericht über LAWS vor, der die weiteren akademischen und diplomatischen Debatten stark prägte. Heyns benannte präzise die zentralen Probleme (Heyns 2013):

1. Die Einhaltung des Rechts hinsichtlich der Zielauswahl (insbesondere der Prinzipien der Unterscheidung und der Verhältnismäßigkeit) würde Fähigkeiten voraussetzen, über die nur der Mensch verfügt, nämlich die Fähigkeit zur Lageerkennung und zur Formulierung qualitativer Urteile (Abs. 63-74).

2. Mit der Herausnahme menschlichen Bedienpersonals aus dem Entscheidungsprozess würde Autonomie in Waffensystemen im Falle von Verstößen die Zuschreibung von Verantwortung behindern (Abs. 75-81).

3. Der Einsatz letaler autonomer Waffensysteme wäre ein Affront gegen die Menschenwürde, die vorschreibt, dass es Menschen vorbehalten sein sollte, einem Menschen das Leben zu nehmen (Abs. 89-97).

4. Autonomie in Waffensystemen könnte schädliche Konsequenzen für die Welt haben, weil es einfacher wird, Krieg zu führen (Abs. 57-62).

Die ersten Diskussionen der Expertengruppe zeigten den Dissens zwischen jenen, die den bestehenden rechtlichen Rahmen für ausreichend halten, um diese Probleme zu klären, und jenen, die sich für die Verabschiedung neuer Regeln einsetzen, sei es in Form von Ad-hoc-Regeln oder eines vollständigen Verbots von LAWS. Über die Jahre hat sich ein Konsens für die Idee herausgebildet, wonach alle Waffen (einschließlich LAWS) einer »bedeutsamen menschlichen Kontrolle« (meaningful human control) unterliegen sollten. Diese Formulierung war von der Nichtregierungsorganisation »Artikel 36« eingeführt worden. Das Konzept der bedeutsamen menschlichen Kontrolle könnte als »Brücke« fungieren, um den Graben zwischen den verschiedenen Positionen innerhalb der Expertengruppe zu schließen. Schließlich ergibt sich die Forderung nach bedeutsamer menschlicher Kontrolle aus dem bestehenden Rechtsrahmen, allerdings bedarf es einer neuen völkerrechtlichen Regelung, um die Details auszuformulieren und zu operationalisieren. Auch ein Zusatzprotokoll zum VN-Waffenübereinkommen, das die bedeutsame menschliche Kontrolle über Waffensysteme vorschreibt, wäre denkbar, das zugleich als ein „Verbot der vollständigen Autonomie über bestimmte (kritische) Funktionen eines Waffensystems“ zählt (Bhuta/Beck/Geiss 2016, S. 381). Daher wird dem Konzept der bedeutsamen menschlichen Kontrolle allgemein das Potenzial zugeschrieben, die Verhandlungen nach vorne zu bringen und ein (hoffentlich völkerrechtlich verbindliches) Instrument zu gestalten, welches im Rahmen des VN-Waffenübereinkommens Zustimmung findet.

Aber was macht menschliche Kontrolle über Waffensysteme tatsächlich »bedeutsam«? Dieser wesentliche Punkt ist weiterhin umstritten. Unsere Arbeitshypothese lautet, dass sich der Streit nicht mit einem definitorischen Patentrezept lösen lässt. Vielmehr wird ein prinzipieller, aber angemessen differenzierter Ansatz benötigt (für eine erste Darstellung siehe Amoroso/Tamurrini 2017, S. 13-14). Die ethischen und völkerrechtlichen Prinzipien, die den Weg zu einem hinreichend präzisen und restriktiven Verständnis der bedeutsamen menschlichen Kontrolle weisen, wurden oben bereits beschrieben. Nichtsdesto­trotz muss die Anwendung dieser Prinzipien in konkreten Situationen durch geeignete Regelsätze unterstützt werden. Entsprechende »Wenn-dann«-Regeln müssen die Entscheidung der involvierten Menschen leiten, ob im jeweiligen Kontext Bedingungen für die Ausübung einer wirklich bedeutsamen menschlichen Kontrolle über Waffensysteme vorliegen. Der »Wenn«-Teil dieser Regeln sollte folgende Faktoren für einen vorgesehenen Angriff berücksichtigen: Zeitfenster, Zielmodus, defensive oder offensive Einsatzziele, die Art des Einsatzes (gegen Menschen oder gegen Objekte), dynamische Umgebungsmerkmale und allgemeine Kalkulierbarkeit.

Mit Erwägungen auf der Basis von »Wenn-dann«-Regeln zu diesen und weiteren Faktoren sollte man in der Lage sein abzuschätzen, welche Art von bedeutsamer menschlicher Kontrolle bei jedem einzelnen Einsatz eines Waffensystems aus juristischer Sicht erforderlich wäre. Des Weiteren ist zu bedenken, ob und gegebenenfalls welche Handlungen Haftungsfragen nach sich ziehen würden, sollte die Entscheidung für eine bestimmte bedeutsame menschliche Kontrollaktion nicht rechtmäßig sein (Einsatz, Planung, Fehler bei der Ablehnung oder Autorisierung eines Ziels). In einem solchen rechtlichen Rahmen wäre die verbliebene Autonomie von Waffensystemen, so der Begriff dann überhaupt noch zutrifft, befreit von den problematischen ethischen und rechtlichen Aspekten bezüglich der vom Menschen unkontrollierten Zielauswahl und Angriffszwecke.

Die „Zehn mögliche[n] leitende[n] Prinzipien für aufkommende Technologien im Zeitalter letaler autonomer Waffensysteme“, die von der UN-Expertengruppe bei ihrem letzten Treffen (27.-31. August 2018) beschlossen wurden, gehen zaghaft in diese Richtung. Von besonderem Interesse für unser Thema sind das zweite Prinzip, welches postuliert, „Menschliche Verantwortung für Entscheidungen über den Einsatz tödlicher Gewalt muss erhalten bleiben“, und das dritte Prinzip, welches festlegt, dass Rechenschaftspflicht u.a. durch eine „verantwortliche Kommando- und Kontroll-Kette“ sichergestellt sein muss. Diese Prinzipien bleiben erkennbar sehr vage. Ob sie geeignet sind, den Grundstein für eine effektive Verrechtlichung letaler automatischer Waffen zu legen, hängt letztlich davon ab, ob weitere, detailliertere »Wenn-dann«-Regeln angenommen werden.

Schlussfolgerungen

Christopher Greenwood, der gegen Ende des letzten Jahrtausends über das Waffenrecht schrieb, lobte die Fähigkeit der bestehenden Normen, die Herausforderungen durch neue Militärtechnologie zu adressieren, und setzte daher die Priorität für das bevorstehende Jahrhundert nicht auf die „Verabschiedung neuer völkerrechtlicher Normen“, sondern auf „die effektive Umsetzung der Normen, die wir bereits haben“ (Greenwood 1998, S. 221-222). Dies lässt sich durch die hier durchgeführte Analyse nur in Teilen bestätigen.

Die Einhaltung des »lex lata«, des bestehenden Rechts, ist ein guter Startpunkt, um die ethischen und rechtlichen Implikationen neuer Technologien zu adressieren. Das trifft auf jeden Fall bei bewaffneten Drohnen zu. Manchmal aber sind Änderungen des Völkerrechts nötig, um mit Problemen Schritt zu halten, die sich neu ergeben, wie die Attribution von Cyberangriffen oder die Notwendigkeit, die bedeutsame menschliche Kontrolle von Waffensystemen zu konkretisieren. Auf der Grundlage des völkerrechtlichen Erbes der Vergangenheit dafür kreative und angemessene Lösungen zu finden, ist vielleicht die wichtigste Herausforderung, vor der die Völkergemeinschaft steht.

Literatur

Alston, P. (2010): Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions. Study on targeted killings. UN-Dokument A/HRC/14/24/Add.6. vom 28.5.2010.
In Auszügen ist eine deutsche Übersetzung des »Bericht[s] des Sonderberichterstatters über außergerichtliche, summarische oder willkürliche Hinrichtungen, Philip Alston, Addendum: Studie über gezielte Tötungen« erschienen in W&F 1-2011, S. 17-21. Die Übersetzung wurde vom Deutschen Übersetzungsdienst der Vereinten Nationen angefertigt und steht in voller Länge inkl. sämtlicher Fußnoten auf un.org/depts/german/de/menschenrechte.html [d. Übers.].

Amoroso, D.; Tamburrini, G. (2017): The Ethical and Legal Case Against Autonomy in Weapons Systems. Global Jurist, S. 1-20.

Amoroso D., Sauer, F., Sharkey, N., Suchman, L. and Tamurrini, G. (2018): Autonomy in Weapon Systems – The Military Application of Artificial Intelligence as a Litmus Test for Germany’s New Foreign and Security Policy. Grossbeeren: Heinrich Böll Foundation.

Cullen, A. (2017): The characterization of remote warfare under international humanitarian law. In: Ohlin, J.D. (ed.): Research Handbook on Remote Warfare. Cheltenham/Northampton: Edward Elgar, S. 110-132.

Deutscher Bundestag (2018): Antwort der Bundesregierung auf die Kleine Anfrage der Abgeordneten Andrej Hunko, Michel Brandt, Ulla Jelpke, weiterer Abgeordneter und der Fraktion DIE LINKE. – Drucksache 19/1406 – Internationale Regulierung bewaffneter oder bewaffnungsfähiger Drohnen. Bundestags-Drucksache 19/1988 vom 4.5.2018.

Council of Europe, Parliamentary Assembly (2015): Drones and targeted killings – the need to uphold human rights and international law. Resolution 2051 (2015), 23.4.2015.

Egeland, K. (2016): Lethal Autonomous Weapon Systems under International Humanitarian Law. Nordic Journal of International Law, Vol. 85, S. 89-118.

European Parliament (2014): Resolution on the use of armed drones. 27.2.2014, Dokumentnr. 2014/2567(RSP). Deutsche Fassung »Entschließung des Europäischen Parlaments zum Einsatz von bewaffneten Drohnen« unter europaparl.europa.eu [d. Übers.]

Greenwood, C. (1998): The Law of Weaponry at the Start of the New Millennium. In: Schmitt, M.; Green, L.C., (eds.): The Law of Armed Conflict – Into the Next Millenium. Rhode Island: US Naval War College, S. 185-232.

Heller, K.J. (2013): One Hell of a Killing Machine -Signature Strikes and International Law. Journal of International Criminal Justice, Vol. 11, Issue 1, S. 89-119.

Heyns, C. (2013): Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions. UN-Dokument A/HRC/23/47 vom 9.4.2013.

Heyns, C. (2014): Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions. UN-Dokument A/HRC/26/36 vom 1.4.2014.

International Committee of the Red Cross and Red Crescent/ICRC (2014): Autonomous weapon systems – Technical, military, legal and humanitarian aspects. Expert meeting, Geneva, Switzerland, 26-28.3.2014.

International Committee of the Red Cross and Red Crescent/ICRC (2015): International humanitarian law and the challenges of contemporary armed conflicts. Report 32IC/15/11 for the 32nd International Conference of the Red Cross and the Red Crescent, Geneva, Switzerland, 8.-10.12.2015.

Melzer, N. (2008): Targeted Killing in International Law. New York: Oxford University Press.

Schmitt, M.N. (ed.) (2017): Tallinn Manual 2.0 on the International Law Applicable to Cyber Operations. New York: Cambridge University Press.

Smith, B. (2017): The need for a Digital Geneva Convention. Keynote Address at the RSA Conference 2017, 14.2.2017); blogs.microsoft.com/on-the-issues/2017/02/14/need-digital-­geneva-convention.

Solis, G. (2016): The Law of Armed Conflict – International Humanitarian Law in War. New York: Cambridge University Press.

Stohl, R. and Dick, S. (2018): The Arms Trade Treaty and Drones. Washington: Stimson Center

Stop Killer Robots (2013): Urgent Action Needed to Ban Fully Autonomous Weapons – Non-governmental organizations convene to launch Campaign to Stop Killer Robots. 30.5.2013). Siehe »Launch Statement« auf stopkillerrobots.org. Die Kampagne betreibt unter killer-­roboter-stoppen.de auch eine deutsche Website [d. Übers.].

Sukumar, A.M. (2017): The UN GGE Failed – Is International Law in Cyberspace Doomed As Well? Lawfare, 4.7.2017.

UN Human Rights Council/UNHCR (2014): Ensuring use of remotely piloted aircraft or armed drones in counterterrorism and military operations in accordance with international law, including international human rights and humanitarian law. UN-Dokument A/HRC/RES/25/22 vom 15.4.2014.

Zwijnenburg, W.; van Hoorn, K. (2015): Unmanned & Uncontrolled – Proliferation of unmanned systems and the need for improved arms export controls. PAX.

Daniele Amoroso ist Professor für Völkerrecht an der Universität von Cagliari, Italien.
Guglielmo Tamburrini ist Professor für Wissenschafts- und Technikphilosophie an der Universität Frederico II von Neapel, Italien.

Aus dem Englischen übersetzt von Marius Pletsch.

in Wissenschaft & Frieden 2018-4: Kriegsführung 4.0

zurück vor