W&F 2014/3

Autonome Waffensysteme

Staatenkonferenz, 13.-16. Mai 2014, Genf

von Frank Sauer und Jürgen Altmann

Autonome Waffensysteme – von ihren GegnerInnen »Killer Robots« genannt – gelten als Repräsentanten eines nahenden Paradigmenwechsels in der Kriegsführung. Über den Einsatz von (tödlicher) Waffengewalt sollen sie ohne menschliches Zutun entscheiden. Im Mai 2014 trafen sich bei den Vereinten Nationen in Genf im Rahmen eines informellen ExpertInnentreffens unter dem Dach der Convention on Certain Conventional Weapons (CCW)1 StaatenvertreterInnen aus 87 Ländern, zivilgesellschaftliche AkteurInnen und WissenschaftlerInnen. Auf der ersten multilateralen Konferenz zu dieser Themenstellung befassten sie sich mit den militärischen, völkerrechtlichen und ethischen Fragen, die solche Waffensysteme aufwerfen.

Längst existieren Waffensysteme, die »selbständig« agieren – allerdings bisher beschränkt auf Verteidigungszwecke, wie die Abwehr von Flugkörpern (dann, wenn für menschliches Eingreifen die Zeit fehlt). Sie sind eher automatisch denn autonom, da sie nur vorprogrammierte Aktionen ausführen.

Im Gegensatz dazu sollen autonome Waffensysteme ohne menschliche Steuerung oder Aufsicht ggf. über längere Zeit in dynamischen, unstrukturierten, offenen Umgebungen operieren. Kurz, es geht um mobile (Angriffs-) Waffenplattformen, die sich durch die Verarbeitung von Sensorsignalen und Algorithmen zur Entscheidungsfindung an Bord selbst steuern und auch Menschen oder belebte Ziele bekämpfen. Bei der CCW werden solche Systeme »lethal autonomous weapon systems« (LAWS) genannt.

Argumente, die für LAWS vorgebracht werden, sind eine effektivere und effizientere (u.a. durch Geschwindigkeitsvorteile und sinkende Personalkosten) sowie humanere Kriegsführung (u.a. weil Maschinen vermeidbares Kriegsleid, das Menschen aufgrund von Fehlern, Stress oder Überreaktion verursachen, vermeiden sollen). Dagegengehalten wird, dass LAWS nicht kriegsvölkerrechtskonform betrieben werden können, friedensgefährdende sicherheitspolitische Effekte erzeugen und mit ethischen Grundsätzen unvereinbar sind. In diesem Spannungsfeld bewegte sich die Diskussion in Genf.

Eine Auswahl von (ausnahmslos männlichen) Experten präsentierte Vorträge zu militärischen, völkerrechtlichen und ethischen Fragen. Diese wurden durch das Plenum kommentiert und teils kontrovers diskutiert. Die Zivilgesellschaft war insbesondere mit der im April 2013 gegründeten Campaign to Stop Killer Robots (stopkillerrobots.org) vertreten. Diese Koalition aus 52 Nichtregierungsorganisationen aus 24 Ländern zielt darauf ab, möglichst schnell ein CCW-Protokoll zum präventiven Verbot von LAWS zu erwirken.

Die militärischen Experten unterstrichen die Rolle als »game changer«, die LAWS in der modernen Kriegsführung spielen könnten. Doch LAWS stehen auch in einem gewissen Spannungsverhältnis zu militärischen Führungsstrukturen; enthusiastischen Zuspruch erfuhren sie aus militärischer Sicht nicht. Vielmehr ging es um Gedankenspiele zu kontrollierten Szenarien, etwa den Einsatz von LAWS nur gegen militärische Hardware. Vertreter der Zivilgesellschaft wiesen auf Proliferationsrisiken und sinkende Hemmschwellen für den Einsatz militärischer Gewalt hin.

Der völkerrechtliche Blick auf LAWS war der ausführlichste und umstrittenste. Die vor die CCW geladenen Experten waren sich weitgehend einig, dass das internationale Kriegsvölkerrecht nicht zwingend eine Hürde darstellen muss. Die Panelisten zweifelten nicht prinzipiell an, dass LAWS potenziell nicht nur die Unterscheidung zwischen ZivilistInnen und KombattantInnen, sondern auch die Angemessenheit der militärischen Gewaltmittel gewährleisten könnten. Dies rief teils heftigen Widerspruch sowohl von ExpertInnen als auch von KampagnenvertreterInnen hervor. Zahlreiche Völkerrechts- und Robotik-ExpertInnen bezweifelten, dass es auf absehbare Zeit möglich ist, die notorisch von Grauzonen geprägten Entscheidungen im Kriegvölkerrecht konform in Computerprogrammen abzubilden. Eingewandt wurde des Weiteren, dass der Völkerrechtskorpus auf der Prämisse menschlichen Handelns beruhe, weswegen es unklar sei, wer die rechtliche Verantwortung zu tragen hätte, wenn Menschen – insbesondere ZivilistInnen – durch LAWS irrtümlich verletzt oder getötet würden.

In ihrer Relevanz umstritten, aber vielfach erwähnt, war die »Martens‘sche Klausel«. Sie ist Teil des Völkergewohnheitsrechts und mahnt für (noch) ungeregelte Sachverhalte internationalen Rechts die Rücksicht auf Gewissen und Menschlichkeit an. In der Tat bestehen Vorbehalte gegenüber LAWS in der breiten Öffentlichkeit. Erste repräsentative Umfragedaten, aktuell leider nur verfügbar für die USA, zeigen, dass eine Mehrzahl der Bevölkerung (55%) ihre militärische Nutzung aus humanitären Gründen ablehnt, darunter 40% sogar in starkem Maße.

Damit werfen LAWS aus ethischer Perspektive das größte Problem auf. Die Kampagne argumentierte demzufolge, dass es gegen elementare Grundsätze der Humanität verstoße und somit per se nicht akzeptabel sei, wenn Maschinen über den Einsatz von Gewalt gegen Menschen entscheiden.

Neben der Kampagne forderten auch fünf CCW-Parteien (Kuba, Ecuador, Ägypten, Pakistan und der Vatikan) ein Verbot von LAWS. Kein Staat verteidigte oder befürwortete ihre Entwicklung; Tschechien und Israel unterstrichen in ihren Statements aber, dass LAWS Vorteile bieten könnten. Die USA argumentierten ähnlich. Viele Staaten (u.a. Deutschland) machten aber vor allem eines explizit deutlich: dass sie stets „meaningful human control“ über den Einsatz von Waffengewalt gewahrt sehen möchten.

Dieser Begriff der Kampagne ist das Gegenkonzept zur „angemessenen menschlichen Involvierung“, die die USA in ihrer »Directive on Autonomy in Weapon Systems« aus dem November 2012 festschrieben. Das Argument der Kampagne ist, dass „angemessene menschliche Involvierung“ nicht ausreicht, denn in bestimmten Situationen könne auch keine menschliche Involvierung als „angemessen“ kategorisiert werden. Daher müsse die menschliche Einflussnahme bei Entscheidungen über Leben und Tod stets bedeutsam sein – also mehr sein als keine oder, zugespitzt formuliert, nur das stumpfsinnige Drücken eines Knopfs in Reaktion auf maschinell aufbereitete Informationen.

Das informelle ExpertInnen-Treffen endete mit einem fünfseitigen Bericht. Dieser hebt hervor, dass aus Sicht vieler Staaten LAWS die Menschenwürde untergraben könnten, wenn sie menschliches Leben auslöschen, ohne dessen Wert begreifen oder respektieren zu können. Der Bericht wird dem nächsten Jahrestreffen der CCW am 14. November 2014 zur Kenntnis gebracht, bei dem die CCW-Staaten (im Konsens) ein Mandat beschließen müssen, wenn der Prozess fortgesetzt werden soll.

In einem möglichen Fortgang wäre besonders umkämpft, wie genau das Konzept der „meaningful human control“ mit Bedeutung zu füllen ist. Bestimmte Staaten dürften ein eher dünnes Konzept und mehr Spielraum bevorzugen. Die Kampagne pocht hingegen auf einen möglichst hohen Anteil menschlicher Urteilskraft – und zwar nicht nur bei Tötungs-, sondern auch bei anderen Entscheidungen über Gewaltanwendung oder Zwang.

Anmerkungen

Eine längere Fassung dieses Berichts ist erschienen als »Autonome Waffensysteme. Humanisierung oder Entmenschlichung des Krieges?«. Global Governance Spotlight 4-2014, Stiftung Entwicklung und Frieden, Bonn.

1) Convention on Prohibitions or Restrictions on the Use of Certain Conventional Weapons Which May be Deemed to be Excessively Injurious or to Have Indiscriminate Effects, 1980. Dieses auf deutsch auch VN-Waffenübereinkommen genannte Abkommen enthält bisher fünf Protokolle zu spezifischen Waffen.

Frank Sauer und Jürgen Altmann

erschienen in: Wissenschaft & Frieden 2014/3 Die Kraft der Künste, Seite 60–61