W&F 2012/1

Gehören Killerroboter vor ein Kriegsgericht?

von Hans-Jörg Kreowski

Seit einigen Jahren kann man in vielen Printmedien hin und wieder von Drohnen lesen, die im Grenzgebiet von Afghanistan und Pakistan eingesetzt worden sind, um führende Mitglieder von Al Kaida und den Taliban aufzuspüren und mit Raketen anzugreifen. Dabei sind inzwischen Hunderte Menschen getötet worden, darunter viele Frauen und Kinder. Vorläufig werden die Einsatzbefehle noch aus der US-Kommandozentrale in der Wüste von Nevada gegeben. Aber es wird durchaus daran gedacht, solche Drohnen zukünftig autonom über den Waffeneinsatz und damit über die Tötung aller Personen im Zielbereich entscheiden zu lassen. Da dabei sicherlich nicht nur kämpfende Soldaten den Tod finden werden, nach dem geltenden Kriegsrecht aber Zivilpersonen von Kriegshandlungen verschont werden sollen, könnte man fragen, ob dann Killerroboter vor ein Kriegsgericht gehören.

Nach der »Unmanned Systems Roadmap 2007-2032« und der »Unmanned Systems Integrated Roadmap 2011-2036« plant das Department of Defense der USA, in den nächsten Jahrzehnten einen erheblichen Teil der Waffensysteme in der Luft, auf dem Land und zu Wasser auf unbemannte Vehikel umzustellen. Diese Geräte sollen ihre Aufgaben zu einem großen Teil autonom erfüllen. Und da sie keineswegs nur der Erkundung, Bewachung und Aufklärung dienen, sondern viele davon auch bewaffnet sind, handelt es sich um ein Programm für die Entwicklung und Verwendung von Killerrobotern. Aber solche Waffensysteme sind keine reine Zukunftsmusik, sondern seit einigen Jahren mit wachsender Tendenz bereits im Einsatz im Irak, Afghanistan, im Grenzgebiet von Pakistan und jüngst auch in Libyen. Zu den bekanntesten unbemannten Fluggeräten (Drohnen) gehören der Predator und der Reaper. Der Predator war ursprünglich für die Aufklärung gedacht, ist inzwischen aber mit zwei Hellfire-Raketen ausgestattet. Der Reaper war von Anfang an mit acht Hellfire-Raketen bewaffnet. Das bekannteste bewaffnete unbemannte Landfahrzeug ist das Talon Sword, ein kleines Kettenfahrzeug, das mit verschiedenen Waffen wie Maschinengewehr oder Granatwerfer bestückt werden kann. Auf dem Wasser schwimmt beispielsweise der Protector, unter Wasser der Swordfish. Aber nicht nur die USA, sondern auch viele andere Länder der Welt haben, kaufen, entwickeln und bauen inzwischen unbemannte Militärsysteme. Dazu gehört auch Deutschland, beispielsweise mit den unbemannten Fluggeräten Aladin, Luna, Mikado und KZO.

Kriegsvölkerrecht

Das Kriegsvölkerrecht hat zwei Seiten. Die eine betrifft alle rechtlichen Aspekte im Zusammenhang mit der Frage, welche Rolle Krieg und Frieden beim Zusammenleben der Völker spielen sollen (ius ad bellum). Hierzu gehört zum Beispiel die Aussage in der Präambel der UN-Charta, mit der sich die Mitgliedsstaaten verpflichten, die zukünftigen Generationen von der Geißel des Krieges zu befreien, oder wie es im Artikel 2 heißt:

„ […] Alle Mitglieder legen ihre internationalen Streitigkeiten durch friedliche Mittel so bei, dass der Weltfriede, die internationale Sicherheit und die Gerechtigkeit nicht gefährdet werden. Alle Mitglieder unterlassen in ihren internationalen Beziehungen jede gegen die territoriale Unversehrtheit oder die politische Unabhängigkeit eines Staates gerichtete oder sonst mit den Zielen der Vereinten Nationen unvereinbare Androhung oder Anwendung von Gewalt.“

Die zweite Seite tangiert alle rechtlichen Regeln, die im Krieg gelten sollen (ius in bello). Die Haager Landkriegsordnung und die Genfer Konventionen sind bekannte Beispiele für völkerrechtlich verbindliche Vereinbarungen in diesem Zusammenhang. Zu denRegeln gehört, Opfer von Kriegen, Wehrlose und Unbeteiligte zu schützen, wobei insbesondere der Angriff auf Zivilpersonen verboten ist. Außerdem sollen kulturelle Güter geschont werden. Wer diese Regeln missachtet, kann als Kriegsverbrecher vor nationalen oder internationalen Gerichten angeklagt und verurteilt werden. Solche Prozesse hat es seit den Nürnberger Prozessen vereinzelt immer wieder gegeben. Gleichzeitig muss konstatiert werden, dass in allen Kriegen der letzten Jahrzehnte viele Kriegsverbrechen begangen worden sind, ohne dass sie einen Richter gefunden hätten. Als typische Beispiele, die hundertfach in den letzten Jahren passiert sind, kann man hier die Drohneneinsätze im Krieg gegen Al Kaida und die Taliban nennen, bei denen weit mehr Zivilpersonen, insbesondere Frauen und Kinder, getötet worden sind als feindliche Kämpfer. Typische Nachrichten, die in den letzten Jahren um die Welt gingen, belegen die Bedeutung und Problematik der fliegenden Killerroboter:

Chef der pakistanischen Taliban von Drohne getötet.

CIA lässt Todes-Drohnen nicht mehr von Blackwater bestücken.

30 Menschen von amerikanischen Drohnen getötet.

Einsatz von Drohnen statt neuer Truppen.

US-Drohne zerstört Haus mit sechs Taliban – 28 Tote insgesamt.

Und diese Liste der Meldungen ließe sich beliebig verlängern. Die meisten dieser Drohneneinsätze sind, soweit ich das sehe und verstehe, vom Kriegsvölkerrecht nicht gedeckt.

Es ist erklärte Absicht der Militärplaner und -entwickler, die Autonomie von Killerrobotern weiter voranzutreiben. In naher Zukunft werden bewaffnete Drohnen nicht erst schießen, wenn sie einen entsprechenden Befehl aus der Einsatzzentrale erhalten, sondern selbst darüber entscheiden. Die Entscheidung über Leben und Tod soll damit Maschinen überlassen werden. Killerroboter sollen selbsttätig töten, sobald sie einen generellen Einsatzbefehl erhalten. Daraus ergeben sich eine Reihe drängender Fragen:

Darf die Entscheidung über Leben und Tod Maschinen überlassen werden?

Können Maschinen das Kriegsvölkerrecht kennen und respektieren?

Können sie zwischen gegnerischen Kampftruppen einerseits und Unbeteiligten und Wehrlosen andererseits unterscheiden?

Können sie kulturelle Güter schonen?

Können sie in diesem Sinne ethisch korrekt funktionieren?

Maschinenethik und künstliches Gewissen!?

Es gibt viele Fachleute im Umfeld der Killerrobotik, die diese Fragen bejahen. Stellvertretend sei hier die Auffassung von Ronald C. Arkin vom Georgia Institute of Technology wiedergegeben. Er führt in seinem Buch »Governing Lethal Behavior in Autonomous Robots« (2009) aus, dass Maschinenethik nicht nur möglich, sondern wünschenswert sei. Als Gründe führt er an, dass Roboter im Gegensatz zu menschlichen Kriegern nie in Panik geraten und dass sie Befehle beurteilen und ohne Rücksicht auf die Konsequenzen gegebenenfalls auch verweigern können.

Ein solcher Glaube in die nahezu unbegrenzte technische Machbarkeit ist bei den Ingenieurswissenschaften, dem Militär und der Politik weit verbreitet. Ein Grund dafür ist insbesondere auch, dass mit Versprechungen dieser Art gigantische Fördermittel locker gemacht werden können. Die Erbauer von Killerrobotern und ihre Auftraggeber machen da keine Ausnahme – eher im Gegenteil.

Ich dagegen bin überzeugt, dass die Vorstellung von Maschinen, die selbständig ethisch handeln können, völlig illusionär ist und dass ein künstliches Gewissen vor allem künstlich ist und mit Gewissen nichts zu tun hat. Insbesondere denke ich, dass alle Fragen am Ende des vorigen Abschnitts mit einem klaren und uneingeschränkten nein beantwortet werden müssen. Das möchte ich im Folgenden aus meinem wissenschaftlichen Verständnis von den Möglichkeiten und Grenzen der Informatik begründen.

Alles eine Frage der Modellierung und Programmierung

Wenn davon die Rede ist, dass Maschinen Entscheidungen treffen, dann ist damit gemeint, dass in die Maschinen Computer eingebettet sind, auf denen Programme laufen, die die so genannten Entscheidungen berechnen. Und alle solche Programme werden von Menschen erdacht, modelliert und entwickelt und berechnen, abgesehen von technischen Fehlfunktionen, nichts anderes als das Programmierte.

Nach der Turingschen These aus dem Jahr 1936 kann alles Berechenbare – egal mit welchem Programm auf welchem Computer – auch mit einer Turing-Maschine berechnet werden, die eine Art Buchhalter formalisiert. Wenn die These stimmt (und bisher spricht eigentlich nichts dagegen, aber vieles dafür), dann hat das einige interessante Konsequenzen:

Es gibt Probleme, die nicht berechenbar sind, für deren Lösung es also gar kein Programm gibt.

Es gibt Programme mit unbekanntem Verhalten.

Es gibt Programme, die zu viel Zeit und/oder Speicherplatz brauchen, die also länger brauchen, als ein Mensch warten kann, und für deren Datenhaltung die Atome im Universum nicht reichen.

Es gibt Programme, die unzuverlässig sind.

Es gibt berechenbare Probleme ohne bekannte Lösung, für die also kein Programm verfügbar ist.

Ob ein Problem von einem Programm exakt gelöst wird, ist fast nie bewiesen und im allgemeinen auch nicht beweisbar.

Was heißt das für ein Programmsystem, das »ethisches Verhalten« von Maschinen realisieren soll? Die obige Liste von Schwierigkeiten beim Umgang mit Berechenbarkeit lässt sich auf dieses spezielle Programmierungsproblem übertragen:

Es könnte nicht berechenbar sein.

Es könnte völlig undurchschaubar programmiert sein.

Es könnte zu viel Zeit oder/und Speicherplatz brauchen.

Es könnte unzuverlässig sein.

Es könnte berechenbar sein, aber niemand weiß wie.

Es könnte unbewiesen sein und bleiben, dass es richtig funktioniert.

Ich wäre nicht verblüfft, wenn sich ethisches Verhalten als unberechenbar erwiese, so dass sich eine maschinelle Realisierung auf den berechenbaren Teil beschränken müsste. Aber auch diese »berechenbare Ethik« ist in ihren Inhalten, Möglichkeiten, Gesetzmäßigkeiten und Charakteristika völlig unklar, und an einer operationalisierbaren Modellierung fehlt es gänzlich. Beispielsweise liegen die normativen Bestimmungen des Kriegsvölkerrechts nur in natürlicher Sprache vor. Es gibt für sie keine eindeutigen Interpretationen, und sie stellen in keiner Weise präzise Handlungsanweisungen dar. Wie soll daraus ein ausführbares Programm werden, das tut, was es soll? Das ist hoffnungslos.

Killerroboter, unbemannte Vehikel und autonome Waffen sind nach diesen Überlegungen nicht in der Lage, nach ethischen Prinzipien zu funktionieren und das Kriegsvölkerrecht zu beachten. Es ist deshalb unverantwortlich und gefährlich, solche Systeme zu entwickeln und einzusetzen. Die Entwickler und Einsatzleiter machen sich zu potentiellen Mördern. Wie Landminen werden autonome Tötungsmaschinen keinen Unterschied machen können zwischen kämpfenden Soldaten und Zivilpersonen. Als Waffen, deren Einsatz praktisch unweigerlich im Widerspruch zum Kriegsvölkerrecht steht und ein Kriegsverbrechen darstellt, gehören sie wie biologische und chemische Waffen verboten. Spätestens an dieser Stelle erweist sich die Titelfrage als rhetorisch. Denn es sind nicht die autonomen Killerroboter, die die Kriegsverbrechen begehen werden, sondern wie auch jetzt schon beim Raketeneinsatz mit Drohnen die Befehlshaber, die solche Waffen einsetzen. Die Entwickler und Programmierer können aber ebenfalls nicht freigesprochen werden, denn sie werden wissen, was sie tun.

Künstliche oder echte Torheit

Wenn man postuliert, dass Maschinen mit ethischem Verhalten gebaut werden könnten und dass ein künstliches Gewissen programmierbar sei, und wenn man dann – wie in der Killerrobotik geplant ist – damit beginnt, solche Vorstellungen zu realisieren, gerät man aus meiner Sicht in ähnliche Kalamitäten wie die Künstliche Intelligenz (oder in noch schlimmere). Führende Vertreter des Fachgebiets wie McCarthy, Minsky, Kurzweil und Moravec behaupten und propagieren seit den 1950er Jahren, dass künftig Maschinen entworfen und gebaut werden können, die intelligent sein und besser denken werden als Menschen. Das ist glücklicherweise keine Mehrheitsmeinung in der Künstlichen Intelligenz. In dem Fachgebiet sind in den letzten Jahrzehnten sehr beachtliche Erkenntnisse gewonnen und viele bemerkenswerte Resultate erzielt worden. Aber alles, was hervorgebracht wurde, ist nach meinem Verständnis vergleichbar mit dem, was an wissenschaftlichen Fortschritten in der Informatik insgesamt erreicht wurde. Soweit es um »kognitive« Fähigkeiten geht, die von Maschinen und ihren Programmsystemen erbracht werden, handelt es sich um äußerst eng begrenzte Phänomene, die mit der Intelligenz von Lebewesen wenig bis gar nichts zu tun haben. Es sind – zugegebenermaßen teils sehr eindrucksvolle – technische Imitationen von Einzelleistungen, die bei Mensch und Tier Intelligenz erfordern. Aber wenn eine Maschine bellt, ist sie noch lange kein Hund.

Intelligenz, Denkvermögen, Gefühle, Moral, ethisches Verhalten und Gewissen sind vor allem auch deshalb nicht im Handumdrehen oder in wenigen Jahren als Programmsysteme realisierbar, wenn überhaupt je, weil niemand wirklich weiß, worum es sich dabei tatsächlich handelt und wie diese kognitiven Fähigkeiten vollständig, korrekt und algorithmisch machbar charakterisiert werden können. Auf kurzfristige Lösungen zu hoffen, ist aus meiner Sicht reine Torheit.

Hans-Jörg Kreowski ist Leiter der Forschungsgruppe Theoretische Informatik an der Universität Bremen. Er ist Gründungsmitglied des Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FifF) e.V. und war von 2003 bis 2009 dessen Vorsitzender. Dieser Artikel wurde für Heft 4-2011 der Zeitschrift »FifF-Kommunikation« geschrieben. W&F dankt für die Nachdruckrechte.

erschienen in: Wissenschaft & Frieden 2012/1 Schafft Recht Frieden?, Seite 27–29