W&F 2020/1

Atomkrieg – aus Versehen?

von Karl Hans Bläsius

Das Risiko eines Atomkriegs aus Versehen geht vor allem von Frühwarnsystemen aus, die der Vorhersage und Bewertung von möglichen Angriffen durch Atomraketen dienen. Dabei kann es zu Fehlalarmen kommen, die besonders dann gefährlich sind, wenn eine politische Krise vorliegt oder wenn in zeitlichem Zusammenhang weitere relevante Ereignisse eintreten. Die Gefahr eines Atomkriegs aus Versehen wird in Zukunft deutlich steigen. Zu den Gründen gehören: Klimawandel, zunehmende Cyberangriffe, unkalkulierbare automatische Entscheidungen, immer mehr Atommächte, neues Wettrüsten, kürzere Vorwarnzeiten.

Frühwarnsysteme basieren auf Sensoren, sehr komplexen Computersystemen und Netzwerken. Sie sollen die Vorhersage und Bewertung von möglichen Angriffen durch (Atom-) Raketen ermöglichen. Dabei kann es zu Fehlalarmen kommen, die ganz unterschiedliche Ursachen haben können (z.B. Hardware-, Software-, Bedienungsfehler oder die falsche Bewertung von Sensorsignalen). In Friedenszeiten und Phasen politischer Entspannung sind die Risiken sehr gering, dass die Bewertung einer Alarmmeldung zu einem atomaren Angriff führt. In solchen Fällen wird im Zweifel ein Fehlalarm angenommen.

Dies kann sich drastisch ändern, wenn eine politische Krise besteht, eventuell mit gegenseitigen Drohungen, oder wenn in zeitlichem Zusammenhang mit einem (Fehl-) Alarm weitere sicherheitsrelevante Ereignisse eintreten. Dann werden bei der Bewertung des Alarms Ursachen gesucht, d.h. es wird versucht, kausale Zusammenhänge zu finden. Werden solche gefunden und sind sie logisch plausibel, besteht die große Gefahr, dass die Alarmmeldung als gültig angenommen wird, auch wenn es um ein zufälliges zeitliches Zusammentreffen unabhängiger Ereignisse geht.

Die Risiken können durch Alarmierungsketten verschärft werden: Als Folge einer Alarmmeldung eines Frühwarnsystems können Streitkräfte in Alarmbereitschaft versetzt werden. Solche Aktivitäten werden vom Gegner erkannt und können in Konfliktsituationen auch dort zu erhöhter Alarmbereitschaft führen. Dies hat wieder Rückwirkungen auf die eigene Beurteilung der Lage. In Krisen mit gegenseitigen Drohungen und Ereignissen, die als feindselige Aktivitäten eingestuft werden, kann so im Falle eines Fehlalarms innerhalb von Minuten eine Kettenreaktion mit immer höheren Alarmstufen in Gang gesetzt werden, die außer Kontrolle gerät.

Der Bericht »Computergestützte Frühwarn- und Entscheidungssysteme« (Bläsius und Siekmann 2019) enthält einige Beispiele für Fehlalarme sowie detailliertere Darstellungen, einschließlich Quellenangaben, zu weiteren Aspekten, die nachfolgend beschrieben werden.

Informationen über Alarmmeldungen sind nur teilweise verfügbar

In der Vergangenheit sind viele Fehlalarme bekannt geworden, die zu gefährlichen Situationen führten. Es werden aber nicht alle kritischen Vorkommnisse bekannt, denn falsche Alarmmeldungen über Raketenangriffe unterliegen der Geheimhaltung und werden in der Regel nicht veröffentlicht. Zu Beginn der 1980er Jahre gab es verschiedene Presseberichte über Fehlalarme und gefährliche Situationen. Als Folge leitete der Senat der USA eine Untersuchung ein, deren Ergebnis veröffentlicht wurde. Für den begrenzten Zeitraum von 1979 bis 1980 gibt es deshalb Erkenntnisse über alle kritischen Vorfälle im US-Frühwarnsystem. Andere Vorfälle wurden durch Äußerungen von Beteiligten teilweise erst Jahrzehnte später bekannt. Demgemäß sind Statistiken zu Fehlalarmen und gefährlichen Situationen in bestimmten Zeiträumen für eine Beurteilung der aktuellen Gefahrenlage nicht relevant. Es kann auch nicht angenommen werden, dass Fehler in den Frühwarnsystemen Chinas, Indiens oder Pakistans bei uns bekannt werden.

Seltene Fehler sind besonders gefährlich

Fehler können in einem komplexen System nie ausgeschlossen und sowohl durch Menschen als auch durch Computer oder andere Systemkomponenten verursacht werden. Bei komplexen Anwendungen ist es technisch nicht möglich, eine fehlerfreie Software zu erzeugen. Selbst wenn eine Software mit Techniken der Programmverifikation als fehlerfrei beurteilt wird, sind solche Beweise nur auf Basis einer formalen Spezifikation möglich, die aber selbst wieder Fehler enthalten kann. Ein wichtiges Mittel zur Fehlerreduzierung bei der Softwareentwicklung ist daher Testen, dies ist aber bei einem Frühwarnsystem unter realen Bedingungen kaum möglich.

Fehler, die durch unklare Sensordaten verursacht werden, sind in der Vergangenheit häufig aufgetreten und werden zumindest in Friedenszeiten kaum zu einer falschen Beurteilung führen. Seltene oder ungewöhnliche Fehler sind dagegen deutlich schwerer zu bewerten und damit sehr viel gefährlicher. Selbst wenn es gelingt, Frühwarnsysteme so zu verbessern, dass Fehlalarme nur noch sehr selten auftreten, wird damit die Sicherheit also nicht unbedingt erhöht. Die nur noch selten vorkommenden Alarmmeldungen sind dann ungewöhnlich und schwer interpretierbar und werden potentiell als ernst, also als gültig angenommen. Dies gilt insbesondere in Krisensituationen oder wenn es zeitnah weitere Ereignisse gibt, die damit in Zusammenhang gesetzt werden können.

Das Atomkriegsrisiko wird deutlich steigen

Das Atomkriegsrisiko wird derzeit sehr hoch eingeschätzt, was auch durch die »Atomkriegsuhr« (Doomsday Clock) zum Ausdruck gebracht wird. Seit 1947 wird diese Uhr von Atomwissenschaftler*innen und anderen Expert*innen gestellt, um die Öffentlichkeit auf das aktuelle Risiko eines Atomkriegs hinzuweisen. Derzeit steht sie bei nicht einmal mehr zwei Minuten vor zwölf. Die nachfolgend beschriebenen Aspekte werden die Gefahr eines Atomkriegs aus Versehen in Zukunft deutlich erhöhen.

Klimawandel

Der Klimawandel wird vermutlich dazu führen, dass verschiedene Regionen der Erde unbewohnbar werden. Der verfügbare Lebensraum wird kleiner werden, wichtige Ressourcen, wie zum Beispiel Wasser, knapper. Dadurch wird es in Zukunft häufiger politische Krisen und im schlimmsten Fall sogar kriegerische Konflikte geben. Als Folge werden Raketenangriffsmeldungen in Frühwarnsystemen deutlich ernster genommen. Das erhöhte Risiko eines Atomkriegs durch den Klimawandel wird seit 2007 auch bei der Atomkriegsuhr berücksichtigt.

Cyberattacken

Cyberattacken können gefährliche und unkalkulierbare Wechselwirkungen mit Frühwarnsystemen sowie den Atomstreitkräften erzeugen und damit das Risiko eines Atomkriegs aus Versehen erheblich erhöhen. Über mögliche Abläufe von Cyberkriegen gibt es bisher wenig Wissen. Cyberangriffe gelten als verdeckte Operationen; Krieg und Frieden sind hierbei nicht klar getrennt, können eventuell nicht unterschieden werden. Ein Cyberkrieg ist vermutlich schwer kontrollierbar. Es wird auch schwer sein, einen Cyberkrieg auf einzelne Staaten zu begrenzen. Hackergruppen, die von ihren Staaten nicht kontrollierbar sind, könnten sich einmischen. Die Quelle eines Cyberangriffs kann häufig nicht festgestellt werden. Ein Angriff kann zwar Hinweise auf den Urheber liefern, allerdings können das auch bewusst falsch gelegte Fährten sein. Es droht eine Verstärkung gegenseitiger Angriffe, die in eine Eskalationsspirale münden und von keiner Seite mehr kontrolliert werden können.

Die Folgen eines schwerwiegenden Cyberangriffs sind nicht absehbar. Neue Militärstrategien schließen möglicherweise eine Antwort mit atomaren Waffen nicht aus. Auch wenn die Hoffnung besteht, dass eine solche Reaktion im Normalfall nicht erfolgt, ändert sich die Lage, wenn es in zeitlichem Zusammenhang zu einem Fehlalarm in einem Frühwarnsystem kommt. Eine solche »flexible« Militärstrategie erhöht aber auch das Risiko einer falschen Bewertung einer Alarmmeldung bei einem potentiellen Gegner. Denn falls dort zeitnah eine Raketenmeldung eingeht, könnte dies als Antwort auf den Cyberangriff gedeutet werden.

Cyberangriffe könnten auch direkt gegen Frühwarnsysteme gerichtet sein und dabei Teilkomponenten lahmlegen, die Kommunikation stören, Informationen abgreifen oder bestimmte Signale senden. Es könnten falsche Daten an ein Frühwarnsystem übermittelt, gegnerische Atomraketen unschädlich gemacht oder die Kontrolle darüber erlangt werden (siehe Austin und Sharikov 2016 sowie Sharikov 2018).

Neues Wettrüsten

Das Ende des INF-Vertrages führt bereits jetzt zu einem neuen Wettrüsten. Neben der höheren Treffsicherheit der Raketen und Sprengköpfe neuen Typs und der kürzeren Vorwarnzeiten beim Einsatz von Mittelstreckenraketen sind kleinere Atomwaffen ein wichtiger Faktor, da diese als »einsetzbarer« gelten. Eine niedrigere Einsatzschwelle erhöht aber auch die Gefahr, dass eine Alarmmeldung als gültig angenommen wird, denn der Einsatz von Atomwaffen wird ja wahrscheinlicher. Damit steigt auch das Risiko eines Atomkriegs aus Versehen.

Völlig unkalkulierbar sind die Auswirkungen der geplanten Bewaffnung des Weltraums sowie die Entwicklung von Hyperschallwaffen, die offenbar schwer zu lokalisieren sind und die Vorwarnzeiten extrem verkürzen werden. Die Komplexität von Warnmeldungen wird dadurch drastisch steigen, wobei es kaum möglich sein wird, die Zuverlässigkeit der Frühwarnsysteme bezüglich dieser neuen Waffensysteme zu testen.

Automatische Entscheidungen

Die Anzahl und Vielfalt von Objekten im Luft- und Weltraum werden weiter steigen (z.B. Drohnen, Satelliten, Hyperschallraketen). Die Bewertung von Sensorsignalen wird damit schwieriger, und es werden immer mehr Verfahren der Künstlichen Intelligenz (KI) erforderlich sein, um für gewisse Teilaufgaben Entscheidungen automatisch zu treffen. Auch die Weiterentwicklung der Waffensysteme mit höherer Treffsicherheit und kürzeren Flugzeiten wird zunehmend Techniken der Künstlichen Intelligenz erforderlich machen. Es gibt bereits Forderungen, im Zusammenhang mit Frühwarnsystemen autonome KI-Systeme zu entwickeln, da für menschliche Entscheidungen gar keine Zeit bleibt.

Ein Testen solcher Systeme unter realen Bedingungen ist aber kaum möglich. Auch wird es im Vergleich zu anderen KI-Anwendungen (z.B. autonomes Fahren) deutlich weniger »Lerndaten« geben, um die nötigen Erkennungskriterien zu erzeugen. Dies kann zu unvorhersehbaren Effekten führen, die eventuell von Menschen nicht bewertet und kontrolliert werden können. In der kurzen verfügbaren Zeit zwischen einem Alarm und dem Befehl, Atomwaffen einzusetzen, wird es in der Regel auch nicht möglich sein, Entscheidungen der Maschine zu überprüfen. Dem Menschen bleibt nur zu glauben, was die Maschine liefert.

Viele Atommächte

Inzwischen gibt es neun Atommächte. Nicht nur die USA und Russland verfügen über Frühwarnsysteme, sondern auch Länder wie China bauen solche auf. Auch in diesen Frühwarnsystemen kann es zu Fehlern und falschen Entscheidungen mit fatalen globalen Folgen kommen. Auch ein begrenzter nuklearer Schlagabtausch, z.B. zwischen Indien und Pakistan, kann zu einem nuklearen Winter mit gravierenden Folgen für die gesamte Menschheit führen (siehe dazu den Artikel von Jürgen Scheffran in diesem Heft).

Vorhersage-Anpassungs-Zyklen

In seinem Buch »Homo Deus« (2016; dt. Ausgabe 2017) beschreibt Yuval Noah Harari (ab S. 96), dass mithilfe von »Big Data« und »Künstlicher Intelligenz« immer bessere Vorhersagen über künftige Veränderungen möglich sind. Dieses Wissen wird jedoch unmittelbar für Anpassungen genutzt, sodass die vorhergesagten Veränderungen so nicht eintreten. Die Zyklen zwischen Vorhersage und Anpassung laufen immer schneller ab, sodass es immer schwerer wird, die Gegenwart sinnvoll zu deuten und die Zukunft zu planen. Es ist äußerst fraglich, ob ein Waffensystem, das die Menschheit als Ganzes bedroht, bei immer schnelleren Veränderungen in unseren Gesellschaftssystemen kontrolliert werden kann.

Nicht vorhersehbar – plötzliches Ereignis

Ein »Atomkrieg aus Versehen« ist nicht direkt vorhersehbar. Wie bei sonstigen Unfällen in technischen Systemen gibt es keine Vorwarnung. Wie ein »normaler Unfall« kann ein Atomkrieg aus Versehen plötzlich innerhalb weniger Minuten ausbrechen. Danach ist keine Korrektur mehr möglich. Bei normalen Unfällen werden hinterher oft Maßnahmen getroffen, um solche Risiken in Zukunft zu vermeiden. Nach einem atomaren Schlagabtausch wird es eine solche Zukunft kaum noch geben. Beim Atomkriegsrisiko können wir mit Maßnahmen zur Reduzierung dieses Risikos nicht warten, bis es zu einem ersten »Unfall« in Form eines »Atomkriegs aus Versehen« gekommen ist.

Literatur

Austin, G.; Sharikov, P. (2016): Pre-emption is victory – aggravated nuclear instability of the information age. The Nonproliferation Review, Vol. 23, Nr. 5-6, S. 691-704.

Bläsius, K.H.; Siekmann, J. (2019): Computergestützte Frühwarn- und Entscheidungssysteme. Eigenpublikation, 36 S.; fwes.info/fwes-19-3.pdf.

Bulletin of the Atomic Scientists (2020): The Doomsday Clock; thebulletin.org/doomsday-clock.

Harari, N.H. (2017): Homo Deus – Eine kurze Geschichte von Morgen. München: C.H. Beck.

Sharikov, P. (2018): Artificial intelligence, cyberattack, and nuclear weapons – A dangerous combination. Bulletin of the Atomic Scientists, Vol. 74, Nr. 6, S. 368-373.

Karl Hans Bläsius ist Professor im Bereich Informatik, Künstliche Intelligenz, an der Hochschule Trier.

erschienen in: Wissenschaft & Frieden 2020/1 Atomwaffen – Schrecken ohne Ende?, Seite 10–12