W&F 1990/3

Risiken komplexer Rüstungstechnik (I)

Das Beispiel C³I

von Jürgen Scheffran

Die sicherheitspolitische Situation zeichnet sich durch eine wachsende Komplexität aus, die große Chancen für umfassende Abrüstung und eine dauerhafte Friedensordnung bietet, aber auch potentiell gefährdende Elemente enthält. Der Trend zur Komplexität ist zum einen zu beobachten auf der politischen und wirtschaftlichen Ebene, wo sich durch den Ost-West-Konflikt geprägte bipolare Strukturen auflösen und durch globale Sicherheitskonzepte ersetzt werden. Das Wettrüsten erhält neue Dimensionen durch eine wachsende Zahl von Schwellenländern, die in den Besitz von nuklearen oder chemischen Waffen sowie langreichweitigen Trägersystemen gelangen. Im militärstrategischen und rüstungstechnischen Bereich führt die Computer-Revolution auch weiterhin zur Entwicklung qualitativ neuer Waffensysteme, die militärische Optionen mit destabilisierenden Konsequenzen eröffnen. Die Modellierung und Bewertung der strategischen Situation ist erschwert durch eine Vielfalt von Technologien, Optionen, Bedingungen und Unsicherheiten.

Die neue Generation bedarfsgerechter Mensch-Maschine-Schnittstellen für Anwendungen in zukunftsorientierten Führungs- und Waffeneinsatzsystemen für den mobilen Einsatz im schwierigsten Umfeld für alle Teilstreitkräfte.

Verschiedene spektakuläre Unfälle der letzten Jahre (Bhopal, Challenger, Tschernobyl) haben das Augenmerk darauf gelenkt, daß technische Systeme nicht vollständig sicher sind und ein »Restrisiko« in sich bergen, das unter Umständen sehr hoch sein kann. Da nicht alle Eventualitäten bei komplexen Systemen vorherbestimmt werden können, genügt oft ein geringfügiges Ereignis, um eine katastrophale Ereigniskette in Gang zu setzen (Perrow 1987).

Während in anderen Bereichen (etwa im Umweltschutz, der Medizin, der Chemie, der Kernenergie) Risikoanalysen bereits eine Rolle spielen, ist die Rüstungstechnik in der Risikodiskussion meist ausgespart worden, obwohl nachweislich ein enger Zusammenhang zwischen ziviler und militärischer Technikentwicklung besteht.1 Selbst die höchsten Risiken und Kosten der Rüstung konnten noch mit dem Argument gerechtfertigt werden, daß diese nur eine untergeordnete Rolle spielten gegenüber dem sicherheitspolitischen Risiko, schutzlos einem feindlichen Angriff ausgesetzt zu sein.

Mit dem Verlust des (sowjetischen) Feindbildes gewinnt jedoch die von der Rüstungsmaschinerie ausgehende Bedrohung an Bedeutung. Zahlreiche Unfälle im militärischen Bereich (z.B. Abschuß einer koreanischen Verkehrsmaschine durch die Sowjetunion, Pershing-II-Unfälle, Brand eines sowjetischen U-Boots vor der amerikanischen Küste, Abschuß einer iranischen Verkehrsmaschine durch die USA, Abstürze von Kampfflugzeugen) belegen, daß hiervon nicht unerhebliche Risiken bereits in Friedenszeiten ausgehen können. Die Risiken werden multipliziert in einer angespannten Situation wie der Golfkrise, in der angesichts hochgerüsteter Gegner die Gefahr besteht, daß durch menschliches oder technisches »Versagen« der Zündfunke zur Eskalation der Gewalt ausgelöst wird.

In der sicherheitspolitischen Diskussion wurde der Risikoproblematik rüstungstechnischer Systeme vereinzelt Aufmerksamkeit geschenkt, so bei der Diskussion um die unbeabsichtigte Auslösung eines Atomkrieges (Blair 1990), in der SDI-Debatte (Parnas 1985, Rauschenbach 1987, Nietzsch 1987, OTA 1988), bei der Tiefflugproblematik (Mohr 1989) und beim überstürzten Abzug der chemischen Waffen aus der Bundesrepublik.2 Dabei wurden allgemeine Probleme komplexer Rüstungstechnologie erkennbar, die im folgenden am Beispiel der militärischen Informations-, Kommunikations- und Führungssysteme (C³I: command, control, communications, and intelligence) diskutiert werden sollen.

C³I-Systeme können „als Hirn und Nervensystem der militärischen Streitmacht angesehen werden, die seine Augen und Ohren (d.h. seine Sensoren) mit seinen Muskeln (d.h. seinen Waffen) verbinden.“ (UCS 1987).3 Wegen ihrer wichtigen, alle militärischen Kräfte koordinierenden, Funktion werden C³I-Systeme oft als »Force-Multiplier« bezeichnet. Andererseits können C³I-Systeme aufgrund ihrer inhärenten Komplexität, Fehleranfälligkeit und Verwundbarkeit zugleich als »Achilles-Ferse« des militärischen Apparats angesehen werden4, die den Unterschied zwischen »Sieg oder Niederlage« ausmachen kann: „In vielen Fällen kann man zeigen, daß ein verbessertes C³-System die Effektivität der Streitkräfte beträchtlich steigern kann. Unglücklicherweise gibt es viele Beispiele, in denen das C³-System die Effektivität der Streitkräfte auch erheblich verringern kann.“5

Normale Katastrophen

Eine Konsequenz der zunehmenden Abhängigkeit von großtechnischen Systemen (Atomenergie, Chemieindustrie, Luft- und Raumfahrt) ist die Möglichkeit der Auslösung von technischen Katastrophen in einer Größenordnung, die bislang Naturkatastrophen oder Kriegen vorbehalten war. Während die herkömmliche Risikoforschung und Sicherheitswissenschaft um die Vermessung der damit verbundenen Risiken und Schadensbegrenzung bemüht war,6 prangerte der Soziologe Charles Perrow die „unvermeidbaren Risiken der Großtechnik“ an, denen nicht einfach mit mehr Sicherheitstechnik begegnet werden könne. Aus einer Vielzahl von Unfallanalysen zog Perrow folgende Schlüsse:

  1. Die Ursachen von Katastrophenereignissen in bestimmten Hochrisikosystemen liegen nach Perrow nicht im Versagen einzelner Systemkomponenten, sondern in der spezifischen Struktur dieser Systeme. „Je komplexer das System und die Interaktionen seiner Bestandteile, desto häufiger kann es zu unvorhergesehenen Störungen kommen, können die Signale, die den Zustand des gestörten Systems anzeigen, mehrdeutig und mithin mißdeutbar sein, können daher Reaktionen der Operateure oder automatischer Steuerungen destabilisierend statt stabilisierend wirken. Je starrer die Bestandteile des Systems (zeitlich, räumlich, funktionell) gekoppelt sind, desto größer die Möglichkeit, daß lokale Störungen weitere Systemteile in Mitleidenschaft ziehen“. 7 Die im Prinzip unvermeidlichen Störungen in Teilsystemen lassen sich auch bei ausgefeilter Sicherheitstechnik nicht mehr beschränken, sondern legen das Gesamtsystem lahm, so daß es zu einem Systemunfall kommt. Hat das System ein hohes Zerstörungspotential, dann ist die Katastrophe »normal«.
  2. Perrow identifiziert einige typische Verhaltensweisen bei Systemunfällen. 8 Da Fehler meist verborgen und getarnt auftreten, sind Operateure oft unfähig zu begreifen, was eine Störung ausgelöst hat und versuchen, den Betrieb unter allen Umständen aufrechtzuerhalten. Während sie den Anzeigeinstrumenten mißtrauen, haben sie ein übergroßes Vertrauen in konstruktive Sicherheitsvorkehrungen und Redundanzen (reibungsloser Betrieb). Verharmlosend wird die kleinstmögliche statt der größtmöglichen Ursache angenommen, und mehrdeutige Informationen bestätigen die anfängliche Hypothese. Hinzu kommt eine enorme Zeitknappheit für Entscheidungen und die Unmöglichkeit, den Betriebsablauf umzukehren und dadurch Fehler zu korrigieren. Bei nachträglichen Störfallanalysen werden spezifische Detailprobleme in ihrer Bedeutung meist überschätzt (Mikroanalyse), die Gesamtzusammenhänge geraten aus dem Blick (Makroanalyse).
  3. Perrow unterscheidet drei Kategorien von Risikosystemen: 9

    1. Auf hochkomplexe und eng gekoppelte Systeme, die prinzipiell nicht beherrschbar sind, muß verzichtet werden, da ihre unvermeidlichen Risiken jeden sinnvollen Nutzen übersteigen (Kernwaffen und Atomkraftwerke).
    2. Systeme, auf die wir entweder vermutlich nicht verzichten können, die jedoch bei einigem Aufwand sicherer gemacht werden könnten (ein Teil der Frachtschiffahrt), oder deren Nutzen so beträchtlich ist, daß gewisse Risiken in Kauf genommen werden sollten, wenn auch weniger als bisher (Genforschung und -technologie).
    3. Systeme, die bis zu einem gewissen Grad selbstkorrigierend sind und sich ohne größeren Aufwand noch weiter verbessern ließen (großchemische Anlagen, Flugzeuge und Flugsicherung sowie z.B. Bergwerke, Wärmekraftwerke, Autobahnen und Kraftfahrzeuge)
  4. Die Herausarbeitung eigener Kriterien zur Beurteilung von Risikosystemen verbindet Perrow mit einer Kritik an der herrschenden Risikoforschung, der er Technokratie, Expertentum und pragmatischen Glauben an die Beherrschbarkeit der Technik unterstellt, während technische Katastrophen stets durch das „kaum vorhersehbare Zusammentreffen des Versagens mehrerer Systemteile“ entschuldigt würden. Der Risikobegriff werde auf quantifizierbare Größen wie Geld, Todes- und Verletzungszahlen verengt, ohne kulturelle und soziale Kriterien einzubeziehen. Er wirft den Risikoexperten vor, daß „ihre Funktion nicht nur darin besteht, die Lenker dieser Systeme über deren Risiken und Nutzen zu informieren und zu beraten, sondern auch darin, bei Inkaufnahme der Risiken diese zu rechtfertigen und alle diejenigen zu beschwichtigen, denen die Risiken zugemutet werden.“ 10 Häufig werde zwar der Unterschied zwischen freiwillig eingegangenen Risiken und unfreiwilligen Risiken gesehen, nicht aber der zwischen der Zumutung eines vermeidbaren Risikos durch gewinnorientierte Firmen und Hinnahme eines Risikos beim Privatvergnügen.

Obwohl der Schwerpunkt von Perrows Analyse im zivilen Bereich liegt, untersucht er auch einige Beispiele aus dem Bereich der Militärtechnologie, besonders aufgetretene Fehlalarme im Frühwarnsystem der USA. Da es im strategischen Bereich bereits umfangreiche Darstellungen gibt, sollen im folgenden Fallbeispiele aus dem Bereich der konventionellen Kriegsführung diskutiert werden: das Vincennes/Aegis-Unglück im Persischen Golf sowie das C³I-System der NATO in Europa, mit Schwerpunkt auf den Luftradarsystemen AWACS und JSTARS, die in letzter Zeit als Mittel zur Verifikation und Krisenkontrolle in Europa oder im Nahen und Mittleren Osten vorgeschlagen wurden.11

Aegis/Vincennes: Ein Irrtum mit System

Ein Beispiel für die Unberechenbarkeit menschlicher Reaktionen in komplexen militärischen Hochrisikosystemen ist der »irrtümliche« Abschuß einer zivilen iranischen Verkehrsmaschine durch den US-Kreuzer Vincennes im Persischen Golf am 3. Juli 1988. Die Vincennes ist mit dem 1,2 Milliarden Dollar teuren Luftabwehrsystem Aegis ausgestattet, das mithilfe seines phasengesteuerten Radars hunderte von fliegenden Objekten gleichzeitig in einem Gebiet von der zweieinhalbfachen Größe der Bundesrepublik überwachen und Maßnahmen zur Abwehr von Flugkörpern durchführen kann. Vor dem Unglück wurde Aegis als „vielleicht technisch fortgeschrittenstes stationiertes System“ gepriesen12 und als Vorbild für SDI hingestellt.13 An jenem Unglückstag »versagte« das Aegis-System jedoch bereits bei dem Versuch, mit einem einzigen Flugzeug fertig zu werden; ein Irrtum, der 290 Menschen das Leben kostete. Einige der Hintergründe sollen hier beleuchtet werden.14

Wie sich nachträglich aus Bandaufzeichnungen nachweisen ließ, funktionierten die technischen Einrichtungen wie vorgesehen, so daß nicht direkt von einem technischen Versagen gesprochen werden kann. Nachdem der iranische Airbus mit der Flugnummer 655 um 10:17 Uhr mit 18 Minuten Verspätung gestartet war, zeigte das Aegis-Radar korrekt ein Flugzeug im Steigflug an, und das Freund-Feind-Erkennungssystem signalisierte einen nichtfeindlichen Modus. Dies war auch die Interpretation der sich in der Nähe aufhaltenden Fregatte USS Sides.

Demgegenüber stellten die Operateure der Vincennes genau das Gegenteil fest: sie entdeckten nach eigenen Aussagen eine feindliche Maschine im Sinkflug in Richtung auf ihr Schiff und identifizierten den Airbus als ein mögliches iranisches Kampfflugzeug vom Typ F-14. Warnungen auf zivilen und militärischen Frequenzen blieben ohne Rückmeldung. Der Befehlshaber der Vincennes, Captain Will Rogers, glaubte aufgrund der Informationen seiner untergeordneten Offiziere an eine wirkliche Bedrohung für sein Schiff und gab nach einer zweiminütigen Wartezeit um 10:24 den Befehl zum Start zweier SM-2 Abwehrraketen, die den Airbus im Abstand von 8 Seemeilen etwa 7 Minuten nach seinem Start trafen und zum Absturz brachten.

Die Fehlentscheidung ist nicht zu verstehen ohne die besonderen Umstände, unter denen sie getroffen wurde. Der Schiffsbesatzung war das Schicksal der USS Stark noch in Erinnerung, die etwa ein Jahr zuvor im Golf von einem irakischen Flugzeug versenkt worden war, weil es dieses nicht als feindlich identifiziert hatte.

Zudem war die Vincennes gleichzeitig in ein Gefecht mit iranischen Schnellbooten verstrickt und mußte rasche Ausweichmanöver durchführen, die eine beträchtliche Konfusion in der Einsatzzentrale auslösten. Die damit verbundene psychische Anspannung der Crew bewirkte eine Wahrnehmungsverzerrung, die externe Ereignisse als potentielle Bedrohungen interpretierte.

Als Folge der gesteigerten Bedrohungswahrnehmung und dem damit verbundenen Zeitdruck brannten bei den verantwortlichen Operateuren die Sicherungen durch. In seiner Entscheidung hing Kapitän Rogers ab von den Informationen des neuen und noch unerfahrenen Kommandanten für die Luftkriegsführung (Anti-Air Warfare Commander, AAWC). Dieser verließ sich jedoch in der kritischen Phase auf das Urteil des jüngeren Tactical Information Coordinator (TIC), der lautstark auf seine Interpretation der Situation aufmerksam machte. Statt dies, wie im Training eingeübt, durch sorgfältige Auswertung der verfügbaren Information nachzuprüfen, vertrauten die beteiligten Personen auf den ersten Eindruck und verschwendeten ihre Zeit mit erfolglosen Warnsignalen an das Flugzeug.

Aus der Darstellung wird bereits deutlich, daß das Unglück nicht durch einen einzigen technischen oder menschlichen Fehler verursacht wurde, sondern auf eine Verkettung mehrerer miteinander gekoppelter Faktoren zurückzuführen ist:

  • Die Erinnerung an den Verlust der USS Stark führte zu einer gegenteiligen Fehlreaktion. Während diese eine notwendige Handlung unterließ (Fehler vom Typ I), führte die Vincennes die entsprechende Handlung fälschlicherweise durch (Fehler vom Typ II).15
  • Da zur Effektivitätssteigerung die Vincennes zugleich als Sensor und Waffenträger agierte, waren Lagebeurteilung und Gefahrenabwehr in denselben Händen. Durch die räumliche Nähe und das gegenseitige Aufeinanderverlassen war die Einschätzung der Operateure sehr eng aneinander gekoppelt und somit fast identisch. Für den Kapitän, der von anderen Informationsquellen praktisch abgeschnitten war, gab es keine weitere Instanz, um die Lagebeurteilung nachzuprüfen. Seine Entscheidung war innerhalb des Systems »korrekt«.
  • Das Aegis-System enthält zahlreiche vorprogrammierte und eingeübte Verhaltensmuster, die auf die Optimierung der Reaktionszeit bei einem Angriff abzielen, weniger jedoch auf die Vermeidung von Unfällen. In einer Krise, verbunden mit Stress und Zeitdruck, tendiert die Bedienungsmannschaft dazu, die eingeübten Szenarien auszuführen, in denen unvorhergesehene Ereignisse keinen Platz haben.16 Da Menschen Teil der ablaufenden Maschinerie werden, nützt auch die Regel wenig, daß Menschen die letzte Entscheidung fällen sollen (Man-in-the-Loop).
  • Die Bedrohungswahrnehmungen der beiden kriegführenden Parteien waren über die allseits gerühmte Effizienz des Aegis-Systems gekoppelt: die Mannschaft der Vincennes kannte die von ihr ausgehende Bedrohung für den Iran, wodurch ein iranischer Angriff durchaus plausibel wirkte. Vielleicht vermutete sie in den widersprüchlichen Meldungen über das unbekannte Flugzeug sogar eine Hinterlist des Iran, der parallel zum Seegefecht versuchte, den Aegis-Abwehrriegel zu durchdringen, was wiederum nur durch unbeirrtes Festhalten an der »richtigen« ersten Einschätzung zu verhindern war.
  • Offensichtlich schenkten die Operateure dem eigenen »natürlichen« Instinkt und den daraus abgeleiteten plausiblen Bildern und einfachen Verhaltensmustern mehr Vertrauen als den »künstlichen« technischen Hilfsmitteln. Diese hatten von der Realität letztlich nicht mehr zu bieten als unvollständige Radardaten, aus denen sich nicht einmal der visuell direkt erkennbare Unterschied zwischen einem Airbus und einer erheblich kleineren F-14 ablesen ließ. Der Entscheidungsdruck durch die vermeintliche Bedrohung überforderte das Wahrnehmungsvermögen und die Reaktionsfähigkeit der Operateure, so daß ein vereinfachendes Bild der Wirklichkeit erzeugt wurde (Darstellungsfehler) und widersprüchliche Informationen nicht weiter integriert wurden (selbsterfüllende Prophezeiung).17
  • Der Fogarty-Untersuchungsbericht des Zwischenfalls formulierte den letzten kritischen Punkt so: „Der TIC scheint den Datenfluß unbewußt so verzerrt zu haben, daß er ein vorgefaßtes Szenario bestätigte“. 18 Die ausgesprochene Entschuldigung, das Versagen sei durch die besondere Streß-Situation der Mannschaft zu erklären, ist wenig überzeugend, da ein System wie Aegis ja gerade für Krisen und Kriege entwickelt wurde, in denen Verwirrung, Unsicherheit und Streß die Regel sind. Folgt man der Logik, müßten auch die von solchen Systemen ausgelösten Katastrophen »normal« sein.

Statt diese Problematik zu thematisieren, schlug der Fogarty-Bericht eine Anpassung der menschlichen Benutzer im Sinne einer Selektion vor: „Da es scheint, daß der durch das Gefecht bewirkte Streß auf das Personal einen signifikanten Einfluß auf dieses Ereignis hatte, wird dem CNO [Chief of Naval Operations] die Durchführung einer weiteren Studie über Stressfaktoren bei Personal in modernen Kampfschiffen mit hochentwickelten Führungs- und Kommunikationssystemen wie Aegis vorgeschlagen. Diese Studie sollte auch die Möglichkeit behandeln, ein psychologisches Profil für Personal einzuführen, das in dieser Umgebung funktionieren muß.“ 19

Der Problematik angemessener wäre der Vorschlag gewesen, das Aegis-System neu zu überdenken und gegebenenfalls den menschlichen Verhaltensweisen anzupassen, auch wenn damit hohe Kosten und Effektivitätseinbußen verbunden gewesen wären. Der beschriebene Unglücksfall belegt auf anschauliche Weise, daß ein komplexes System wie Vincennes/Aegis insgesamt versagen kann (Systemfehler), ohne daß ein individueller Fehler vorliegt. Vergleichbare Probleme können auch bei anderen Systemen im C³I-Bereich auftreten.

(Fortsetzung in Heft 1/91: Das FOFA-Konzept und das C³I-System der NATO; AWACS; JSTARS)

Literatur

B.G. Blair, Henry W. Kendall, Accidental Nuclear War, »Scientific American«, Vol. 263, No. 6, December 1990, S. 55-60
The C³I Handbook, Third Edition 1988, Palo Alto
J. Grin, Command and Control: Force Multiplier or Achilles' Heel?, »Defense Analysis«, Vol. 5, No. 1, 1989, S. 61-76
J. Grin, Military-Technological Choices and Political Implications. Command and Control in Established NATO Posture and a Non-Provocative Defence, Amsterdam: VU University Press, 1990
J. Horgan, Airbus-Abschuß durch die `Vincennes': eine Lehre für SDI?, »Spektrum der Wissenschaft«, Oktober 1988, S. 41-46.
A. Kuhlmann, Einführung in die Sicherheitswissenschaft, Köln: Verlag TÜV Rheinland, 1981
W. Mohr, Tiefflugübungen – programmiertes menschliches Versagen?, »Spektrum der Wissenschaft«, April 1989, S. 24-34
J. Nietzsch, Risikoproblematik moderner Waffensysteme – Modellfall SDI, »Informationsdienst Wissenschaft und Frieden«, 3/1987, S. 15-18
R. Nikutta, Artificial intelligence and the automated battlefield, in: A. Din (Hrsg.), Arms and Artificial Intelligence, Oxford University Press, 1987, S. 100-134
Office of Technology Assessment, New Technologies for NATO: Implementing Follow-On Forces Attack, OTA-ISC-309, Washington, D.C.: Government Printing Office, 1987
Office of Technology Assessment, SDI – Technology, Survivability and Software, Washington, D.C.: Government Printing Office, OTA-ISC-353, May 1988
D.L. Parnas, Software Aspects of Strategic Defense Systems, »American Scientist«, September/October 1985, pp. 432-440
C. Perrow, Normale Katastrophen: Die unvermeidbaren Risiken der Großtechnik, Campus, 1987
H.J. Rassow, Risiken der Kernenergie, Weinheim, 1988
B. Rauschenbach, Das `Sternenkriegs'-Programm und die Möglichkeiten des unbeabsichtigten Beginns eines Kernwaffenkonflikts, »Informationsdienst Wissenschaft und Frieden«, 1/87, S. 21-25
W.D. Rowe, An Anatomy of Risk, John Wiley, 1977, Reprint Edition 1988 by Krieger Publishing
G.I. Rochlin, Iran Air Flight 655 and the USS Vincennes – Complex, Large-Scale Military Systems and the Failure of Control, University of Berkeley: Institute of Governmental Studies, Energy and Resources Group, June 14, 1989
UCS, Command and Control of Strategic Forces, »Union of Concerned Scientists Briefing Paper«, Cambridge, MA, February 1987
H. van Trees, C³ Systems Research: A Decade of Progress, in: S.E. Johnson, A.H. Levis, Science of Command and Control, Part II, AFCEA International Press, 1989, S. 24–44
J. Winkelmann, Joint STARS für die Verifikation?, »Wehrtechnik«, Oktober 1990, S. 79-80

Anmerkungen

1) So spielten die Risiken der Militärtechnik auf dem 1. Weltkongreß der Sicherheitswissenschaft in Köln vom 24.-26. September 1990 keine Rolle. Zurück

2) Siehe die entsprechenden Erklärungen der Naturwissenschaftler-Initiative Verantwortung für den Frieden. Zurück

3) Häufig wird, je nachdem welche Funktionen gemeint sind, auch nur von C³ oder C² gesprochen. Zurück

4) Die darin ausgedrückte Ambivalenz von C³I wird von Grin (1989) angesprochen. Zurück

5) Mit dieser banal klingenden Aussage faßte Harry van Trees 1989 die Ergebnisse der zehnjährigen Versuche zusammen, eine übergreifende C³I-Theorie zu entwickeln. Siehe Van Trees (1989). Zurück

6) Siehe etwa Rowe (1977), Kuhlmann (1981), Rassow (1988) Zurück

7) Aus dem Vorwort Klaus Traubes zur deutschen Ausgabe (Perrow 1987, S. X). Zurück

8) Perrow 1987, S. 325 Zurück

9) Perrow 1987, S. 354 Zurück

10) Perrow 1987, S. 358 Zurück

11) Für JSTARS siehe Winkelmann (1990). Die Bedeutung mehrerer C³I-Komponenten, darunter JSTARS und AWACS, im Rahmen der europäischen Abrüstungsverhandlungen (Open Sky) wurde am 26. und 27. November 1990 auf einer von der NATO-unterstützten Tagung in Brüssel diskutiert. Zurück

12) OTA (1988), S. 243 Zurück

13) Siehe die Diskussion in Horgan 1988 Zurück

14) Die Darstellung stützt sich weitgehend auf Rochlin 1989. Details basieren auf dem »Fogarty-Bericht«, der den Zwischenfall untersuchte: Report of the Formal Investigation into the Circumstances Surrounding the Downing of Iran Air Flight 655 on 3 July 1988, Washington, D.C.: US Department of Defense, 28 July 1988. Zurück

15) Eine solche Unterscheidung ist in der Zuverlässigkeitstheorie üblich. Zurück

16) Rochlin (1989), S. 16. Zurück

17) Rochlin (1989) vergleicht dieses geistige Bild, das den Informationsfluß ordnet und Entscheidungen ermöglicht, mit einer »Blase« (engl. bubble). Der Verlust dieser Bewußtseinsblase in einer kritischen Situation kann zum völligen Verlust der Kontrolle führen. Zurück

18) Nach Rochlin (1989), S. 11 Zurück

19) Nach Rochlin (1989), S. 12 Zurück

Dr. Jürgen Scheffran ist Physiker an der TH Darmstadt und Mitarbeiter der Interdisziplinären Arbeitsgruppe Naturwissenschaft, Technik und Sicherheitspolitik (IANUS)

erschienen in: Wissenschaft & Frieden 1990/3 Die Krise am Golf, Seite