Künstliche Gehirne für den Krieg?

Künstliche Gehirne für den Krieg?

Zivil-militärische Verflechtungen in der Neuroinformatik

von Markus Jathe • Jürgen Scheffran

In Absprache mit der Bundeswehr in Koblenz und dem französischen Verteidigungsministerium veranstaltete das Deutsch-Französische Forschungsinstitut St. Louis (ISL) am 1. und 2. Juli dieses Jahres einen Workshop über den Einsatz künstlicher Neuronaler Netze in der Wehrtechnik und -forschung.
In möglichst lockerem Rahmen sollten Kontakte zwischen den französischen und deutschen Gruppen und Forschern hergestellt werden, die z.T. an sehr ähnlichen Problemen arbeiten. Das ISL, das seit über 30 Jahren binational auf dem Gebiet der Wehrforschung tätig ist, beschäftigt sich seit Anfang 1992 in einer kleinen Arbeitsgruppe (2-3 Personen) mit der Anwendung Neuronaler Netze auf Probleme der Bildauswertung und -Erkennung. Militärische Zielsetzungen sind dabei inbegriffen. In diesem Beitrag, der auf einer umfangreichen Studie der Autoren basiert1, wird ein Überblick über zivile und militärische Anwendungsfelder Neuronaler Netze gegeben und auf mögliche Folgen hingewiesen. Abschließend folgen einige Ergebnisse des ISL-Workshops.

Was sind Neuronale Netze?

Künstliche Neuronale Netzwerke (Artificial Neural Networks, ANNs) sind den Gehirnstrukturen nachempfundene Informationsverarbeitungssysteme, in denen viele parallel verbundene Einzelprozessoren (Knoten, Neuronen) miteinander wechselwirken. Anhänger der »konnektionistischen Revolution«, die durch Neuronale Netze erwartet wird, machen einen Paradigmenwechsel geltend, der einer grundlegenden Abkehr vom bisherigen Computerprinzip entspricht. Im Unterschied zu den herkömmlichen seriellen von-Neumann-Computern sollen Neurocomputer, nach dem Vorbild des Gehirns, parallel arbeiten, trainierbar, lernfähig und fehlertolerant sein. Maschinen, die sehen, hören, denken, vielleicht sogar fühlen wie Menschen, werden in Aussicht gestellt.

Ein Neuronales Netz ist gekennzeichnet durch seine Verbindungsstruktur (Netztopologie), durch die Festlegung von Netzknoten als Schnittstelle zur Umwelt des Netzes (Ein- und Ausgänge), durch die Art, wie ein Knoten seinen Zustand ändert (Knotendynamik) und den Anpassungsmechanismus von Gewichten und Schwellwerten an Problemstellungen (Lernalgorithmus). Durch Kombination der verschiedenen Unterscheidungskriterien lassen sich eine Vielzahl von Netzwerktypen erzeugen.

Ein beträchtlicher Teil der Anwendungen Neuronaler Netze existierte bislang lediglich als Software-Simulation auf herkömmlichen sequentiellen Rechnern, wobei die Leistungsfähigkeit der Parallelität nicht ausgenutzt wird. In wachsendem Maße wird dazu übergegangen, die biologischen Vorbilder in Form einer Hardware-Implementierung zu nutzen, wobei zwischen digitalen, analogen oder optischen Verfahren unterschieden wird. Dabei müssen verschiedene praktische Schwierigkeiten bewältigt werden, z.B. die von der Struktur des Wissens abhängige möglichst günstige Lernregel, der aufgabenspezifische Grad notwendiger Parallelität, die Kaskadierung von Assoziativspeichern und der Zusammenhang von Netzstruktur und Konvergenz des darin realisierten Lernprozesses.

Darüber hinaus gibt es theoretische Defizite, die zum Teil grundsätzlicher Natur sind. Probleme der Komplexitätstheorie, insbesondere der für einige Optimierungsprobleme exponentiell anwachsende Zeitaufwand, lassen sich auch durch Neuronale Netze nicht lösen. Bei größeren Netzen verlängern sich die Trainingszeiten erheblich. Das Zusammenwirken vieler Neuronen in einem Netz entzieht sich weitgehend einer analytischen Beschreibung. Dies macht ihr Verhalten für Menschen schwer verständlich, prüfbar oder vorhersagbar, besonders bei unvorhergesehenen und unbekannten Eingabemustern, die außerhalb der normalen Spezifikation liegen. Die mangelnde Transparenz Neuronaler Netze macht es schwierig, ein Ergebnis aufgrund der Verarbeitungsschritte zu verifizieren. Die Integration verschiedener menschlicher Intelligenzleistungen (Planen, Begriffs-, Urteils- und Theorienbildung, Abstraktionsvermögen, Intuition, Spontaneität, Kreativität), die den »gesunden Menschenverstand« ausmachen, dürfte auch bei Neuronalen Netzen erhebliche Schwierigkeiten bereiten bzw. nicht realisierbar sein.

Ein breites Anwendungspotential

Verschiedene Motivationen zur Untersuchung und zum Einsatz Neuronaler Netze ergeben sich aus der Grundlagenforschung, den Grenzen herkömmlicher Computer (Softwarekrise) und dem erwarteten breiten Anwendungspotential. Durch den Anspruch, menschliche Sinnes- und Denkprozesse nachzubilden, eröffnen Neuronale Netze ein weites Feld möglicher Anwendungen im zivilen und militärischen Sektor, das von der Mustererkennung, -klassifizierung und -synthese (visuell, akustisch) über die Signalverarbeitung bis zur Robotik, Prozeßkontrolle und der Lösung von Optimierungsproblemen reicht (siehe Kasten 1). Die Anwendbarkeit ergibt sich überall dort, wo die Stärken Neuronaler Netze mit den Schwächen herkömmlicher Systeme korrelieren. Zwar kann die grundlegende Funktionsweise von Neuronalen Netzen bereits auf seriellen von-Neumann-Rechnern simuliert werden, doch bringt die Hardware-Implementation erhebliche Vorteile hinsichtlich des Zeitgewinns.

Während die ersten Anwendungen Neuronaler Netze eher Nischencharakter hatten, ist mit zunehmender Hardwareintegration eine große Zahl von Anwendungsbeispielen zutage getreten. Neben der reinen Hirnforschung gehört der Bereich der Medizin sicherlich zu den ersten Anwendern (Klassifizierung von biologischen Zellen, Herztöne, Atmungsüberwachung, Diagnose und OP-Planung). Weiterhin sind zahlreiche Anwendungen in der Forschung denkbar (Klassifizierung von Mustern und Signalen, Elementarteilchensuche, Automatisierung von Such- und Mustererkennungsprozessen).

Weitere potentielle Anwender von Neuronalen Netzen im zivilen Bereich sind Industrie (z.B. Atomenergie, Automobilhersteller, Pharmazie), Post, Fluggesellschaften, Touristikunternehmen, Handel, Banken, Versicherungen. Das größte Anwendungsfeld tut sich wohl in der Industrie auf (Bildverarbeitung, Kapazitätsauslastung, Materialauswahl, Mitarbeiterauswahl, Optimierung, Qualitätskontrolle, Robotersteuerung, Sortierung, Steuerungskontrolle). Weiterhin gibt es existierende Einsatzbeispiele im Marketing (Erkennen von Mustern in Dateien, Zielgruppenbestimmung), im Finanzwesen (Bonitätsvorhersage, Buchstaben-, Unterschriftenerkennung, Schätzungen, Verkaufsvorhersage, Wertpapierauswahl), der Künstlichen Intelligenz (KI), der Telekommunikation, und im öffentlichen Dienst (Postleitzahlenidentifizierung, automatische Verarbeitung von Formularen, Aufarbeitung von Datenerhebungen).

Vor dem Einsatz Neuronaler Netze stellen sich Fragen nach dem Sinn, der Machbarkeit und Leistungsfähigkeit sowie der Kosten-Nutzen-Relation verglichen mit Alternativen. In einigen Anwendungsbereichen existieren bereits bewährte Verfahren, etwa aus der Optimierungs- und Kontrolltheorie, der Signalverarbeitung, der Kommunikations- und Informationstheorie, der Künstlichen Intelligenz (KI) und dem neuen Bereich der genetischen Algorithmen. Trotz erstaunlicher Erfolge neuer Konzepte haben sich Neuronale Netze nicht in allen Bereichen bisher als leistungsfähiger erwiesen als alternative Verfahren. Die anfängliche Euphorie über scheinbar unbegrenzte Möglichkeiten ist einer zeitweisen Ernüchterung über den tatsächlichen praktischen Nutzen gewichen. Zum gegenwärtigen Zeitpunkt kann keine umfassende realistische Einschätzung darüber gegeben werden, welche Anwendungen langfristig erfolgversprechend sind.

Ein wachsender Markt für Neuroinformatik?

Neuronale Netzwerk-Programme laufen bei praktisch allen größeren und auch rüstungsrelevanten Firmen. 1990 waren weltweit etwa 300 Firmen auf dem Neurocomputersektor aktiv, davon 130 in den USA, 100 in Japan und 40 in Europa. In Europa gibt es ferner ca. 200 Universitäten und Forschungszentren, die an Neuronalen Netzen forschen. Nach einer Einschätzung einer vom BMFT eingesetzten Kommission aus dem Jahr 1991 sind weltweit nahezu 10.000 Wissenschaftler auf dem Gebiet der Neuroinformatik tätig. Marvin Minsky, einer der führenden Neuro-Wissenschaftler, schätzt diese Zahl sogar auf 50.000. Allgemein wird damit gerechnet, daß auf dem stark expandierenden Neurocomputer-Markt sehr viel Geld zu verdienen sein wird. Lagen 1987 die Umsätze in den USA noch bei weniger als 5 Millionen Dollar, so wird für das Jahr 2000 mit einer Umsatzsteigerung auf bis zu 1 Mrd. Dollar gerechnet. Das Wechselspiel der Interessen und Triebkräfte wurde wie folgt beschrieben: „Die wesentlichen Triebkräfte dieser Märkte sind kompetente und erfolgreiche Systemhäuser aus den USA, potente und einflußreiche Kunden, eine beachtliche Investitionsbereitschaft in den USA, in Japan und Europa, neue Anwendungspotentiale, enorme Erwartungen an das Marktvolumen und ein verstärkter Wettbewerbsdruck durch den für 1992 angestrebten Binnenmarkt.“ 2

Während in Europa, anders als in den USA, militärische Interessen bei der Entwicklung Neuronaler Netze bislang nicht so deutlich in Erscheinung traten, ist der Zwang zur Kommerzialisierung offensichtlich. Neben dem verschärften Konkurrenzdruck ist aber auch eine Tendenz zur Kooperation zu beobachten (etwa in Form von Joint Ventures), die zum Teil bedingt ist durch wachsende Komplexität und Kosten der Hochtechnologie-Entwicklung.

Auf Grund von Querelen innerhalb der International Neural Network Society (INNS) wurde am 17. Juni 1990 auf einem Initialtreffen die Gründung einer von europäischen Organisatoren getragenen Konferenz unter dem Namen JENNI (Joint European Neural Network Initiative) beschlossen. Die daraus hervorgegangene JENNI-Gesellschaft fungiert zugleich als Holding der European Neural Network Society (ENNS). Ein großer Teil der gemeinschaftlichen Neuroinformatik-Forschung in Europa wird im Rahmen des EG-Programms ESPRIT II (European Strategic Program for Research in Information Technology) betrieben. Zu nennen sind insbesondere die folgenden Projekte:

  • PYGMALION strebt die Entwicklung eines europäischen Standards für Programmierung und Simulation von Neuronalen Netzen an. Anwendungsbereiche umfassen Bildverarbeitung, Sprachverarbeitung und akustische Signalklassifikation. Schließlich ist die Entwicklung eines europäischen parallelen Mehrzweck-Neurocomputers mit eingeschlossen. Das seit Januar 1989 betriebene Programm hatte für die ersten beiden Jahre einen Etat von 10 Mio. DM. Beteiligt sind die Firmen Thomson-CSF, SEL Alcatel, Philipps, Olivetti sowie sechs Universitäten. Das Pygmalion-Nachfolgeprojekt heißt GALATEA.
  • ANNIE (Anwendungen Neuronaler Netze für die Industrie in Europa) soll eine sichere Fertigungs- und Überwachungstechnologie für die Atomindustrie entwickeln. Die Fördersumme beträgt 10,3 Mio. DM, von denen Siemens etwa 1,8 Mio. DM investiert. Beteiligt sind die britische Atomenergiebehörde UKAEA Harwell, Siemens KWU, KPMG Peat Marwick, IBP Pietzsch GmbH, British Aerospace, Artificial Intelligence Ltd., CETIM, Alpha SAI.
  • DEANNA (Data-Base for European Neural Network Activity) ist eine Datenbank, die unter der Federführung von JENNI bis Anfang 1992 alle verfügbaren europäischen Aktivitäten zu Neuronalen Netzen erfaßt hat. Als Partner wurden benannt: IBP Pietzsch (Ettlingen), DIDA EL (Mailand), Software DeBASE (Madrid).3
  • Auch im Mikroelektronik-Programm JESSI (Joint European Submicron Silicon) ist die Untersuchung von Anwendungsmöglichkeiten für Neuronale Netze vorgesehen.

Während in der Bundesrepublik Deutschland bis zu den frühen achtziger Jahren grundlegende Forschungen zu Neuronalen Netzen lediglich vereinzelt betrieben wurden, ist seit wenigen Jahren eine starke Zunahme von Forschungsprogrammen zu verzeichnen. Ende der achtziger Jahre arbeiteten einige hundert Wissenschaftler an Problemen der Neuroinformatik (mit steigender Tendenz), davon der größte Teil im universitären Bereich. Von den neueren nationalen Projekten und Forschungsgruppen sollen hier nur das DFG-Schwerpunktprogramm „Physiologie und Theorie neuronaler Netzwerke“ sowie 10 Verbundvorhaben des BMFT mit 40 Forschungsgruppen erwähnt werden, darunter das Programm „Informationsverarbeitung in Neuronaler Architektur“ (INA), das in der ersten Phase mehr als 10 Mio. DM erhielt.

Nicht nur Großunternehmen arbeiten an Neuroinformatiksystemen, sondern auch eine Reihe von klein- und mittelständischen Unternehmen, die an ausgewählten Fragestellungen zur Anwendung mitarbeiten. Mehrere Firmen führen größere Programme zu Neuronalen Netzen durch (z.B. Daimler-Benz, Dornier, Krupp-Atlas, SEL, Siemens). Die umfangreichsten Aktivitäten entfaltet die Firma Siemens, die als Systemhaus und Informationstechnik(IT)-Anwender an europäischen Programmen (ANNIE, JESSI) ebenso mitwirkt wie am INA-Projekt des BMFT.

Japan verfährt ähnlich wie beim Programm zur Entwicklung von Computern der fünften Generation, das 1992 ohne die erhofften Ergebnisse ausläuft. Unter dem Kürzel NIPT (New Information Processing Technology) wird ein ehrgeiziges Programm zur Entwicklung der sechsten Computergeneration nach biologischen Vorbildern aufgelegt.

Gesellschaftliche Folgen

Bis etwa Mitte der achtziger Jahre war die Forschung an Neuronalen Netzen überwiegend von der wissenschaftlichen Eigendynamik bestimmt. Theoretisch orientierte Grundlagenforschung und fachliche Fragen hinsichtlich der praktischen Realisierbarkeit verschiedener Modelle standen im Vordergrund. Der finanzielle Umfang der Projekte war dementsprechend gering. Erst seit wenigen Jahren geraten Neuronale Netze zunehmend in das Spannungsfeld wirtschaftlicher, politischer und militärischer Interessen. Entwicklung und Einsatz dieser neuen Technologie sind daher zunehmend ähnlichen Triebkräften und Entscheidungsprozessen unterworfen wie andere Bereiche der gegenwärtigen Hochtechnologie-Entwicklung auch.

Die gesellschaftliche Diskussion über Neuronale Netze ist eng verknüpft mit der Auseinandersetzung über die KI, deren einstmals spektakuläre Ansprüche und Erwartungen bislang nicht erfüllt wurden. Trotz großer Unsicherheiten sollte mit einer Abschätzung der gesellschaftlichen Auswirkungen nicht gewartet werden, bis vollendete Tatsachen geschaffen wurden.4

Problemfelder betreffen die Übertragung der Entscheidungskompetenz vom Menschen auf wenig transparente Neuronale Netze, besonders wenn es sich um risikobehaftete Systeme im militärischen, medizinischen oder industriellen Bereich (Chemiefabriken, Atomkraftwerke) handelt, sowie eine zentrale Überwachung und Steuerung der gesellschaftlichen Informationsflüsse durch Neuronale Netze. Eine weitreichende Auswirkung wäre die tiefgreifende Umgestaltung des Arbeitslebens, besonders der Verlust von Arbeitsplätzen durch Neurocomputer und Neuro-Roboter. Werden künstliche und natürliche Neuronale Netze in einen Topf geworfen, erscheint der Gedanke nicht mehr weit, geistige und sensorische Körperleistungen künstlich zu simulieren, um »Hirndefekte« zu beheben oder geistige Leistungen zu vervollkommnen.

Folgt man den an die Frühphase der KI erinnernden Hoffnungen einiger Neuro-Enthusiasten, bieten sich Neuronale Netze als »Intelligenz-Verstärker« zur Lösung von Menschheitsproblemen geradezu an: „Gerade in der Phase, in der es auf der Erde gefährlich eng, gefährlich schmutzig und lebensgefährlich wird, schafft die Menschheit leistungsfähige Technologien, um komplexe Systeme in den Griff zu bekommen und das eigene Bewußtsein von einer regionalen auf eine globale, oder sogar eine extraterrestrische Perspektive neu anzupassen.“ 5

Als Ausweg zur Lösung der globalen Probleme wird folgerichtig das Bild einer weltumspannenden Neuromaschine entworfen, die lernfähige High-Performance-Computer mit einem Satelliten-System koppelt, um Wettervorhersage, Hydrologie, Ressourcen-Überwachung sowie die Beobachtung von Ozon-Verteilung, Smog-Bildung und Verkehrsströmen betreiben zu können. Als erwünschter Nebeneffekt wird eine erhebliche Akzeptanz-Verbesserung der Computer- und Raumfahrt-Technologien erwartet. Derartig technikzentrierte Ansätze übersehen häufig, daß die Weltentwicklung derzeit weniger an einem Mangel an »künstlicher« Intelligenz krankt als vielmehr an einem Mangel an politischem Willen, um verkrustete Interessensstrukturen aufzubrechen und kooperative Lösungen zu finden. Gerade der Mythos der Wettbewerbsfähigkeit im Konkurrenzkampf der drei westlichen Zentren, der nun auch bei Neuronalen Netzen ins Spiel kommt, dürfte einen beträchtlichen Anteil an den globalen Problemen haben, da er einen schonungslosen Umgang mit den Naturressourcen befördert. In noch stärkerem Maße gilt dies für Rüstung und Krieg.

Militärische Relevanz

Mit dem Anspruch, menschliche Denkleistungen nachzuahmen, eröffnen Neuronale Netze auch im militärischen Sektor ein weites Feld möglicher Anwendungen überall dort, wo von Rüstung »intelligentes« Verhalten erwartet wird. Ein Rüstungsforscher stellt fest: „Jeder Prozeß, der besser von einem menschlichen oder tierischen Gehirn als von einem Computer ausgeführt wird, ist ein potentielles Einsatzfeld für Neuronale Netze“.6 Zwar wird der Mensch bei wichtigen Tätigkeiten und Entscheidungen als unersetzbar angesehen, doch gebe es besonders im militärischen Bereich Umgebungen, in denen Menschen nicht operieren können oder menschliche »Schwächen« wie Ermüdbarkeit und Unachtsamkeit zum Tragen kommen. Für die zunehmende Automatisierung und Computerisierung des Gefechtsfeldes wurden verschiedene Argumente herangezogen, z.B. die sinkende Zahl von Wehrpflichtigen, das begrenzte Budget zur Aufrechterhaltung der Abschreckung, oder die Verantwortungslosigkeit, dem einzelnen Soldaten technologisch veraltete Waffen zu geben. Es sei unmoralisch bzw. unsozial, eine ineffiziente Rüstung zu betreiben, die mehr Mittel als notwendig bindet. Demgegenüber sollen in Zukunft verstärkt Kampfroboter eingesetzt werden, die moralisch gerechtfertigt seien, da sie Menschen auf dem Gefechtsfeld ersetzten.

Aus derartigen Überlegungen ergibt sich ein möglicher Einsatz für Neuronale Netze. Diese setzen einen Trend fort, der seit Jahrzehnten die rüstungstechnische Entwicklung bestimmt hat: die qualitative, von technologischen Faktoren bestimmte Rüstungsdynamik, die die gesamte hochtechnische Entwicklung einbezieht. Zentrale Bedeutung für praktisch alle rüstungsrelevanten Technologiefelder haben Fortschritte im Bereich der Mikroelektronik und Computertechnik, einschließlich der zugehörigen Software. Mittlerweile ist der Computer zum beherrschenden Element der elektronischen Schlachtfelder geworden, im Golfkrieg wurde der Mikrochip gar als Gewinner des Krieges gepriesen.

Expertensysteme und Künstliche Intelligenz (KI) hatten zu Beginn der achtziger Jahre außerordentliche Konjunktur, werden allerdings bei militärischen Entscheidungsträgern wegen ihrer Undurchschaubarkeit noch mit einer gewissen Skepsis aufgenommen. Sie wurden daher v.a. in den Bereichen eingesetzt, die nicht zeitkritisch sind (z.B. Entwurf und Planung von Systemen, Interpretation und Vorhersage von Ereignissen, für die Überwachung und Kontrolle von Prozessen, zur Entdeckung und Einordnung von Anlagenfehlern (Diagnose)). Im Rahmen der Strategic Computing Initiative (SCI) der USA wurden drei Anwendungsprogramme ausgeschrieben: das fahrerlose Landfahrzeug (Heer), der autonome Pilotenassistent (Luftwaffe) und das seegestützte Kampfführungssystem für Flugzeugträger (Marine). Die dadurch definierten Zielsetzungen wurden auch zum Maßstab für Neuronale Netze, die sich zunehmend als Ergänzung bzw. Alternative der KI im Rüstungsbereich anbieten. Folgende Anwendungsbereiche kommen hier besonders in Frage:

1. Autonome Raketensteuerung und nichtkooperative Zielerkennung in Echtzeit.

2. Gefechtsfeld-Simulation, Training und Prozeßkontrolle.

3. Militärische Expertensysteme zur Entscheidungsunterstützung im Krieg oder in der Krise.

4. Integrierte Sensorsysteme für Aufklärung, Überwachung und Verifikation.

5. Elektronische Kriegsführung.

Im »Critical Technologies Plan«, den das US-Verteidigungsministerium (Department of Defense, DoD) seit 1989 veröffentlicht, werden etwa 20 Technologiefelder auf ihre militärische Relevanz durchleuchtet. Die für Neuronale Netze relevanten Technologien sind nicht in einem einzelnen Feld zusammengefaßt, sondern auf verschiedene Bereiche verteilt (v.a. Parallelcomputer-Architektur, Maschinen-Intelligenz und Robotik, Signalsteuerung, Datenfusion) und mehreren Zielsetzungen für die Anwendung zugeordnet. In erster Linie erhofft sich der Bericht von Neuronalen Netzen einen Durchbruch als Kräftevervielfacher (Force Multiplier) in intelligenten Waffensystemen (smart weapons), Überwachungssystemen, sowie Befehls- und Führungssystemen (C3I: command, control, communication and intelligence). Weitere Anwendungsbereiche betreffen die Entdeckung von U-Booten oder Torpedo-Abschüssen, die Klassifizierung von Sendern in der elektronischen Kriegführung, autonom gelenkte Raketen, die Unterscheidung zwischen wirklichen Zielen und Attrappen, Stimm- und Spracherkennungssysteme zur Entlastung von Kampfpiloten, Entscheidungshilfen in C3I-Systemen. In vielen Anwendungsbereichen ist die Lokalisierung, Identifizierung und Verfolgung mobiler Ziele durch Neuronale Netze bedeutsam.

Am ausführlichsten untersucht wurde das militärische Anwendungspotential Neuronaler Netze in einer 1988 fertiggestellten Studie der Defense Advanced Research Projects Agency (DARPA), die sich in den USA als treibende Kraft bei der militärischen Nutzung etablierte.7 Unter Beteiligung der meisten in den USA führenden Experten im Bereich Neuronale Netze gibt die als Empfehlung für zukünftige Förderung gedachte Studie einen Überblick über die theoretischen Grundlagen, technischen Voraussetzungen und Anwendungsmöglichkeiten. Der Schwerpunkt militärischer Anwendungen dürfte in der Echtzeit-Mustererkennung für zielgenaue selbstlenkende Flugkörper liegen, die als »intelligente Waffen« im Golfkrieg tödliche Triumphe feierten. Das SDI-Programm der USA zur Entwicklung eines Raketenabwehrsystems wird ebenso als geeignetes Testfeld für Neurocomputer angesehen wie die akustische U-Boot-Erkennung und intelligente Seeminen (siehe Kasten 2). In einer DARPA-Umfrage bezeichneten 45 % (der größte Block) von 40 Neurocomputer-Experten militärische C3I-Systeme als »den vielversprechendsten Sektor für die Neuronalen-Netz-Anwendung in den nächsten 25 Jahren«.

Unter anderem wird in der DARPA-Studie empfohlen, interdisziplinäre Kooperation und Basisforschung anstelle großdimensionierter Demonstrationsprojekte zu fördern, sowie die Entwicklung von verbesserten Lernalgorithmen und theoretischen Arbeiten zu motivieren, besonders im Bereich der visuellen Wahrnehmung, bei der Sprachverarbeitung und der Robotersteuerung. Dabei wird eine massive Parallelität angestrebt, um z. B. zu Verarbeitungsleistungen von 50.000 Wörtern in Echtzeit zu gelangen, wie es beim Menschen der Fall ist.

Ambivalenz und Dual-Use

Das Ende des Ost-West-Konflikts und die Verknappung militärischer Ausgaben führen zu einer stärkeren Einbeziehung des zivilen Sektors in militärische Planungen, unter Ausnutzung der zivil-militärischen Doppelverwendbarkeit (Dual-Use) der Technik. Militärische Nutznießer versuchen, sich an die zivile Entwicklung anzuhängen bzw. diese durch geeignete Mittelvergabe und Festlegung von Anforderungsprofilen frühzeitig zu steuern. In der Bundesrepublik Deutschland sorgen Absprachen zwischen dem BMFT, dem Bundesminister für Verteidigung (BMVg) und anderen Ressorts (insbesondere dem Bundesminister für das Post- und Fernmeldewesen im Teilbereich Kommunikationstechnik) dafür, daß die militärischen Anforderungen in Forschungs- und Entwicklungs(F&E)-Programmen Berücksichtigung finden. Im „Zukunftskonzept Informationstechnik“ (ZKI) unter Federführung des BMFT und des Wirtschaftsministeriums wird die Förderungspolitik mit der Orientierung verknüpft, „militärische Forderungen bei zivilen Entwicklungen möglichst frühzeitig mitberücksichtigen zu lassen“, also die Technologieentwicklung so zu beeinflussen, daß der militärische Bedarf effektiver und effizienter (durch Dual-Use-Technologien) gedeckt werden kann. Mehr als jede zweite DM der etwa 1,8 Mrd. DM, die die Bundesregierung 1990 für Informationstechnik-F&E ausgab, war unmittelbar für militärische Zwecke bestimmt.

Da die Neuroinformatik noch im Anfangsstadium ihrer Entwicklung ist und die Ambivalenz in der Grundlagenforschung sehr hoch ist, kann der Entwicklungspfad zivil-militärisch hier nur schwer getrennt werden. Das impliziert, daß zahlreiche theoretische Ergebnisse auch im militärischen Bereich Verwendung finden. Das Schwergewicht lag bislang im zivil-kommerziellen Bereich, auch wenn militärische Fragestellungen häufig wie selbstverständlich involviert sind. Im konkreten Anwendungsstadium ist eine einfache Übertragbarkeit nicht ohne weiteres möglich, da ein Neuronales Netz oft auf eine spezifische Aufgabe hin konzipiert und optimiert wurde. Dies betrifft besonders die Zahl der Ein- und Ausgänge sowie die Verbindungsstruktur in den Schichten, die das Ergebnis eines langwierigen Lernprozesses ist. Generell kann, wie beim Menschen auch, gesagt werden, daß der Grad der zivil-militärischen Ambivalenz umso höher ist, je lernfähiger und flexibler das Neuronale Netz ist.

Sicherheitspolitische Folgen

Viele der genannten militärischen Anwendungen gelten nach der bisherigen Abschreckungsdoktrin als militärisch destabilisierend, da sie die Kriegführungsfähigkeit steigern und die Fähigkeit zum Gegenschlag unterhöhlen. Die Entwicklung kleiner, autonomer und billiger Waffen hat zudem einen anregenden Effekt auf das Wettrüsten und die Verbreitung (Proliferation) in Krisengebiete. Weitere Risiken ergeben sich durch eine Automatisierung der Entscheidungsfindung in der militärischen Kommando- und Kommunikations-Hierarchie durch Neuronale Netze, die für Entscheidungen über Krieg und Frieden wenig geeignet sind, da sie die Gefahr von (computer-bedingten) Fehlentscheidungen mit u. U. katastrophalen Folgen mit sich bringt. Besonders problematisch wäre die Übertragung der Befehlsgewalt an Neuronale Netze für den Fall eines Atomkrieges oder für die Raketenabwehr (SDI), wenn Entscheidungen in Sekunden oder Minuten getroffen werden müssen. Ob Neuronale Netze, in Konkurrenz zu bereits existierenden Verfahren, einen substantiellen Beitrag zur Überprüfung (Verifikation) von Abrüstungabkommen liefern können, ist fraglich. Vorschläge, diese zur Überprüfung eines vollständigen Teststop-Vertrages für Atombombentests einzusetzen, gibt es bereits.

Die meisten der genannten militärischen Anwendungsfelder sind noch Jahre von einer Realisierung entfernt, wenn auch einzelne Prototypen mit geringer Leistungsfähigkeit bereits erprobt werden (z.B. bei der Sonar-Zielerkennung). Von den 78 in der DARPA-Studie für relevant befundenen Anwendungen, die das Erprobungsstadium erreicht haben, arbeiteten alle auf PC's und nutzten keine spezielle Neuronale-Netze-Hardware. Der Zeitraum, bis zu dem autonome Systeme allein auf Grundlage Neuronaler Netze einsatzbereit sein können, wird in der DARPA-Studie auf mehr als 10 Jahre geschätzt. Es kann vermutet werden, daß militärische Entscheidungsträger wie schon bei der KI eine ähnliche Zurückhaltung auch bei der Einführung der Neuronalen Netze hegen werden. Dazu tragen auch die schon angesprochenen grundlegenden Probleme bei, die nur schwer zu beseitigen sind. Da es bewährte Standardverfahren bislang nicht gibt, sind auch die Rüstungsforscher nach wie vor auf Intuition und Einfallsreichtum angewiesen,

Ein Jahr nach der DARPA-Studie hat das US-Verteidigungsministerium die Ansicht geäußert, daß die Forschung zu Neuronalen Netzen „noch in einem sehr frühen Stadium“ sei. Auch bei der DARPA scheinen die ursprünglichen Erwartungen in das Anwendungspotential der Neuronalen Netze etwas gedämpft worden zu sein. Das 1988 mit einem Finanzumfang von etwa 400 Mio. Dollar auf fünf Jahre angelegte Forschungsprogramm wurde erheblich reduziert. Von den für 1990 geplanten 33 Mio. Dollar blieben nach dem Passieren der Bewilligungsausschüsse ganze 12 Mio. Dollar übrig. Dazu paßt, daß einige Akademiker Widerspruch gegen eine massive militärische Förderung von Neuronalen Netzen eingelegt hatten, um dem „guten Ruf der Neuronalen Netze nicht zu schaden“.

Bericht vom ISL-Workshop

Ob der eingangs erwähnte Workshop des deutsch-französischen Forschungsinstituts St. Louis zum Einsatz künstlicher Neuronaler Netze in der Wehrtechnik den guten Ruf verbessern konnte, darf bezweifelt werden. Die französische Dominanz bei dem Workshop war auffällig: 16 französische gegenüber 7 deutschen Gästen und 3 Mitarbeitern vom ISL. Als Schirmherr des Workshops und Verantwortlicher für das ISL fungierte ein hoher Beamter des französischen Verteidigungsministeriums (Herr Rouvillois). Es ist auffällig, daß große französische Rüstungsbetriebe personell vertreten waren (Thomson-CSF, Dassault Aviation, MS2i (ein Forschungszusammenschluß von Matra und SEP), Cap Gemini), und auch von französischen Universitäten Hochschullehrer gekommen waren, während auf deutscher Seite lediglich Prof. vom Stein von der Bundeswehruniversität in Hamburg anwesend war. Die Abwesenheit deutscher Neuroinformatik-Größen wurde denn auch in der Schlußrede von Rouvillois bedauert.

Das starke Engagment der französischen Seite spiegelte sich auch in den Beiträgen wider. Allein aus den verschiedenen Sparten des Thomson-Konzerns kamen fünf Beiträge. Der in Europa mit sehr hohem finanziellen Aufwand auf dem Sektor der Neuronalen Netze tätige Konzern wurde einerseits mit theoretischen Beiträgen vorgestellt, z.B. zu Auswahlmethoden der Netzparameter, dem Erlernen der Abstandsfunktion durch ein Neuronales Netz oder mit anwendungsorientierten Beiträgen zur Fahrzeugdetektion, -klassifikation und zur Infrarot(IR)-Raumüberwachung. Am zweiten Tag wurden die Arbeiten der Abteilung optronische Anwendungen bei Thomson vorgestellt, die mit einer Personalstärke von 1000 Personen Systeme für die Lufterkennung entwickelt. Dazu gehören die IR-Rundumüberwachung, die Entwicklung von Nachtüberwachungssystemen, Feuerleitung, Lasercodierung, Lenkung von Laserstrahlen und die Entwicklung von Suchköpfen. Eine vorgestellte Konzeption für ein Lufterkennungssystem benutzt einen um 360 Grad schwenkbaren Kopf, der im Wellenlängenbereich von 8-10 Mikrometern operiert und auf Entfernungen von 5-10 km betriebsbereit sein soll, bei einem Datendurchsatz von 300 Megabytes. Es existieren dazu bereits herkömmliche Elemente, wobei das vorgesehene Neuronale Netz diesen Aufgaben sukzessive angepaßt werden muß. Ein weiteres erwähntes Beispiel nutzt die Anpassungsfähigkeit Neuronaler Systeme zur Erkennung an Panzern im Gelände. Es wird ebenfalls versucht, das System für die Erkennung von Flugzeugmodellen einzusetzen.

Patrick Dechamps von MS2i berichtete über deren Forschungsarbeit zur Verarbeitung und Zusammenführung von visuellen Daten. Etwa 30 Ingenieure arbeiten in vierjähriger Forschung u.a. an Problemen der Fotointerpretation, der Unterwasserakustik und der Buchstabenerkennung. Insgesamt wurde die Arbeit mehr dem Bereich der Grundlagenforschung zugeschrieben, aber es besteht auch die Absicht, in die militärische Nutzung der Raumfahrt einzusteigen und die Bildfusion für Anwendungen in Suchköpfen vorzubereiten. Eine intensive Zusammenarbeit gibt es mit Ossay bei der Auswertung von Bildern des Satelliten Spot, der Bestimmung von Flugzeugpositionen, der Buchstabenerkennug und dem Kartenlesen.

Vier typische Anwendungen wurden noch vorgestellt: In Zusammenarbeit mit Marconi Research wird die Fusion von Spot- und Radarbildern erprobt, um bei Nebel die Sicht zu verbessern; Hopfieldnetze sollen dabei die Optimierung vornehmen. Eine zweite Anwendung betrifft die Erkennng von Buchstaben auf Landkarten, die dritte Anwendung ist ein Adressenerkennungssystem für die amerikanische Post, das in Konkurrenz mit vier anderen Firmen entwickelt wird. Die letzte Anwendung betrifft die Erkennung von Flugzeugen; dabei interessiert speziell für den Einsatz in Suchköpfen die Bestimmung des Kippwinkels. Mit synthetischen Bildern von 36 x 36 Pixeln war bereits ein Erfolg von 98 % zu verzeichnen. Verwiesen wurde noch auf die »Intelligente Retina«, die vor 2-3 Jahren auf dem Workshop »Intelligente Zielannäherung« im ISL vorgestellt wurde.

Von der Universität der Bundeswehr in Hamburg kam ein Beitrag zur Untersuchung des Einsatzes Neuronaler Netze bei der Klassifikation von Schiffen anhand von Infrarot-Bildern. Dabei bilden die aus IR-Bildern gewonnene Schiffssilhouette und der als bekannt vorausgesetzte Lagewinkel des Schiffes die Menge aller Informationen. Anhand eines Konturliniendatensatzes bestehend aus 246 Konturlinien von 64 Schiffen konnte gezeigt werden, daß ein und zweilagige Perzeptrons so trainiert werden können, daß sie aus den Histogramm-Matritzen eine Zuweisung zur richtigen Schiffsklasse ermöglichen.

Von dem staatlichen französischen Forschungsinstitut INRIA (Institut National de Recherche en Informatique et en Automatique) kam ein Beitrag zur Bildaufbereitung in einem Netz von gekoppelten Neuro-Oszillatoren. Das Interesse der mit Computervision betrauten Untergruppe PASTIS konzentriert sich u.a. darauf, Satellitenbilder hinsichtlich Eigenschaftsextraktion auf niedrigem Niveau vorzubearbeiten, geologische Formationen zu erkennen, Stereobilder zur Verkehrsüberwachung auszuwerten und Bildklassifikation vorzunehmen. Dabei werden neben dem neuronalen auch verschiedene andere Ansätze verfolgt.

Frau Fogelman-Soulie beschrieb in dem Workshopbericht drei Anwendungen, die bei MIMETICS untersucht werden (Identifikation von Personen, Buchstaben und wechselnden Zeitsignalen) und diskutierte deren militärische Verwendbarkeit. Frau Perron-Gitton von ONERA stellte ein Neuronales Netz zur Zweikanal-Datenfusion in bimodalen Suchköpfen vor. Dabei ist an Anwendungen zur Endphasenlenkung von Flugkörpern gedacht. Bemerkenswert war der Sprachgebrauch: Formulierungen wie „zur Auswahl hochwertiger Ziele wie Straßen und Brücken“ wurden wie selbstverständlich verwandt. Alexandre Wallyn stellte eine Arbeit von Cap Gemini Innovation zur Unterstützung der Spezifizierungsaufgaben von Bordradarsystemen vor. Das zur Prototypenreife gediehene System NEUREX nutzt einen Rochester-Simulator zur Konvergenzsteigerung.

Die lebhaft diskutierten theorieorientierten Vorträge von Prof. Azencott von der Universität Paris Süd und Erol Gelenbe (EHEI) beschäftigten sich einmal mit der Konvergenz themodynamischer Modelle für das künstliche Sehen und dann mit dem neuronalen Lernen, Speichern und Erzeugen von Bildtexturen. Den letzten Vortag hielt Dr. Radons von der Universität Kiel, der sich mit der fraktalen Gleichgewichtsverteilung als Resultat des Lernens in Neuronalen Netzen beschäftigte.

Im schon erwähnten Schlußwort konstatierte Rouvillois, daß Neuronale Netze jetzt reif und erwachsen würden, Anwendungen greifbar seien und die operationale Inbetriebnahme, besonders zur Zielerkennung in verrauschter Umgebung, Bildintegration und der Interpretation von Satellitenfotos kurz vor der konkreten Umsetzung stehe. Da solche Projekte mit großer Wahrscheinlichkeit mit internationaler Zielsetzung betrieben werden, empfahl er dem ISL, auf den fahrenden Zug aufzuspringen, um sich einen signifikanten Platz zu sichern. Als wichtigste Bestrebung nannte er die Unabhängigkeit von Japan und den USA. Als Ausblick wurde die Wiederholung eines solchen Workshops in zwei- bis drei-jährlichem Rhythmus in Aussicht gestellt.

Welche Neuroinformatik brauchen wir?

Die Verantwortungsdiskussion konzentriert sich u.a. darauf, wieweit menschliche Intelligenzleistungen mit Neuronalen Netzen »künstlich« nachgebildet werden können und sollen. Besonders offensichtlich ergeben sich ethische Fragen bei der direkten Erforschung des Gehirns und bei Experimenten an Versuchstieren, die oft auf heftige Kritik in der Öffentlichkeit stossen. Auch bei der Übertragung menschlicher Entscheidungskompetenz, der gesellschaftlichen Überwachung, der Freisetzung menschlicher Arbeitskraft und besonders bei der militärischen Anwendung Neuronaler Netze stellt sich die Frage nach der Verantwortung, die versucht, einen Machtmißbrauch zu verhindern und Risiken zu vermeiden. Bei der Wahrnehmung von Verantwortung sind zum einen Vertreter von Wissenschafts- und Ingenieursdisziplinen gefragt, die über den Horizont ihres Faches hinaus auf die gesellschaftlichen Implikationen blicken müssen, um daraus ggf. Schlußfolgerungen für ihr Handeln zu ziehen.

Auch Politik und Öffentlichkeit sind aufgefordert, Maßstäbe dafür zu entwickeln, welche Entwicklungen der Neuroinformatik sinnvoll und welche schädlich sind. In Zukunft sollten Politikziele wie Erhalt von qualifizierten Arbeitsplätzen, Humanisierung des Arbeitslebens, Kriegsvermeidung, Abbau politischer Spannungen, Erhalt der Ökosysteme, Abbau der technologischen Diskrepanzen zwischen westlichen Industrieländern und Entwicklungsländern (bzw. ehemaligen sozialistischen Ländern) ein erheblich höheres Gewicht bekommen, dem die Wettbewerbsfähigkeit in der Rangliste nachgeordnet ist. Dies würde auch implizieren, daß eine Technikfolgenabschätzung sowie eine Förderung der Neuroinformatik weniger an den Interessen der Großindustrie oder des Militärs orientiert werden dürfte, sondern mehr am gesellschaftlichen Nutzen im globalen Maßstab, unter Berücksichtigung von Kosten und Risiken.

Materialien

Zusatz 1:

Hauptanwendungsbereiche Neuronaler Netze

Klassifikation, Mustererkennung

Ein Netzwerk wird so trainiert, daß es die Eingangsdaten in verschiedene Klassen
einsortiert.

Selbstorganisation, Kategorienbildung

Eingabedatensätze werden zu Gruppen oder Clustern zusammengefaßt
(Vektorquantisierung). Dieses ist eine effiziente Methode der Datenreduktion zur
Weiterverarbeitung auf höherer Stufe – besonders geeignet für Sprach- und visuelle
Aufgaben.

Assoziative Speicher

Ein assoziatives Gedächtnis liefert die vollständige Speicherinformation über ein
Objekt auch dann, wenn nur ein unvollständiges oder bruchstückhaftes Wissen darüber
vorhanden ist.

Vorverarbeitung von Sensordaten

Durch die Parallelität der Informationsverarbeitung kann die enorme Datenfülle wie in
den peripheren Seh- und Hörzentren in Echtzeit vorverarbeitet und reduziert werden.

Nichtlineare Abbildungen

In der Robotersteuerung oder der nichtlinearen Signalverarbeitung wird ein Vektor aus
analogen Eingabewerten über eine nichtlineare Funktion auf entsprechende Ausgabewerte
abgebildet.

Multi-Sensor-Automaten

Beispiel: Ein Roboterarm wird so mit Sensoren und Kameras bestückt, daß ein
selbstüberwachtes Erlernen eines Arbeitsganges stattfinden kann.

Computerspezifische Probleme

Neuronale Netzwerke können so ausgestaltet werden, daß sie durch nichtlineares
analoges Rechnen Probleme lösen können, bei denen den Computern prinzipielle Grenzen
gesetzt sind, z.B. bei Optimierungsproblemen wie dem »Problem des Handlungsreisenden«.

Zusatz 2: Anwendungsbeispiele Neuronaler Netze im militärischen Bereich

Gesichtserkennungssysteme

Das Wahrnehmen und Verarbeiten von bewegten Bildern stellt hohe Anforderungen an die
verarbeitende Kapazität der beteiligten Systeme. Ein typisches hoch aufgelöstes Bild
umfaßt ca. 106 Pixel mit einer Wiederholrate von 100 Bildern pro Sekunde. Dabei ist noch
die für die Interpretation wichtige Information (Konturen, Farben, Textur, Größe,
Abstand und Relativbewegung) aus der zweidimensionalen Eingabe herauszuholen. Ein
automatisches Gesichtserkennungssystem genannt »personal identification card« (PICard),
das von einer englischen Firma vertrieben wird, basiert auf einem Neuronalen Netzwerk
gekoppelt mit der Signalvorhersage. Es soll eine effektive Zugangskontrolle bieten, mit
weitgehenden Anwendungsmöglichkeiten für industrielle und staatliche, darunter auch
militärische Zwecke. Das System nimmt das Gesicht einer Person mit einer Videokamera auf
und speichert dessen Darstellung auf einer Identitätskarte oder auch einer Datenbank, um
bei der Wiedererkennung herangezogen zu werden.

Flugzeugsteuerung

Eine neuronales selbst-reparierendes und rekonfigurierendes System wird von McDonnell
Douglas und der NASA entwickelt und getestet. Es zielt darauf ab, einem Flugzeug mit
teilweisem Verlust der Tragfläche die Flug- und Einsatzfähigkeit zu erhalten. Das
Neuronale Netz soll in einem solchen Fall die veränderten Flugeigenschaften erlernen und
dem Piloten die Kontrolle ermöglichen. Dieses Flugkontrollsystem findet auch Anwendungen
in anderen Flugsituationen, die ohne unterstützende Systeme instabil wären.

Anwendung in der Raketenabwehr (SDI)

Ein Vorschlag stammt von der Nicolspan Research Corporation, die sich mit der
Unterscheidung von Wiedereintrittskörpern (reentry vehicles, RVs) und Attrappen
beschäftigt und bislang dazu KI und statistische Mustererkennungstechniken eingesetzt
hat. Der neue Ansatz läuft über nichtüberwacht lernende Klassifikationsnetzwerke mit
dem »maximum likelyhood« Verfahren zur Informationsfusion und Parameterschätzung. Es
wird geschätzt, daß zur Klassifikation von 100.000 Zielen mit 100 Typen und 10
Unterscheidungsmerkmalen Prozessoren mit 10 Mio. Instruktionen pro Sekunde (MIPS) oder 100
Mio. Verbindungen eines Neuronalen Netzes benötigt werden. Bei Hughes Aircraft kommt man
zu der Schlußfolgerung, daß „ein großes automatisiertes Unternehmen wie SDI
ohne Neuronale Netze nicht bewerkstelligt werden könne.“

Entdeckung von Seeminen

In der Studie von Gorman (Allied Signals) und Sejnowski (John Hopkins University) sind
verschiedene Methoden miteinander verglichen worden, um zwei Sonarziele auf sandigem
Ozeangrund – einen Metallzylinder und einen Felsen von 1.5 m Länge – zu
erkennen. Das Neuronale Netz (dreischichtiges Netzwerk mit »Backpropagation«) erzielte
eine korrekte Klassifizierung von annähernd 90 % , wohingegen der Mensch mit 88 %
Erfolgsrate abschnitt. Obwohl es keine bahnbrechenden Durchbrüche gegeben hat, sollen
Neuronale Netze trotz längerer Trainingszeiten einfacher zu implementieren sein als
andere Modelle.

Robotik

Nach James Albus, dem Mitentwickler der Marr-Albus-Theorie des Kleinhirns und Erfinder
des CMAC-Netzwerkes, liegt der potentielle Markt für militärische Roboter bei mehreren
Mrd. US-Dollar pro Jahr. Ein Beispiel für industrielle militärische Umgebungen ist der
Roboter-Gabelstapler von Martin Marietta. Unter die nichtindustrielle militärische
Umgebung fallen die Bereiche Kampf, Kampfunterstützung, und Kampfversorgung. Vorzüge
werden in der unverminderten Aktionsfähigkeit bei Dunkelheit, Tarnnebel oder chemisch
verseuchtem Gebiet gesehen. Beispiele für Anwendungen Neuronaler Netze sind die
Zielbekämpfung durch halbautomatische Roboter-Abschußplattformen; ABC-Dekontamination;
Lade-Roboter; unbemannte Waffenstationen, Hubschrauber, Panzer, Artilleriewaffen;
Täuschroboter, die die Aktivität eines Gefechts simulieren; Roboter zur
Gefechtsaufklärung, zur Unterstützung im Minenkampf; Wachroboter.

Zusatz 3: Das deutsch-französische Forschungsinstitut St. Louis (ISL)

Das deutsch-französische Forschungsinstitut Saint Louis (ISL) wurde am 31. März 1958
von beiden Ländern ins Leben gerufen mit den Zielen: Durchführung von Forschungsarbeit,
wissenschaftlichen Untersuchungen und grundlegenden Vorentwicklungen auf dem Gebiet der
Wehrtechnik mit einem gemeinsamen Forschungsprogramm beider Verteidigungsministerien.
Darüberhinaus werden Beziehungen unterhalten zu Wissenschaft und Industrie beider
Länder. Das Institut versteht sich als ein Forum zur Politikberatung mit
Regierungsstellen.

Die Forschungsgruppe zu Neuronalen Netzen beschäftigt sich im wesentlichen mit der
Erkennung von Objekten in Bildern geringer Auflösung und hohem Störpegel. Aus
vorgegebenen Bildern werden Objekte extrahiert sowie deren geometrische Merkmale und die
Kontur bestimmt. Durch Austausch – auch mit der Bundeswehr-Universität Hamburg
– ist die Gruppe über aktuelle Entwicklungen anderer Militärforschungsstellen
informiert. Bei der Arbeit von Axel Köneke geht es um die Eigenschaftsextraktion mit
einem Neuronalen Netz, wobei ihn besonders die Datenkompression in der Zwischenschicht
interessiert. Das eingespeiste Bild war bezeichnenderweise ein Hubschrauber vor stark
segmentiertem Hintergrund.

Anmerkungen

1) Markus Jathe, Jürgen Scheffran: Zivile und militärische Anwendungen Neuronaler Netze: Bestandsaufnahme und Ansätze zur Bewertung, Arbeitsbericht, Darmstadt: IANUS 5/1991. Hierin findet sich auch eine ausführliche Literaturliste, so daß hier, mit wenigen Ausnahmen, auf Quellenverweise verzichtet wird. Zurück

2) Manfred Domke, Neurocomputer: Technik, Anwendungen, Risiken, »InfoTech«, Dezember 1989, S. 15 – 24. Zurück

3) Mittlerweile ist die Datenbank mit etwa 440 Einträgen verfügbar. Eine oberflächliche Durchsicht hinsichtlich der Begriffe »military« und »defence« ergab folgende Namen und Institutionen mit augenscheinlichen militärischen Bezügen: RCMS (Cranfield, GB), Royal Military College of Science (GB), D'Electronique Fondamentale, Uni Paris (F), National Defence Research Establishment (Schweden), Aspex Microsystems Ltd. (GB), Syseca DSTR (F), Brighton Poly (GB), Andersen Consulting (Spanien), Thomson Sintra ASM (F), FIM/FGAN Ettlingen (BRD), University of York (GB), SD Scicon (GB), Intelligence Decision Systems (Spanien), TNO/FEL (Niederlande), Logica Defence (GB), LERI (F), University College London (GB), King's College London (GB). Diese Liste hat allenfalls Stichprobencharakter, da indirekte oder nichtangegebene militärische Zusammenhänge nicht berücksichtigt werden konnten. Auch wird nichts darüber ausgesagt, wie hoch der militärische Anteil bei den genannten Projekten ist. Zurück

4) Das gewachsene öffentliche Interesse an der Neuroinformatik dokumentiert sich etwa in der 16-teiligen Serie „Vom Neuron zum Chip“ in der Tageszeitung »Die Welt« im Oktober und November 1991. Zurück

5) So der Düsseldorfer Neuroinformatik-Experte Prof. Eckmiller; siehe: Rolf Eckmiller: Learning neural computers for global problem managment in the 21st century, in: „Proc. of Int. Symp. New Information Processing Technologies '91“, Tokyo, März 1991. Zurück

6) Ronald E. Wright: The Potential Applications of Neural Networks and Neurocomputers in C3I, in: S.E. Johnson, A.H. Levis (Hrsg.): Science of Command and Control, AFCEA International Press, 1989. Zurück

7) DARPA Neural Network Study, Fairfax, VA: AFCEA International Press, 1988. Zurück

Markus Jathe und Jürgen Scheffran sind Physiker und Mitarbeiter der Interdisziplinären Arbeitsgruppe Naturwissenschaft, Technik und Sicherheitpolitik (IANUS) an der Technischen Hochschule Darmstadt.

Kostendämpfungsstrategie

Kostendämpfungsstrategie

Integration ziviler und militärischer Produktion neuer Technologien

von Manfred Domke

Die Ost-West-Entspannung, die noch bescheidenen Abrüstungserfolge, die Golf-Krieg-Erfahrungen und enorme Haushaltsprobleme der Industrie-Länder haben für alle Fragen der militärischen Sicherheit neue Randbedingungen geschaffen. Anpassungen der Kriegsmaschinerie, der Wissenschaftsbasis und des militärisch-industriellen Komplexes sind unausweichlich. Der Golfkrieg hat mit seiner Botschaft „Die Welt bleibt unsicher und gefährlich“ der erforderlichen Umorientierung allerdings vorerst eine Atempause verschafft. Debatten über die künftige Rolle und Strategie der NATO und die Umstrukturierung der Streitkräfte in leichtere und mobilere Verbände ausgerüstet mit tödlicheren Waffen haben bereits begonnen.

Die große Herausforderung wird jedoch im Umbau der Technologie- und Produktions-Basis für das Militär gesehen. Dabei geht es nicht nur darum, vorhandene Kapazitäten zu verringern, sondem auch darum, die Entwicklungen künftiger Waffen vorauszusehen und festzulegen, wie die wissenschaftlichen und technischen Fortschritte des zivilen Bereichs national und interational am besten für das Militär nutzbar gemacht werden können. Zivile und militärische Forschung und Entwicklung auf den Gebieten Mikroelektronik und Informationstechnologie sind bereits weitgehend zusammengeführt. Im nächsten Schritt soll die Integration der Produktion von Militärtechnik in den zivilen Bereich hinein verstärkt gefördert werden. Dual-Use-Technologien sollen die Finanzierbarkeit künftiger Militärtechnik sicherstellen.

Bessere Militärtechnik für weniger Geld

Die militärische Überlegenheit bleibt untrennbar mit der Überlegenheit auf dem Gebiet der Informationstechnologie verbunden.Während über die Reduzierung von Raketen, sonstigen Waffensystemen und Kampftruppen verhandelt wird, soll die »Aufrüstung im Forschungs- und Entwicklungs(FuE)-Bereich« eher noch verstärkt werden. Wegverhandelte militärische Geräte und Soldaten sollen durch den Einsatz sehr teurer supermoderner Technik, durch intelligentere und wirksamere Waffen ausgeglichen werden. Die militärischen Anforderungen an die Informationstechnik (IT) werden also weiter steigen. Extreme militärische Anforderungen an die IT erfordern spezielle Fertigungstechniken. Obwohl Anforderungen, Fertigungsprozesse und Technologien für das Militär und den zivilen Bereich zunehmend divergieren, soll künftig aus Kostengründen die Integration der Produktion ziviler und militärischer Technologien verstärkt vorangetrieben werden. Basis dieser Dual-Use-Politik ist und bleibt die mit höchster Priorität versehene militärische Sicherheit.

Es besteht weitgehender Konsens, daß die Rüstungshaushalte in absehbarer Zeit sinken werden. Die FuE-Etats 1991 für das Militär steigen zwar noch weiter oder stagnieren. Mittelfristig werden aber auch sie gekürzt werden.

Einziger Ausweg aus dem Dilemma „Bessere Militärtechnik für weniger Geld“: Staatliche Forschungspolitik setzt verstärkt auf Dual-Use-Technologien. Diese Technologien werden im Interesse des Militärs und für das Militär zivil gefördert, erforscht, entwickelt und produziert und sollen aus Kostengründen auch zivil genutzt werden.

Militärisch genutzte Techniken und Geräte des zivilen Marktes, auf die das Militär während der FuE-Phase keinen direkten Einfluß ausübt, werden nicht in diese Dual-Use-Untersuchung einbezogen. In der militärischen Fachsprache werden sie mit »nondevelopmental items« (NDI) bezeichnet. Auf militärischen Bedarf zugeschnittenes Gerät heißt dagegen »dedicated military equipment«. (OTA, 1991, p. 16)

Die Bezeichnung »doppelt-verwendbare Technologien« gehört zu den Sprachregelungen, die bestehende Verhältnisse verschleiern. Mit »Dual-Use« wird abgelenkt von der Einflußnahme der Sicherheitspolitik auf die Forschungs-, Technologie- und Wirtschaftspolitik sowie vom Einsatz ziviler Ressourcen bei der Herstellung von Technologien für das Militär. Dual-Use suggeriert Neutralität, Wert- und Zweckfreiheit von Wissenschaft und Technologie. Dem Steuerzahler wird darüberhinaus das Gefühl vermittelt, daß seine Steuern selbst in der Rüstung gut angelegt sind.

Der verdeckte Gebrauch ziviler Ressourcen für die Entwicklung neuer Informationstechnologien für das Militär und die damit einhergehende Deformierung des IT-Sektors können nur dann reduziert bzw. verhindert werden, wenn die Entstehungs- und Verwertungsbedingungen neuer IT analysiert, aufgedeckt und auch in den Bereichen von Wissenschaft und Gesellschaft öffentlich debattiert werden, die nicht oder nicht unmittelbar am Entwicklungsprozeß beteiligt sind.

Die Entwicklung der politischen Rahmenbedingungen

Trotz sinkender Militärhaushalte wird es auf dem Rüstungsmarkt weiterhin Wachstumsbereiche geben. Die Siemens AG z.B. betrachtet die sicherheitspolitischen Veränderungen nicht als Bedrohung für ihre Rüstungsgeschäfte. In der Militärelektronik wird künftig mit einem Wachstum von l-3<0> <>% gerechnet. Der Bereich Sicherungstechnik ließ sich bereits in der Vergangenheit bei maßgeschneiderter Militärtechnik 2/3 der Entwicklungskosten zivil finanzieren.

„Die stetig steigenden Entwicklungskosten einerseits und die Kürzungen in den Militärhaushalten andererseits erfordern verstärkt die Nutzung von Synergien aus dem zivilen Kommunikationsbereich. Kostengünstige zivile Basistechnologien in Verbindung mit Militarisierungs-Maßnahmen führen zu einer deutlichen Reduzierung der Gesamtentwicklungskosten.“ (ST90, 1990, S. 21.)

Es klingt paradox, aber Abrüstung und globale Haushaltsreduzierungen führen leider nicht zur »Abrüstung« im FuE-Bereich. Im Gegenteil, heute steigt die Bedeutung der militärischen FuE weiter, was auch an den Haushaltszahlen zu erkennen ist.

In den USA sind die FuE-Haushalte für das Militär 1991 mit Ausnahme von SDI gestiegen: Army research sciences +1,6<0> <>%, Navy r. s. +8,7<0> <>%, Air Force r.s. +7,1<0> <>%, University research initiatives +81,5<0> <>%, Defense Advanced Research Projects Agency +14,1<0> <>%, SDI -24,3<0> <>%.

Präsident Bush hat auf einem Symposium des Aspen Instituts in seiner Rede „In Defense of Defense“ auf die langfristigen Konsequenzen heutiger Entscheidungen im Forschungsbereich verwiesen. Falsches Wirtschaftlichkeitsdenken im FuE-Bereich könnte einen hohen Preis fordern. Forschungsprogramme, die heute gefördert oder nicht gefördert werden, würden den Charakter der Streitkräfte im Jahr 2000 und darüber hinaus festlegen. Forschung müsse heute so angelegt sein, daß möglichen Herausforderungen der Zukunft entschlossen entgegengetreten werden könne. Den Männern und Frauen in den Streitkräften müsse Amerika die beste Technik anbieten.

„And to prepare to meet the challenges we may face in the future, we must focus on research an active and inventive program of defense R&D.

Let me begin with the component with great long-range consequences: research. Time and again, we have seen technology revolutionize the battlefield. The U.S. has always relied upon its technology edge to offset the need to match potential adversaries'strength in numbers. Cruise missiles, stealth fighters and bombers, today's »smart« weapons with state-of-art guidance systems and tomorrows's »brilliant« ones – the men and women in our armed forces deserve the best technology America has to offer.

And we must realize the heavy price we will pay if we look for false economies in defense R&D. Most modern weapons systems take a minimum of 10 years to move from drawing board to battlefield. The nature of national defense demands that we plan now for threats on the distant horizon. The decisions we make today – the programs we push forward or push aside – will dictate the kind of military forces we have at our disposal in the year 2000 and beyond.“ (Bush, 1990, in: Cheney 1991, p. 133)

War es ein merkwürdiger Zufall, daß Bush gerade an dem Tag dem Militär den Rücken stärkte, als der Irak in Kuweit eindrang?

In der Bundesrepublik bleiben die Gesamtausgaben für militärische Forschung 1991 mit 3,8 Milliarden DM auf Rekordhöhe. Nur 1990 lagen die Ausgaben mit knapp 4 Milliarden DM noch höher. Während die Rüstungsforschung und die wehrtechnische Forschung seit 1982 prozentuale Erhöhungen von 55,5<0> <>% und 91,6<0> <>% verbuchen konnten, hinkt die zivile Forschung im gleichen Zeitraum mit 25,0<0> <>% hinterher. Etwa 1/4 aller FuE-Gelder wurden 1991 in der Bundesrepublik für neue Waffensysteme ausgegeben. Für die Entwicklung neuer Waffen werden im laufenden Jahr FuE-Mittel ausgegeben, die 4 mal so hoch sind wie die der Umweltforschung, 7 mal so hoch wie die der Gesundheitsforschung, 12 mal so hoch wie die der Forschung für emeuerbare Energien und 28 mal so hoch wie die der Forschung zur Verbesserung der Arbeitsbedingungen. (Bulmahn, 1991)

Anpassung der Rüstungsindustrie an die neue Sicherheitsumgebung

In den USA hat bereits eine öffentliche Diskussion über den Umbau der Technologie- und Produktions-Basis für das Militär begonnen. Diese Rüstungsbasis besteht aus einer Kombination von Menschen, Institutionen, Technologie-Know-How und Produktionskapazität zur Entwicklung und Herstellung von Waffen und militärischen Unterstützungssystemen, die zur Erreichung der Sicherheitsziele benötigt werden.

„The defense technology and industrial base … contains three functional elements:

1. a technology base that includes private industry laboratories and research facilities, university laboratories conducting defense research, government laboratories (e.g., those run by the National Aeronautics and Space administration and the Departments of Energy, Commerce, and Defense), test centers, and the trained scientific and technical personnel to staff these facilities;

2. a production base composed of private industry as well as government enterprises (both government-owned and government-operated and government-owned and contractor-operated);

3. a maintenance base consisting of government facilities (arsenals, depots, etc.) and private companies that maintain and repair equipment either at their own facilities or in the field.“ (OTA,1991, p.2)

Diese Anpassung der »Defense Technology and Industrial Base« an die neue Sicherheitsumgebung wird als große Herausforderung mit internationalem Charakter begriffen. Die zentralen Fragestellungen dieser Umorientierung reichen weit über die Dual-Use-Problematik hinaus. Die verstärkte Integration ziviler und militärischer Bereiche wird sehr deutlich gefordert und soll sehr schnell umgesetzt werden.

„The Transition to a new defense industrial base must also cope with internationalisation of defense technology and industry and the increasing prominence of civilian high technologies with potential military applications (»dual-use« technologies).

…, needed changes in the base, such as promoting the integration of military production into the civil sector, should be initiated quickly.

The report (DoD, 1988) argued for a DoD investment strategy that would encourage the development and widespread introduction of dual-use product and process technologies, and increase the interaction between the defense and civilian bases. The challenge in determining the size and nature of the future defense technology and industrial base is thus not only one of potentially downsizing current capabilities, but also of anticipating future weapons developments and of determining how best to utilize scientific and technological advances within the domestic civil sector, as well as abroad.“ (OTA, 1991, pp. 13-16)

Andere Kemfragen werden gerade andiskutiert: Wieviel militärische Sicherheit ist für die Zukunft erforderlich und bezahlbar? Welche Forschungs-, Entwicklungs- und Produktionskapazitäten sind dafür nötig und wie sollen diese in Friedens-, Krisen- und Kriegszeiten organisiert, geführt und genutzt werden? Welcher Grad von ausländischer Abhängigkeit kann im Rüstungsgeschäft akzeptiert werden? Welcher Zeitrahmen soll gewählt werden?

Die Lage in der Bundesrepublik

In der Bundesrepublik wird die wachsende Rolle der Informationstechnik für das Militär im ressortübergreifenden Zukunftskonzept Informationstechnik (ZKI) der Bundesregierung (ZKI, 1989, S.120 ff) beschrieben:

Die Verbesserung der Verteidigungsfähigkeit der Bundeswehr durch effektive Nutzung moderner Technologien sei politisch wünschenswert und als Ziel eine große Herausforderung für Forschung und Industrie. Der Informationstechnik komme dabei eine Schlüsselrolle zu. Der Anteil an den Entwicklungs-, Produktions- und Nutzungskosten würde steigen. Die Bundeswehr versuche, sich weitgehend auf Entwicklungen für den zivilen Bereich abzustützen. Dies gelte insbesondere für Führungs- und Informationssysteme und Mikroelektronik.

„In Zukunft wird auch verstärkt darauf hinzuwirken sein, sogenannte Dual-Use-Technologien intensiver zu nutzen, d.h. zu versuchen, militärische Forderungen bei zivilen Entwicklungen frühzeitig mitberücksichtigen zu lassen, beziehungsweise auf derartige Dual-Use-Technologien in Form von Add-On-Programmen aufzusetzen, um den militärischen Bedarf zu decken“. (ZKI, 1989, S. 122)

Der Parlamentarische Staatssekretär im BMVg Willy Wimmer hatte im April 1989 in einem Schreiben dem Verteidigungsausschuß dargelegt, daß die Programme des BMFT wie auch die der EG zunehmend im Sinne von »dual-use« genutzt bzw. in dieser Richtung beeinflußt werden. Als die SPD-Fraktion im Frühjahr 1990 in einer Kleinen Anfrage (Drucksache 11/6602) die Programme in Erfahrung bringen wollte, wiegelten Frau Hürland-Büning, Parlamentarische Staatssekretärin im BMVg, und Willy Wimmer ab. Eine direkte Beeinflussung ziviler Programme im Sinne von »dual use« gäbe es bisher nicht. Allenfalls sei eine indirekte Beeinflussung durch bestimmte Auftragnehmer möglich.

„7.2 Welche Programme des Bundesministeriums für Forschung und Technologie, anderer Bundesressorts und der EG werden im Sinne von »dual use« durch das Bundesministerium der Verteidigung genutzt und in ihrer Richtung beeinflußt?

Wie hat sich das Volumen dieser Programme seit 1982 entwickelt?

Der Bundesminister der Verteidigung baut mit seinen Vorhaben zur Forschung und Technologie (FuT) grundsätzlich auf ziviler Forschung und Technologie auf. Nur soweit unabweisbar wird die zivile wissenschaftlich-technische Basis durch eigene Vorhaben ergänzt. Demzufolge wurden bisher keine Programme anderer Ressorts, insbesondere des Bundesministers für Forschung und Technologie oder der Europäischen Gemeinschaft, im Sinne von »dual use« durch den Bundesminister der Verteidigung genutzt oder direkt beeinflußt. Eine indirekte Beeinflussung der Durchführung ziviler Programme zwecks wehrtechnischer Nutzung von Ergebnissen dieser Programme durch diejenigen Auftragnehmer, die sowohl mit zivilen wie wehrtechnischen Aufgaben betraut sind, ist jedoch möglich.“ (Deutscher Bundestag, Drucksache 11/7373, 12.6.1990)

Frau Bulmahn, MdB der SPD, gab sich mit dieser ausweichenden Antwort nicht zufrieden und verwahrte sich in ihrem Schreiben vom 25.6.1990 an die Parlamentarische Staatssekretärin des BMVg mit aller Entschiedenheit gegen einen Mißbrauch des BMFT-Haushalts durch den BMVg. Daraufhin konterte Willy Wimmer am 8.10.1990 mit der verblüffend einfachen Nachricht, der Dual-Use-Denkansatz wäre zwischenzeitlich zurückgestellt und würde nicht weiter verfolgt.

In dem Schreiben von Wimmer heißt es weiter: „… wurde darüber hinaus deutlich gemacht, daß wehrtechnische Forschung in der Regel in Form von add-on-Programmen auf zivil gewonnenen Ergebnissen aufsetzt. Insoweit werden zivile FuE-Ergebnisse im Sinne von »dual-use« genutzt. Dies bedeutet aber nicht, daß militärische FuE-Aufgaben aus dem Haushalt des BMFT finanziert werden. Diese Aussage gilt gleichermaßen für die europäischen Technologieprogramme.

Von einem „Mißbrauch des BMFT-Haushalts durch den BMVg“ kann daher nicht die Rede sein.“

Diese parlamentarische Beschwichtigungs-Rhetorik kann nicht überzeugen. Die außerordentlich komplexen Beziehungen und Einflußnahmen zwischen Politik, militärisch-industriellem Komplex und Wissenschaft sowie das dahinterliegende Interessen- und Macht-Gefüge sind zwar nur schwer zu durchschauen. Aber Dual-Use-Fakten fügen sich zunehmend zu einem klareren Bild vom Gebrauch ziviler Ressourcen für militärische Zwecke zusammen.

Im Gegensatz zu den USA werden in der Bundesrepublik die Grundlagenarbeiten für Mikroelektronik und Informationstechnik nicht vom Bundesminister für Verteidigung (BMVg) gefördert. Diese Aufgabe liegt beim Bundesminister für Forschung und Technologie (BMFT). (Protokoll, 1983).

Bei der Vorstellung des Forschungs- und Technologie-Programms der Bundeswehr (Forndran, 1985) wurde darauf hingewiesen, daß der halbe BMFT-Etat zum BMVg-Forschungs- und Technologie-Etat hinzugezählt werden muß, um die finanziellen Aufwendungen der Bundesrepublik mit denen der USA vergleichbar zu machen.

„Vorsicht beim Vergleich mit den USA: Die Hälfte des BMFT-Etats muß zum BMVg-Forschungs- und Technologie-Etat gezählt werden, weil das BMFT die Grundlagenforschung fördert.“ (Forndran, 1985)

Auf dieser Wehrtechniktagung wurde auch unterstrichen, daß es trotz der Abhängigkeit der Verteidigungstechnik von der Mikroelektronik kein BMVg-Programm für militärische Mikroelektronik geben würde.

Absprachen zwischen dem BMVg, dem BMFT und anderen Ressorts sorgen dafür, daß die militärischen Anforderungen in der Forschungspolitik und den FuE-Programmen Berücksichtigung finden.

„ Zwischen dem BMFT und dem BMVg bestehen vielfältige, enge Verbindungen auf allen Ebenen. So werden beispielsweise zwischen den Staatssekretären die Grundsatzfragen zur Forschung und Zukunftstechnologie laufend abgestimmt. Dies gilt aber nicht nur für die »große Linie«: In enger Zusammenarbeit der Fachleute beider Ressorts wird auch – und das ist notwendig – das Vorgehen im Detail koordiniert.“ (Rüstungsstaatssekretär Timmermann in Sadlowski (1984))

„Für den Bereich der wehrtechnischen Forschung auf dem Gebiet Informationstechnik ist darüber hinaus eine enge Abstimmung mit anderen Ressorts, wie BMFT und BMP, vorzusehen, um den Einsatz von Mitteln und Ergebnissen für die Wehrtechnik zu optimieren. Der Bundesminister der Verteidigung wird daher von den anderen Ressorts schon bei der Formulierung von Fachprogrammen und sich daraus ergebenden Einzelaufgaben beteiligt werden, um seine mittel- bis langfristigen Erfordernisse ressortübergreifend in die Planung einzubringen.“ (Riesenhuber, 1984)

Beispiele für Dual-Use-Technologien und reine Militärtechnologien

Die Leitziele des Pentagon für die Forschung und Entwicklung werden in Adam (1990) beschrieben. 21 kritische Technologien sollen auch künftig die Überlegenheit der US-Waffensysteme sicherstellen (DoD, 1991). Im Bericht des Pentagon an den Kongress (Cheney, 1991, p. 44) wird dargestellt, wie diese Technologien auf über 100 Teiltechnologien, auf die Technologie- und Produktionsbasis, auf spezielle Schlüssel-Industriebereiche, Hersteller und Zulieferer abgebildet werden.

Die Leitziele für die Forschung und Entwicklung lauten:

  • Weltweit mobile Allwetter-Streitkräfte für begrenzte Kriege
  • Verfolgung beweglicher Ziele
  • Abwehr ballistischer Raketen aller Reichweiten
  • Bezahlbarer Weltraum-Transport
  • Überlegenheit in der U-Boot-Kriegsführung
  • Globale Fähigkeiten zur Überwachung bestimmter Gebiete je nach Bedarf und zur Unterrichtung der Entscheidungsträger (GC3I)
  • Elektronische Kriegsführung (die gegnerische Abwehr durchdringen und selbst nicht gesehen werden)
  • Überlegene Luftverteidigungssysteme
  • Brilliante Waffensysteme (suchen, klassifizieren, verfolgen, zerstören autonom ein breites Spektrum an Zielen)
  • Reduzierung der Operationen und Unterstützungs-Ressourcen um 50<0> <>% ohne Kampfkraftverlust
  • Reduzierung der Menschen um 10<0> <>% pro militärischer Fähigkeit
  • Erhöhung der Produzierbarkeit und Verfügbarkeit künftiger Waffen.

Auf diese Leitziele und nicht auf die Erhaltung und Verbesserung menschlicher Lebensgrundlagen werden maßgebliche FuE-Aktivitäten in den USA, in Japan und Europa ausgerichtet.

In der Technologie-Strategie der Militärs für die 90er Jahre wird der Computerforschung die höchste Priorität zugewiesen. Dabei werden massiv parallele Systeme, Kommunikation in und zwischen Systemen und hochauflöslichen Bildschinne hervorgehoben. Sehr hohe Prioritäten erhielten auch die Sensortechnik und die Materialforschung.

Das Programm der kritischen Technologien ist in erster Linie darauf ausgerichtet, innovative Technologie zu schaffen und sie wirksam in die Militärmaschine einzufügen. Dabei sollen technische Durchbrüche erzielt werden. Die 21 kritischen Technologien (siehe Tabelle) sollen auch die Waffensysteme, deren Teilsysteme, Unterstützungssysteme (z.B. Ausbildung, Logistik) und die Infrastruktur des militärisch-industriellen Komplexes evolutionär verbessern. Sie sollen schließlich auch technologische Trumpfkarten (z.B. Tarnkappentechnologie, Atombombe, Polaris-System) für neue Kriegsstrategien aufspüren. Alle 5-10 Jahre soll eine solche Trumpfkarte zur langfristigen Sicherung der Dominanz im Rüstungswettlauf gezogen werden können.

Das Komitee der Streitkräfte des US-Kongresses unterstreicht, daß eine moderne Militärmacht weitgehend von Dual-Use-Technologien abhängt und 15 der 21 kritischen Technologien die Schlüsseleigenschaft »Dual-Use« haben. Über ihren Beitrag zu den „lebenswichtigen DoD-Missionen“ hinaus hätten Dual-Use Technologien auch bedeutsames kommerzielles Anwendungspotential.

Nur 6 dieser kritischen Technologien wären eindeutig rein militärische Technologien: Sensitive radars, signature control, weapon system environment, pulsed power, hypervelocity projectiles and propulsion, high energy density materials.

„Taken as a whole, the Defense Critical Technologies have several key attributes that are significant for DoD S&T management, including:

Critically;

Continuity;

Interdependence; and

Dual-Use.

Dual-use: Finally, the Defense Critical Technologies shows that modern military power is largely dependent upon dual-use technologies. At least 15 of the 21 Defense Critical Technologies, in addition to contributing to vital DoD missions, have significant commercial applications or potential.“ (DoD, 1991, p.11-6)

Vom »dual-use« Konzept Abschied nehmen

Technischer Fortschritt, orientiert am alten Prinzip, daß der Krieg der Vater aller Dinge sei, dominiert weiterhin den sozialen und menschlichen Fortschritt. Die Entstehungsprozesse neuer Technologien werden in ihrer politischen, wirtschaftlichen, wissenschaftlichen und technischen Dimension nicht transparent gemacht. Die dahinterliegenden Interessen- und Machtstrukturen, die allenfalls exemplarisch erkennbar sind, müssen aufgedeckt werden. Deshalb sollten alternative Projekte vorrangig die Zusammenhänge zwischen Sicherheits-, Forschungs-, Technologie- und Wirtschaftspolitik einerseits und den Forschungs- und Entwicklungsprozessen andererseits zum Untersuchungsgegenstand machen. Dabei sind insbesondere die Beziehungen zwischen militärischen und zivilen Anforderungen an die IT und den Fertigungsmethoden, Fertigungstechniken und Fertigungsprozessen zu untersuchen. Dringend erforderlich sind Analysen zur Dimensionierung der neuen IT. Es ist zu fragen, ob und inwieweit die Mega- und Giga-Dimensionen im Chipbereich oder die Teraflop-Dimension im Supercomputerbereich zur Lösung der drängenden gesellschaftlichen Probleme, wie z.B. Klima, Luft, Wasser, Boden, Nahrung, Abfall, Drogen, Arbeitslosigkeit, Grundrechte und Demokratie, beitragen. Umfassende Anforderungsanalysen an eine IT, die orientiert ist an der Wiederherstellung, am Erhalt und an der Verbesserung menschlicher Lebensgrundlagen, müssen erarbeitet werden. Vom Dual-Use-Konzept ist radikal Abschied zu nehmen. Ziel muß es sein, über eine Abrüstung im FuE-Bereich zu einer Richtungsänderung in der Forschungs- und Technologiepolitik zu gelangen. Statt IT, die militärisch sehr relevant ist, muß eine sozialförderliche IT erforscht und entwickelt werden. Ohne eine in der Öffentlichkeit geführte Diskussion wird dieses Ziel nicht erreicht werden können. Die Technologiedebatte muß über den Kreis technikorientierter Experten hinausgehen.

Literatur

Adam, J.A. (1990) Toward smaller, more deployable forces, as lethal as can be, in: Special Report DEFENSE: How much is enough?, IEEE Spectrum, November, pp. 30-41.

BMFT-Journal (1987) Durchbruch bei der Supraleitung, Nr.4/August, S.8.

Bulmahn, E. (1991) Bonn rüstet weiter, Sozialdemokratischer Pressedienst WIRTSCHAFT, 46. Jahrgang/43, 6. Juni, S. 1-4.

Cheney, D. (1991) Annual Report to the President and the Congress, U.S. Govemment Printing Office Washington, D.C.20402, January.

DoD (1988) Bolstering Defense Industrial Competitiveness, Report to the Secretary of Defense by the Under Secretary of Defense (Acquisition), Washington, DC, July.

DOD (1991) The Department of Defense Critical Technologies Plan for the Committees on Armed Services United States Congress, 1 May.

Domke, M.(1988) Einflußnahme von Politik, Militär und Industrie auf die Informatik am Beispiel Supercomputer, in: Rudolf Kitzing u.a. (Hrsg.) Schöne neue Computerwelt, Zur gesellschaftlichen Verantwortung der Inforinatiker, Verlag für Ausbildung und Studium in der Elefantenpress Berlin, S. 136-163.

Domke, M. (1990) Janusgesicht der zivilen Forschung (JESSI und Dual-Use), die computer zeitung, 11. Juli, S. 21-22.

Domke, M. (1990) JESSI und Dual-Use, Beispiel für Großindustrie-Subventionen und verdeckte Rüstungs-Haushalte, Informatik Forum, 4. Jahrgang, Heft 3, September, S. 147-151.

Domke, M.(1991) DUAL-USE: Berücksichtigung militärischer Anforderungen bei der zivilen Entwicklung neuer Technologien, in Kreowski, Hans-Jörg (Hrsg.), Informatik zwischen Wissenschaft und Gesellschaft: In Erinnerung an Reinhold Franck, Informatik Fachberichte, Springer-Verlag (erscheint demnächst).

EG (1988) Strategisches Forschungs- und Technologieprogramm im Bereich Luftfahrt, Mitteilung der Kommission an den Rat und an das Europäische Parlament, Technologie-Nachrichten, Programm-Informationen, Nr. 434-2.November, S.1-16.

EG (1991a) Specific Research and Technological Development Programme in the Field of Information Technology (1991-1994), ESPRIT, Workprogramme, Draft,24th June. EG (1991b) Background Material to the 1991 ESPRIT Workprogramme, Draft, Commission of the European Communities, Brussels, 12th June.

Forndran, D. (1985) Das Forschungs- und Technologiekonzept der Bundeswehr, 58. Arbeitstagung der Deutschen Gesellschaft für Wehrtechnik e.V.,24.-25. April, Bonn-Bad Godesberg.

OTA (1988) Commercializing High-Temperature Superconductivity, Congress of the United States, Office of Technology Assessment, OTA-ITE-388, Washington, U.S. Printing Office, June.

OTA (1991) Adjusting to a New Security Environment: The Defense Technology and Industrial Base Challenge – Background Paper, U.S. Congress, Office of Technology Assessment, OTA-BP-ISC-79, Washington, DC: U.S. govemment Printing Office, February.

Protokoll (1983) Über ein Gespräch von BMFT und BMVg mit Vertretern aus Wissenschaft und Industrie über verteidigungsrelevante Informationstechnik am 17./18. November 1983, Bonn, BMFT/413, l. Dezember.

Riesenhuber, H. (1984) Informationstechnik, Konzeption der Bundesregierung zur Förderung der Entwicklung der Mikroelekmonik, Informations- und Kommunikationstechniken, BMFT, Bonn.

Riesenhuber, H. (1990) Zum Stand der Durchführungsphase des Eureka-Programms für Mikrooelektronik JESSI (Joint European Submicron Silicon), Pressemitteilung Nr.43/90, BMFT-Pressereferat Bonn, 19. April.

Sadlowski, M. (1984) Innovationsfreundliche Beschaffungspolitik, wt-Gespräch mit dem Rüstungsstaatssekretär, wt 11/84, S.14-16.

ST90(1990) Mit Technik Frieden sichern, Siemens Bereich Sicherungstechnik, Vorträge anläßlich der Siemens-Tagung 1990.

US Air Force (1987) The US Air Force R&M 2000 Initiative, IEEE Transactions on Reliability, Vol.R-36, No.3, August, pp.277-381.

ZKI (1989) Zukunftskonzept Informationstechnik, BMFl und BMWi, Bonn, August.

Hinweis: Eine beispielhafte Aufarbeitung der dual-use-Problematik in der Mikroelektronik leistet M. Domke in dem demnächst erscheinenden Band der Schriftenreihe Wissenschaft & Frieden: Ute Bernhardt und Ingo Ruhmann (Hrsg.), Ein sauberer Tod: Informatik und Krieg, 1991. Dort findet sich auch eine ausführlichere Literaturliste.

Manfred Domke ist Informatiker, an einer Großforschungseinrichtung beschäftigt und Mitglied in der FiFF-Regionalgruppe Bonn.

Dual use? Militär und Weltraumfahrt

Dual use? Militär und Weltraumfahrt

Thesen zur Diskussion

von Ulrich Albrecht

1. Die Raumfahrtpolitik ist weltweit in eine Phase kritischer Diskussion geraten besonders in Bezug auf bemannte Raumfahrt und die Verbindung zu militärischer Rüstung.

In der UdSSR erscheint Raumfahrt namhaften Kritikern in der zugespitzten Situation des wirtschaftlichen Umbaus, der »Perestroika«, als einer der Auswüchse der verfehlten Politik von Prestigeobjekten der Vergangenheit. Selbst ehemalige Raumfahrer, etwa der Wissenschaftler K. Feoktistow, engagieren sich stark kritisch in dieser Debatte.1 In den USA hat das »Advisory Committee on The Future of the U.S. Space Program« (nach dem Vorsitzenden auch »Augustine Report« genannt), immerhin eine Gruppierung aus dem Raumfahrtestablishment, im Dezember 1990 kräftige Abstriche an der Priorität der Space Shuttle, eine weniger aufwendige Konzipierung bemannter Raumstationen, vor allem aber eine stärkere Betonung von wissenschaftlichen Projekten der nicht bemannten Raumforschung vorgeschlagen. Besonders das Office of Technology Assessment des US Kongresses (OTA) hat sich sehr dezidiert mit den Beziehungen zwischen Rüstungs- und Zivilforschung befaßt und gelangt 1989 zu dem Ergebnis:

„Mehr und mehr wird Spitzentechnologie im Zivilsektor entwickelt und findet hernach den Weg zur Verwendung in der Rüstung.“

UNIDIR, das United Nations Institute for Disarmament Research befand gleichfalls 1990 bündig:

„The bulk of interaction between military and civilian R&D goes the other way: from civilian to military R&D.“

In der Bundesrepublik sollte die „Entschließung zur bemannten Raumfahrt“ der Deutschen Physikalischen Gesellschaft vom vergangenen Dezember eigentlich breitere Beachtung finden. Die namhaften Unterzeichner der Entschließung ziehen den Nutzen bemannter Projekte grundsätzlich in Zweifel. „Haupttriebfeder“ für solche Vorhaben sei in der Vergangenheit der „politische und militärische Wettbewerb“ der Mächte gewesen. Spin-off-Effekte seien „derzeit nicht zu erkennen.“ Die drei größeren Friedensforschungsinstitute in Deutschland – die Hessische Stiftung, die Forschungsstätte der Evangelischen Studiengemeinschaft und das Hamburger Institut für Friedensforschung und Sicherheitspolitik – haben in ihrem »Friedensgutachten 1990« die Bundesregierung aufgefordert, „die Aufwendungen für militärische Projekte schon jetzt drastisch zu senken und die freiwerdenden Mittwel für die Lösung der Umwelt- und Entwicklungsländerproblematik einzusetzen.“

2. Für »dual use« geeignete, sowohl für militärische wie für zivile Zwecke nutzbare Forschung, wird besonders in öffentlich geförderten Programmen vermutet, während die privatwirtschaftlich finanzierte Forschung diesen Ansatz kaum kennt.

Regierungen sind besonders an der Steuerung von Forschung interessiert, aus wirtschaftspolitischen und auch aus sicherheitspolitischen Gründen. Die öffentliche Hand bestreitet den Löwenanteil der Forschungsausgaben im Sozialprodukt (in der OECD-Nomenklatur GERD, Gross Domestic Expenditure on R&D, in Deutschland 37 %). Daraus erwachsen für Regierungen Legitimierungsprobleme, die der von der Wirtschaft betriebenen Forschung fremd sind. Die Thesen vom »dual use«, vom »spin off“/“spill over“/“fall out« (die terminologischen Schwankungen verweisen auf Unsicherheiten) stellen wichtige Versuche solcher regierungsamtlichen Rechtfertigungen dar. Angemessen behandelt man sie zuallererst als Rechtfertigungsbemühungen und nicht als Versuche, Probleme wirklich zu analysieren.

3. Im Spektrum von Technologien bilden »dual use«-Beispiele ein begrenztes Segment.

Es gibt Schnittstellentechnologien wie Computerwissenschaft, Avionik, Halbleitertechnologien und Elektronik, die breit beiden konkurrierenden Verwendungsmöglichkeiten offenstehen. Daneben lassen sich Technologielinien angeben, etwa in der Werkstofforschung, die in begrenzterem Maße doppelwertig sind. Die erwähnte OTA-Studie konzentriert sich exemplarisch auf drei Technologielinien (Softwareentwicklung, Optronik und Verbundwerkstoffe), diesen Befund bestätigend. Von der Masse der Rüstungstechnologie, so ein sich herausbildender Konsens in der Forschung, ist hingegen mehr und mehr eine zivile Anwendbarkeit nicht zu erwarten.

Die Bedeutung solcher Schnittstellentechnologien steigt andererseits rasch, was die These von der Bedeutung des »dual-use«-Aspekts steigert, wie etwa der Executive Director des US Defense Science Board, Welch, unterstreicht.5

Der analytische Schwachpunkt der »dual-use«-Debatte liegt allgemein darin, daß zwischen ziviler und militärischer Forschung nach input-Kriterien unterschieden wird (wenn auch nicht frei von Vorstellungen zu Forschungsergebnissen), nämlich nach der Finanzierungsart, während die im politischen Streit liegenden Konzepte (»dual use«, »spin-off«) Verwendungskriterien wiedergeben. Dieser Unterschied läßt sich analytisch nicht aufheben.

4. Zwischen ziviler und militärischer Forschung gibt es Wechselwirkungen, die nicht symmetrisch ausfallen und deren Hauptrichtung sich mehr und mehr verlagert vom Zivil- zum Militärsektor.

Im Kalten Krieg (damals mit mehr Berechtigung) herrschte die Annahme vor, daß von der Rüstungsforschung als Leitsektor starke Impulse auf das technologische Niveau einer Volkswirtschaft insgesamt ausgehen, auch wenn die Übertragungsmechanismen nicht bekannt und die Effekte nicht quantifizierbar seien. In neueren Untersuchungen, etwa der UN-veranlaßten Studie „The military use of R&D“ , wird nunmehr festgehalten, daß neben den Technologielinien der Entstehungszyklus von Waffen für spin-offs sehr unterschiedlich wirksam ist: in der Phase der Grundlagenforschung gelten diese als erheblich, in der (die größten Kostenanteile verschlingenden) Phase der Durchentwicklung als besonders gering.6 Gewichtige Akteure wie die Kommission der EG äußern heute die eingangs von der OTA zitierte Auffassung, daß dort, wo es Verbindungen zwischen beiden Forschungssektoren gibt, die Wirkrichtung vorrangig vom zivilen zum militärischen Sektor verläuft. Die UNIDIR-Studie spricht von »spin-on« oder »spin-in«. Verschoben wird das Bild ferner durch den Tatbestand, daß von militärischer Seite zivile Forschungen systematisch beobachtet und genutzt werden, während dies in umgekehrter Richtung kaum zutrifft.

5. Da sich die Schubkräfte für militärische und zivile Forschung unterschiedlich entwickeln, steht eine weitere Minderung der gesamtwirtschaftlichen Bedeutung der Rüstungsforschung an.

Das qualitative Wettrüsten zwischen Ost und West hat vorrangig der Rüstungsforschung Schub gegeben. Künftig entfällt dieses Triebmoment weitgehend. Der Wettbewerb auf Zivilmärkten verliert international keineswegs an Schärfe.

In Bereichen wie Unterhaltungs- und Gebrauchselektronik, der alltäglichen Verwendung von Computern, in der Elektrooptik und der Verwendung von Glasfasern zur Datenübermittlung werden zivile Umsätze jede militärische Nachfrage um Größenordnungen überschreiten und die forschungspolitischen Entscheidungen bestimmen. Zwar handelt es sich um »dual-use«-Technologien, aber der Zivilsektor wird hier in Führung liegen, während die militärischen Anwendungen nachfolgen. Daraus ergibt sich, daß die Förderung solcher Forschungslinien über den Militärhaushalt verfehlt wäre.

6. Aus übergeordneten abrüstungspolitischen Gründen bleibt eine Verringerung der Rüstungsforschung wünschenswert.

Seit nunmehr drei Jahrzehnten wird in der Debatte über Möglichkeiten zur Rüstungsbeschränkung gezielt auf die Rüstungsforschung verwiesen (vergl. etwa die US „Outline for Basic Provisions on a Treaty on GCD in a Peaceful World“ vom 18.4.62: die UN sollten „collect reports from the Parties to the Treaty on any basic scientific discovery and any technical innovation having potential military significance“; außerdem sollte verifiziert werden, „that such discoveries and inventions were not utilized for military purposes“). Seither gibt es eine Reihe von Vorschlägen, aus Ost und West, das Wettrüsten durch Beschränkungen der Rüstungsforschung zu begrenzen, besonders aus Skandinavien. Die »dual-use«-Debatte sollte solche übergordneten abrüstungspolitischen Bemühungen einbeziehen.8

Anmerkungen

1) Eine Anzahl von Belegen habe ich in dem Band The Soviet Armaments Industry zusammengetragen (i.E. bei Harwood Academic Publishers, London Zurück

2) US Congress, Office of Technology Assessment, Holding the Edge: Maintaining the Defense Technology Base, OTA-ISC-420, Washington, D.C.: US Government Printing Office, April 1989, S. 5 (Übersetzng d. Verf.). Zurück

3) UNIDIR, Science and technology between civilian and military research and development. Armaments and development at variance, Research Papers No. 7, New York, Nov. 1990, S. 17. Zurück

4) Hessische Stiftung Friedens- und Konfliktforschung (HSFK), Forschungsstätte der Evangelischen Studiengemeinschaft (FEST), Institut für Friedensforschung und Sicherheitspolitik an der Universität Hamburg (IFSH), Friedensgutachten 1990, Münster/Hamburg 1990, S. 13. Zurück

5) Thomas J. Welch, Technology Change and Security“, in: Washington Quarterly , vol. 13, no. 2, Spring 1990, bes. S. 112. Zurück

6) Vergl. die Sonderausgabe des Bulletin of Peace Proposals, „Military Use of R&D: The Arms Race and Development“, vol.19, no. 3/4 1988 (dort ist der erwähnte Bericht mit Kommentar zu finden). Zurück

7) Zit. nach: Documents on Disarmament, vol.l, Washington, D.C., (ACDA, publication 19), 1963, S. 379. Zurück

8) Bei den Thesen handelt es sich um einen Vorabdruck des Beitrags von U. Albrecht in: Wolf-Michael Catenhusen, Werner Fricke (Hrsg.): Raumfahrt kontrovers. Perspektiven der deutschen und der europäischen Weltraumpolitik. Forum Humane Technikgestaltung Heft 3. Friedrich Ebert-Stiftung, Bonn 1991. Zurück

Prof. Dr. Ulrich Albrecht ist Hochschullehrer für Politische Wissenschaften an der FU Berlin.

Tritium

Tritium

Ein Bombenstoff rückt ins Blickfeld von Nichtweiterverbreitung und nuklearer Abrüstung

von Lars Colschen • Martin Kalinowski

Bis vor wenigen Jahren wurde dem Tritium im sicherheitspolitischen Kontext in der Öffentlichkeit kaum Beachtung geschenkt. In der militärischen Sphäre der Kernwaffenstaaten ist Tritium dagegen seit Beginn der 60er Jahre immer eine ausreichend verfügbare Ingredienz für den Kernwaffenbau gewesen. Das änderte sich schlagartig, als 1988 in den USA die militärischen Produktionsreaktoren für Tritium und Plutonium wegen Sicherheitsmängeln stillgelegt werden mußten und als Folge die »Tritium Crisis« zu einer in Politik und Wissenschaft offen diskutierten Frage der nationalen Sicherheit hochstilisiert wurde. Politiker in Regierung und Kongreß, sowie Vertreter aus dem Pentagon fürchteten das Fehlen von Reserven, so daß die stillgelegte Produktion in Kombination mit dem radioaktiven Zerfall des Tritiums die Kernwaffen sukzessive untauglich machen würde, was in eine einseitigen quantitativen und qualitativen nuklearen Abrüstung gemündet wäre und Modernisierungsprogramme erheblich erschwert hätte. Abrüstungsexperten hingegen sahen in dem Tritiumzerfall die Chance, diesen für eine Dynamisierung des nuklearen Abrüstungsprozesses zu instrumentalisieren.

0 Bq*: Argentinien, Australien, Japan, Malaysien, Schweiz
0,0002000 GBq: Mexiko
0,0037000 GBq: Finnland
0,0050000 GBq: Indonesien
0,0370000 GBq: Philippinen
370,0000000 GBq: USA
3.700,0000000 GBq: Belgien, Frankreich, Deutschland, Italien, Niederlande,
Norwegen, Süd Afrika, U.K.
37.000,0000000 GBq: Kanada
370.000,0000000 GBq: Schweden
Keine Lizenz erforderlich CSFR, Ungarn, Rumänien
* Bq ist das Maß für die Tritiumaktivität. 1 Bq=1 Zerfall pro Sekunde. 370.000 GBq Tritium sind etwa 1 Gramm.

Etwa gleichzeitig schlug in Kanada eine Diskussion hohe politische Wogen, in der es darum ging zu vermeiden, daß von den in großen Schwerwasserreaktoren produzierten, für die zivile Nutzung vorgesehenen Tritiummengen Anteile für Kernwaffen mißbraucht werden könnten.

In Europa geriet Tritium in die Schlagzeilen, als Anfang 1980 aufgedeckt wurde, daß das bundesdeutsche Unternehmen NTG illegal Tritium und Tritiumtechnologie für das pakistanische Kernwaffenprogramm geliefert hatte.

Physikalische Eigenschaften und Produktion

Tritium ist das schwerste der drei Wasserstoffisotope (sonst: Wasserstoff und Deuterium). Es hat ein Proton und zwei Neutronen im Kern. Tritium ist radioaktiv und zerfällt bei Aussendung eines Elektrons zum stabilen Helium-3. Die Halbwertszeit beträgt 12,3 Jahre. Tritium ist in der Natur, obschon in geringen Mengen vorhanden, nicht gewinnbar, sondern kann nur künstlich in Kernreaktoren erzeugt werden. Aus praktischen Gründen werden zur Gewinnung nennenswerter Tritiummengen besonders zwei Produktionswege genutzt:

  • Targets aus Lithium-6 werden in den Reaktor eingeführt und mit Neutronen beschossen. Bei einer Kernreaktion entsteht Tritium als Zerfallsprodukt. Auf diese Weise lassen sich die größten Tritiummengen herstellen, weshalb sie auch zur Versorgung der Kernwaffen verwendet wird.
  • Tritium entsteht in Schwerwasserreaktoren automatisch während des Reaktorbetriebes aus dem Deuterium des Kühlwassers. Dies ist zunächst einmal eine radioaktive Verunreinigung des Kühlwassers (Kontamination), welche durch Tritiumextraktionsanlagen behoben werden kann. Bei diesem Reinigungsvorgang wird Tritium quasi als »Abfallprodukt« gewonnen. Dieser Methode bedient sich der kanadische Tritiumproduzent, da er zahlreiche Reaktoren dieses Typs betreibt.

Die Ambivalenz der zivilen und militärischen Nutzbarkeit von Tritium

Tritium ist ein mehrseitig einsetzbares Material. Das Problem dabei ist, daß es militärische und zivile Anwendungsmöglichkeiten gibt.

Unter der Kategorie der zivilen Verwendungen können industrielle und wissenschaftliche Nutzungen subsumiert werden, während bei militärischen Verwendungen die für Nuklearwaffen und die für andere Zwecke unterschieden werden können. Die Menge an Tritium, die weltweit bisher für militärische Zwecke mindestens produziert worden ist, übertrifft die für zivile Zwecke verwendete um den Faktor 10.

Von der physischen Beschaffenheit des Tritiums her ist nicht erkennbar, ob das Tritium zivil oder militärisch genutzt werden soll. Der Umgang mit Tritium ist daher von Natur aus ambivalent. Ein Mißbrauch von für ausschließlich zivile Zwecke produziertem und gehandeltem Tritium für militärische Zwecke kann daher nicht grundsätzlich ausgeschlossen werden.

Im zivilen Bereich dient Tritium sowohl als energieversorgungsunabhängige Lichtquelle in industriellen Produkten (z.B. Landebahnmarkierungen, EXIT-Schilder, Leuchtziffern in Uhren), als auch in der Forschung und Wissenschaft (als Tracer in der Biologie, Medizin und Geologie sowie bei der Fusionsforschung).

In der militärischen Sphäre findet Tritium in zwei Bereichen Anwendung. Einmal fungiert es analog zum zivilen Bereich als energieversorgungsunabhängige Lichtquelle (z.B. zur Beleuchtung der Zieleinrichtungen von Handfeuerwaffen oder für die Landebahnbeleuchtung bei nächtlichen Militäraktionen wie der Invasion von Grenada durch die USA).

Von weitaus größerer Relevanz ist Tritium aber für die Staaten, die sich im Besitz von Kernwaffen befinden. Hier hat Tritium entweder den Effekt der Sprengwirkungssteigerung (Faktor zwei bis zehn bei Spaltbomben) oder ist sogar für die Funktionsfähigkeit unabdingbar (bei der Wasserstoff- sowie der Neutronenbombe). Bei ersterem, dem sogenannten »boosting«, wird gasförmiges Tritium in Mengen von rund zwei bis drei Gramm je Sprengkopf eingesetzt, während bei den Neutronenbomben bis zu 20 Gramm pro Sprengkopf benötigt werden.

Alle fünf offiziellen Kernwaffenstaaten (USA, UdSSR, Großbritannien, Frankreich und China) nutzen Tritium heute wahrscheinlich in allen Sprengköpfen ihrer Kernwaffenarsenale.

Einfache Kernsprengsätze, wie sie zunächst jeder Staat zu konstruieren anstrebt, der sich noch in der ersten Phase seines Kernwaffenprogrammes befindet, sind tritiumlos (dies traf auch auf die Bomben zu, mit denen Hiroshima und Nagasaki zerstört worden sind).

Der Tritiummarkt

Die derzeitige zivile Nachfrage auf dem stark schwankenden Tritiummarkt liegt durchschnittlich bei 500 bis 1.000 Gramm pro Jahr weltweit. Der Preis für ein Gramm gasförmigen Tritiums beträgt 1991 etwa $ 28.000, nachdem er 1988 noch bei $ 13.000 lag. Hauptanbieter sind Kanada (Ontario Hydro, OH), die USA (Oak Ridge National Laboratory, ORNL), die UdSSR und Frankreich. Auch in der Bundesrepublik kann Tritium käuflich erworben werden. Primär aber treten die Bundesrepublik bzw. bundesdeutsche Unternehmen und Behörden (u.a. das Kernforschungszentrum Karlsruhe) als Nachfrager auf dem Tritiummarkt auf.

Aufsehenerregend war Mitte der 80er Jahre die Entscheidung Kanadas, durch das Unternehmen Ontario Hydro 2,5 Kilogramm Tritium pro Jahr auf dem zivilen Weltmarkt anzubieten. Die Angst vor einer möglichen militärischen Verwendung dieser augenscheinlichen Überproduktion war der Gegenstand von massivem öffentlichen Druck. Als Folge traf die kanadische Regierung gesetzgeberische Maßnahmen, die eine ausschließlich zivile Nutzung des kanadischen Tritiums sicherstellen sollen. Kanada hofft, sich in dieser Marktnische zu etablieren und setzt auf eine starke Ausweitung der zivilen Tritiumnachfrage. Diese Hoffnung richtet sich weniger auf den industriellen Sektor, sondern in erster Linie auf einen wissenschaftlichen Durchbruch bei der Fusionsforschung, durch den ein zusätzlicher Bedarf in der Größenordnung von mehreren Kilogramm Tritium erwartet wird.

OH kommen dabei die jüngsten Probleme bei der militärischen Tritiumproduktion zugute. Seit April 1988 mußten die Tritiumpoduktionsanlagen in Savannah River/South Carolina aus Sicherheitsgründen stillgelegt werden. Mit diesen Anlagen wurde der gesamte militärische Bedarf der USA gedeckt, geringe Mengen wurden für die zivile Nutzung verkauft. Trotz des Produktionsstopps wurden auch 1990 noch 180 Gramm Tritium aus dieser Quelle auf dem internationalen Markt angeboten.

Die kommerziellen Tritiumverkäufe aus der UdSSR stammen mutmaßlich ebenfalls aus militärischer Produktion. Bei künftig möglicherweise strengeren Sicherheitsbestimmungen für den Reaktorbetrieb erscheint auch die sowjetische Tritiumproduktion nicht als gesichert. Damit könnte sich, zumindest mittelfristig, für Kanada bzw. OH eine globale Monopolstellung ergeben, was auch auf den Tritiumpreis Auswirkungen haben könnte.

Tritiumkontrolle

Bei der praktizierten Tritiumkontrolle haben die Kernwaffenrelevanz und die diesbezügliche Verhinderung der Proliferation von Tritium und Tritiumtechnologie sowie die abrüstungspolitische Bedeutung bislang nur eine untergeordnete Rolle gespielt.

Auf der nationalen Ebene haben die Gesetzgeber die Anlagenbetreiber aus Strahlenschutzgründen dazu verpflichtet, ein Kontroll- und Buchführungssystem zu implementieren, wenn mit Tritiummengen oberhalb einer festgelegten Freigrenze hantiert wird. In Bezug auf den Strahlenschutz existieren internationale Richtlinien aufgrund von Empfehlungen der IAEO (Internationale Atomenergie Organisation), NEA (Nuclear Energy Agency) und ICRP (International Commission on Radiation Protection). Diese sind in die nationale Gesetzgebung vieler Staaten übernommen worden.

Ebenso bestehen in den meisten Staaten, in denen mit Tritium umgegangen wird, Regelungen für die Produktion, den Erwerb, Import und Export von Tritium. In der Regel sind die genannten Aktivitäten oberhalb einer Grenzmenge lizenzpflichtig. Nach der Lizenzerteilung sind die zuständigen Behörden jedoch nicht zu physischen Kontrollen oder anderen Verifikationsmaßnahmen berechtigt. Zollämter haben weder das Wissen noch die technischen Voraussetzungen, um einen Verdacht auf illegalen Tritiumtransfer zu überprüfen.

Die Regelungen variieren stark von Staat zu Staat. Dies wird besonders augenfällig bei einem Vergleich der nationalen Grenzwerte für Exportmengen, oberhalb derer eine Lizenz erforderlich ist (siehe Tabelle).

Mögliche Diebstahlvarianten und Abzweigungsstrategien für Tritium sind bei den meisten Staaten nicht in die Überlegungen bzgl. der entsprechenden Gesetzgebung eingegangen. Eine systematische Kontrolle über den Verbleib von Tritium ist zudem wegen der Vielzahl relevanter Vorschriften und zuständiger Behörden kaum durchführbar. Wenn Individuen oder Staaten die Absicht haben, unerkannt Tritium ein- oder auszuführen, bieten sich vielfältige Schlupflöcher. So befürchtet die NRC (Nuclear Regulatory Commission; das ist die in den USA u.a. für den Tritiumexport zuständige Lizensierungsbehörde), daß die derzeitigen Bestrebungen der US-Gesetzgebung, die Tritiumexportkontrollen zu verschärfen (u.a. durch die schriftliche Verpflichtung des Empfängers, keinen unautorisierten Weitertransfer des Tritiums durchzuführen), zu Einbußen bei der Kontrolle des internationalen Tritiummarktes (durch die USA!) führen könnten, da bisherige und potentielle Kunden sich dann an Anbieter wenden könnten, deren Staaten weniger Bedingungen an ihre Tritiumexporte knüpften.

Mit der Ausnahme der COCOM-Liste (Coordinating Committee for Multilateral Export Control) ist Tritium bisher keiner internationalen Technologietransferkontrolle unter dem Gesichtspunkt der Nichtweiterverbreitung unterworfen. COCOM ist in vielerlei Hinsicht ein nur sehr begrenztes Instrument. Es hat eine relativ geringe und einseitige Mitgliedschaft (nur die führenden westlichen Industrienationen). Es richtet sich als externes Regime gegen eine bestimmte Staatengruppe, die kommunistisch regierten Staaten, die es bewußt ausgrenzt und nicht zu integrieren versucht. COCOM ist daher als ein hochgradig diskriminierendes Technologieverweigerungsinstrument zu charakterisieren. Zudem hat es sich insofern überholt, als diese Staatengruppe spätestens seit 1989 nicht mehr als der monolithische Block existiert, als der er von den COCOM-Mitgliedsstaaten 40 Jahre lang perzipiert worden war. Dem versucht COCOM derzeit durch Änderungen sowohl der Inhalte der COCOM-Liste, als auch der Zielstaaten gerecht zu werden. Bezüglich der weiteren Entwicklung bestehen zahlreiche Unwägbarkeiten. Bliebe COCOM erhalten und Tritium auf der Liste, was wegen seiner Kernwaffenrelevanz zu erwarten ist, würde sich bei einer mutmaßlichen Erweiterung der Mitgliedschaft auch die Tritiumexportkontrolle ausdehnen. Nachdem die meisten ehemaligen sozialistischen Staaten wegen »Wegfall der Geschäftsgrundlage« von der Liste der Zielstaaten gestrichen worden sind, zeichnet sich eine neue Liste von Staaten ab, denen (neben den wenigen noch verbliebenen Staaten wie Nordkorea, Vietnam oder Kuba) in erster Linie gemeinsam ist, daß ihnen in irgendeiner Form Ambitionen auf ABC-Waffen unterstellt werden.

Das COCOM-Konzept kann aus den genannten Gründen auch bei etwaigen Modifikationen kein geeignetes Instrument für eine hinreichende Tritiumkontrolle auf internationaler Ebene darstellen.

Neue Entwicklungen bei der Tritiumkontrolle

Neben der derzeitigen COCOM-Revision zeichnen sich seit dem Herbst 1990 bezüglich einer internationalen Kontrolle von Tritium und Tritiumtechnologie aus Gründen der Nichtweiterverbreitung auf mehreren Ebenen neue Entwicklungen ab.

1. Im September 1990 wurde auf der vierten Überprüfungskonferenz des Nichtweiterverbreitungsvertrages (Non-Proliferation Treaty, NPT) die Proliferationsrelevanz von Tritium erstmals auf dieser Ebene bestätigt. Obschon Tritium und dessen mögliche Abzweigung für eine militärische Nutzung in dem Vertragswortlaut von 1970 kein expliziter Kontrollgegenstand des NPT ist, wurde auf der Konferenz dazu aufgerufen, eine frühzeitige und adäquate Koordination bei der Kontrolle von Tritiumexporten sicherzustellen.

Dabei wurde aber keine Diskussion mit der Intention geführt, Tritium zusätzlich zu Plutonium und hochangereichertem Uran (highly enriched uranium, HEU) unter Safeguardsmaßnahmen zu stellen, d.h. eine Tritiumkontrolle in den NPT zu integrieren. Trotzdem ist diese Sensibilisierung in Bezug auf Tritium ein erster Schritt der NPT-Mitgliedstaaten, sich mit einer Tritiumkontrolle zu beschäftigen.

2. Die Staaten der Nuclear Suppliers Group (NSG) haben während ihres letzten Treffen vom 5. bis 7.März 1991 in Den Haag eine Arbeitsgruppe mit der Aufgabe eingesetzt, die Richtlinien und die Liste der nuklearen Materialien und Technologien zu überarbeiten, die sowohl militärisch als auch zivil genutzt werden können, d.h. Dual-Use-Charakter besitzen.

Da Tritium in diese Kategorie fällt, haben einige Staaten, darunter auch Deutschland, vorgeschlagen, Tritium und Tritiumtechnolgie auf diese Liste zu setzen. Bis Ende 1991 wird die Arbeitsgruppe eine Vorlage für eine Ergänzung der NSG-Richtlinien erarbeiten, die auf dem nächsten Treffen der NSG 1992 in Warschau verabschiedet werden soll.

3. Kanada legt als weltweit größter Produzent von Tritium für den zivilen Markt besonderen Wert auf eine effektive Kontrolle seiner Tritiumexporte. So wurde eine entsprechende Ergänzung zum Kooperationsabkommen zwischen EURATOM und Kanada im Mai 1991 verabschiedet. Sie umfaßt eine Vereinbarung über die Lieferungen von Tritium und Tritiumtechnologie von Kanada für die europäische Fusionsforschung. Darin wird die EURATOM beauftragt, die vertragsgemäße Verwendung des gelieferten Tritiums in EURATOM-Mitgliedsstaaten zu überwachen. Eingeschlossen ist auch die Überprüfung gelieferter Tritiumtechnologie und von Tritium, das damit produziert oder verarbeitet wird.

Eine bilaterale technische Arbeitsgruppe hat den Auftrag, die spezifischen Modalitäten der Kontrolle und Buchführung auszuarbeiten. Die Mitte 1991 abgeschlossenen Kaufverhandlungen über die Lieferung von zehn Gramm Tritium an die Kernforschungsanlage Karlsruhe (KfK) bilden in diesem Zusammenhang einen Präzedenzfall. Der erste Teil des Tritiums, welches in Raten über einen mehrjährigen Zeitraum geliefert werden soll, wird 1992 nach Karlsruhe transferiert. Hier hat die EURATOM, die sich noch in der Entwicklungsphase bei den zu treffenden Safeguardsmaßnahmen befindet, die Gelegenheit, erste Erfahrungen mit der Tritiumkontrolle zu sammeln.

Dabei ist sich die EURATOM-Safeguardsabteilung der Dual-Use-Problematik des Tritums bewußt und beabsichtigt, dies bei der Entwicklung der Safeguards, z.B. durch Maßnahmen zur Verhinderung von Abzweigungen, auch zu berücksichtigen.

Bislang allerdings beschränken sich die EURATOM-Zuständigkeiten auf Tritiumlieferungen für Fusionsprojekte. EURATOM besitzt noch kein Mandat für Tritium, das für andere zivile Anwendungen oder gar militärische Zwecke gedacht ist.

Analoge Abkommen mit anderen potentiellen Tritiumlieferanten an EURATOM-Mitgliedsstaaten für Fusionsforschungsprojekte sind zu erwarten. Derzeit laufen Verhandlungen der EURATOM mit sowjetischen Behörden über eine Zusammenarbeit auf dem Gebiet der Nukleartechnik, bei denen es auch um Regelungen für Tritium geht.

4. In den USA werden Umgang und Verkauf von Tritium durch das DoE (Department of Energy) und die NRC (Nuclear Regulatory Commission) nach zwei nationalen Gesetzen, dem Atomic Energy Act von 1954 und dem Nuclear Non-Proliferation Act von 1978, kontrolliert.

In einem Report vom März 1991 hat das GAO (General Accounting Office) festgestellt, daß die nationalen Kontrollen von Tritiumexporten für zivile Zwecke verbessert werden können. Anlaß für diesen Report waren mehrere Tritiumtransfers, bei denen relativ hohe Differenzen auftraten zwischen den Tritiummengen, die vor dem Transfer gemessen wurden und denen, die beim Empfänger noch ankamen. Daß der Report in der Rubrik »Nuclear Nonproliferation« erschienen ist, zeigt auch an, daß die USA zu den Staaten gehören, die die Dual-Use-Problematik erkannt haben und diesem Umstand mit gesetzgeberischen Maßnahmen Rechnung zu tragen versuchen. Der GAO-Report konstatiert erhebliche Schwächen im Management der Tritiumhandhabungen. Beispielsweise war nur eine allein arbeitende Person ohne jegliche Kontrolle dafür zuständig, das Tritiumgas in die Kontainer einzufüllen und für den Transport vorzubereiten. Das verantwortliche DoE versucht, die festgestellten Schwächen dadurch auszuräumen, indem es das bisher zuständige ORNL aller Verantwortlichkeiten bezüglich Tritium enthoben hat und die Tritiumoperationen seit Juli 1990 in der moderneren, angeblich besser geeigneten Tritiumanlage des Mound Laboratory in Ohio durchfuehren läßt. Zudem empfiehlt das GAO der NRC, schriftliche Endverbrauchsbestimmungen von den Empfängern zu verlangen und Abkommen mit den Empfängerstaaten abzuschließen, die einen Transfer des Tritiums in ein Drittland nur mit Zustimmung der NRC ermöglichen soll.

Fallbeispiel: Bundesrepublik und Tritiumexporte nach Pakistan

Neben den Kontrolldefiziten in den USA hat ein anderer Fall aus den Jahren 1985/1986 in der Bundesrepublik die internationale Aufmerksamkeit bezüglich Tritium erregt.

Illegale Exporte von Tritium und Tritiumtechnologie nach Pakistan (einem Land, welches in Verdacht steht, intensiv an einem eigenen Kernwaffenprogramm zu arbeiten) haben Gesetzeslücken und Vollzugsdefizite der bestehenden Gesetzgebung offensichtlich werden lassen. Interessengegensätze verschiedener Ressorts (besonders zwischen dem Bundesministerium für Wirtschaft und dem Außenministerium) sowie unterbesetzte und fachlich überforderte Exportkontrollorgane (besonders das Bundesamt für Wirtschaft, BAW und das Zollkriminalinstitut) haben es der Neuen Technologien GmbH (NTG) leicht gemacht, einen lukrativen Auftrag trotz evidenter Kernwaffenrelevanz zu realisieren.

Durch den illegalen Export von Tritium und Tritiumtechnologie haben sich seitdem die politischen Prioritäten in der Bundesrepublik in der Proliferationsfrage gewandelt. Die militärische Relevanz wurde erkannt, und die zuständigen Behörden (speziell das BAW) sind für diese Problematik sensibilisiert worden. Zudem wurden gesetzgeberische Maßnahmen und personelle Verstärkungen im Bereich der Exportkontrolle vorgenommen. Dies schließt aber nicht aus, daß Pakistan oder ein anderer Staat mit modifizierter Umgehungsstrategie sich nicht doch wieder erfolgreich den deutschen Exportkontrollen entziehen kann, um sich Tritium und Tritiumtechnologie für sein Kernwaffenprogramm zu verschaffen. Die nationalen Gesetzgebungen und Exportkontrollpraktiken vieler Staaten fallen sogar hinter den deutschen Standard zurück. Durch den NTG-Pakistan Fall bietet sich die Gelegenheit, daß die Bundesrepublik bei einem internationalen Aushandlungsprozeß über eine internationale Tritiumkontrolle die eigenen Erfahrungen einbringen kann.

Fazit

Das Fehlen stringenter, effektiver Kontrollmechnismen für Tritium und Tritiumtechnologie auf internationaler Ebene kann unter Proliferationsgesichtspunkten fatale Folgewirkungen nach sich ziehen. Im Gegensatz zu den speziellen nuklearen Materialien (Plutonium und HEU) existieren auf internationaler Ebene auch keine Vereinbarungen über den physischen Schutz von Tritium gegen Diebstahl oder Sabotage.

Erste Ansätze (COCOM, EURATOM, NSG) aus den letzten Jahren zeigen, daß eine globale Tritiumkontrolle keine Utopie bleiben muß. Für die Organisation dieser Kontrolle existieren mehrere Optionen. Sie reichen von Richtlinien für eine Harmonisierung der nationalen Gesetzgebungen für zivile Tritiumexporte bis zu der Möglichkeit der Kontrolle der zivilen und militärischen Produktion, des Transportes und der Endnutzung von Tritium durch eine unabhängige internationale Organisation (z.B. die IAEA oder eine neue Organisation) mit einem entsprechenden Apparat für die Verifikation und Sanktionsmöglichkeiten. Für die Realisierung spielen zahlreiche Faktoren wie politische Akzeptanz, technische Verifizierbarkeit und Kosten eine Rolle.

Die derzeitigen Initiativen von EURATOM sind in diesem Kontext ein konstruktiver Beitrag, aber aufgrund der organisationsimmanenten geographischen und der bestehenden anwendungsspezifischen Beschränkungen nur ein erster Schritt für eine globale Lösung.

Wünschenswert sind aber noch wesentlich weitergehende Optionen, die der Ambivalenzproblematik von Tritium besser gerecht werden.

  1. Es wäre ein generelles Produktionsverbot für Tritium denkbar. Dafür wäre die Suche nach Ersatzstoffen für die verschiedenen industriellen Anwendungen notwendig, und die Fusionsforschung müßte beendet werden. Die nukleare Abrüstung müßte mit einer am Tritiumzerfall orientierten Mindestrate vorangetrieben werden. Die Verifikation wäre einfach, da nur noch die Nichtproduktion von Tritium kontrolliert werden müßte.
  2. Weniger radikal wäre ein Herstellungs- und Nutzungsverbot von Tritium für militärische Zwecke und eine ausschließlich zivile Nutzung der Tritiumproduktion. Dies hätte dieselben Implikation für die nukleare Abrüstung, würde aber die industriellen Anwendungen und die Forschung gestatten. Die Kontrolle würde sich auf die Nichtproduktion in potentiellen militärischen und zivilen Anlagen und auf die Kontrolle der gesamten zivilen Tritiumvorräte erstrecken.

Ausblick

Wenn Kernwaffen auch weiterhin Bestandteil der Militärdoktrinen in den Kernwaffenstaaten blieben, wäre eine Tritiumproduktion in diesen Staaten auf lange Sicht unerläßlich. Falls an der Abschreckungsdoktrin festgehalten, aber gleichzeitig radikal bis auf ein »minimale Abschreckungsarsenal« mit etwa 1.000 Nuklearsprengköpfen abgerüstet würde, dann wäre eine Tritiumproduktion in den USA und der UdSSR bzw. Rußland bis weit in das 21. Jahrhundert nicht mehr notwendig (bis ungefähr zum Jahr 2030). Großbritannien, China, Frankreich und Israel könnten sich anschließen und ihre militärische Tritiumproduktion ebenfalls einstellen sowie die Produktion für den zivilen Markt durch ein internationales Safeguardssystem kontrollieren lassen. Somit könnte ein zunächst bilaterales Abkommen weiter internationalisiert werden.

Falls in den nächsten 40 Jahren auf politischer Ebene die Voraussetzungen für eine kernwaffenfreie Welt geschaffen würden, dann wäre eine internationale Tritiumkontrolle, die unter anderem ein Verbot der militärischen Nutzung von Tritium enthielte, ein möglicher Baustein für die Realisierung dieser Utopie.

Literatur

Colschen/Kalinowski, „Die Kontrolle der militärischen Nutzung von Tritium“ in: Müller/Neuneck (Hrsg.), „Stabilität und Rüstungsmodernisierung“, Baden-Baden 1991

Lars Colschen ist Diplom-Politologe, Martin Kalinowski ist Diplom-Physiker und am Zentrum für interdisziplinäre Technikforschung der TH Darmstadt beschäftigt. Beide arbeiten an dem Projekt zur Tritiumkontrolle im Rahmen der Interdisziplinären Arbeitsgruppe Naturwissenschaften und Sicherheitspolitik (IANUS) an der TH Darmstadt.

Risikopotential Chemie

Risikopotential Chemie

von Karlheinz Lohs

Industrielle Produktion – gleich welcher Art – kann nur betrieben werden, wenn die Voraussetzungen dafür bestehen, daß sie mit einem Höchstmaß an Sicherheit betrieben wird.

In besonderem Maße gilt dies für die chemische Industrie, die hohe Sicherheitsstandards haben muß, wenn sie den Erfordernissen des Schutzes ihrer Beschäftigten sowie der Anwohner in ihrem Umfeld und den Auflagen des generellen Umweltschutzes gerecht werden will. – Betrachtet man diese Situation der chemischen Industrie, die heute eine Schlüssel- bzw. Großindustrie darstellt, vor dem Hintergrund der real existierenden Kriegsgefahren, so gewinnt das von der chemischen Großindustrie ausgehende Gefahrenpotential eine sicherheitspolitische Dimension, die an die Grenzen unserer Vorstellungskraft stößt und vernunftgeboten das Erfordernis der Friedenserhaltung sowie den regelrechten Zwang zu länderübergreifender Sicherheitspartnerschaft einschließt.

Hierzu seien nachfolgend einige Überlegungen gemacht. Damit werden die Gedankengänge vertieft, welche im November 1987 auf Wunsch der BRD-Sektion der IPPNW anläßlich ihres Kongresses in Essen unter dem Titel „Chemischer Krieg ohne chemische Waffen“ von mir vorgetragen wurden. Inzwischen wurde auch andernorts diese Problematik der von industriellen Ballungsräumen der Stoff- und Energiewirtschaft ausgehenden Gefahren, welche mit aus Kriegshandlungen erwachsen, aufgegriffen; sie sind derzeit Gegenstand von Erörterungen, Analysen und Schlußfolgerungen. Hervorgehoben sei in diesem Zusammenhang ein Projekt des Friedensforschungsinstitutes in Oslo (PRIO), welches durch Mittel des Umweltprogrammes der Vereinten Nationen (UNEP) gefördert wird und an welchem sich auch Wissenschaftler der AdW der DDR sowie Fachkollegen aus der UdSSR und der CSSR aktiv beteiligen.

Die Kernwaffen sind das mit Abstand gefährlichste Vernichtungspotential unserer Zeit. Welches Bild die Welt nach dem Atomschlag bieten würde, ist jedem, der schlußfolgern kann, klar.1 Die Menschheit als Ganzes ist sterblich geworden, deshalb gibt es zum Frieden keine Alternative.

Angesichts der weltweit vorhandenen atomaren Mittel und Möglichkeiten zur totalen Selbstvernichtung der Menschheit sind synthetische Gifte als chemische Kampfstoffe2 und die Gefahren des chemischen Krieges zweitrangig, wenngleich nicht zu unterschätzen. Dies zeigt sich nicht zuletzt daran, daß einige imperialistische Staaten am Besitz chemischer Waffen festhalten und sogar ihre Einsatzvorbereitung, z.B. im Zuge der Binärwaffentechnologie, forcieren. Auch in einigen Staaten der sogenannten Dritten Welt räumt man chemischen Waffen noch militärische Bedeutung ein, was letztlich am noch immer schleppenden Fortgang der Genfer Verhandlungen zum vollständigen Verbot chemischer Waffen ablesbar ist.

Die einem chemischen Krieg vergleichbaren Zustände, d.h. Massensterben und Massenvergiftungen unter der Zivilbevölkerung sowie großflächige ökologische Schäden, würden innerhalb weniger Stunden zur mörderischen Realität werden, wenn die Ballungszentren der Energie- und Stoffwirtschaft sowie insbesondere der chemischen Industrie in das Kriegsgeschehen einbezogen wären.

Blickt man in die Wirtschaftsatlanten Europas, der USA oder anderer durch Großindustrie geprägter Regionen der Erde wie Japan, Gebiete Indiens , Südamerikas usw., so sieht man, in welch beeindruckendem Ausmaß in den letzten Jahren neue, großräumige Ansiedlungen der chemischen Industrie emporgewachsen sind. Aber es sind nicht nur diese Industrieansiedlungen; auch zusätzliche umfangreiche Pipeline-Systeme für Chemikalien unterschiedlichster Art zu riesigen Depots sowie zu Binnen- und Seehäfen wurden erforderlich. In solchen Industrieregionen der Chemie werden heute nichtmilitärische Giftstoffe als Vor-, Zwischen- oder Finalprodukte in Tonnagen hergestellt, weiterverarbeitet, gelagert und transportiert, die mit dem Produktionsvolumen sowie den Transport- und Lagerkapazitäten vor dem II. Weltkrieg oder gar der Zeit der ersten beiden Jahrzehnte unseres Jahrhunderts nicht verglichen werden können.

Hier kann auf die zahlenmäßigen Belange nicht im Detail eingegangen werden, und wir müssen es im folgenden Text auf wenige Beispiele begrenzen. Es sei jedoch hier angemerkt, daß wir über ein umfangreiches Datenmaterial verfügen, das vom Verband der chemischen Industrie e.V. der BRD zusammengestellt worden ist und welches die Situation der weltweiten Chemiewirtschaft einschließlich auch der DDR und einiger anderer sozialistischer Staaten aussagekräftig widerspiegelt.3

Chemische Großindustrie und Sicherheit

Von den derzeit bekannten sechs Millionen chemischen Verbindungen werden etwa 30.000 als Chemikalien mit unterschiedlichsten stofflichen Eigenschaften in industriellem Maßstab erzeugt. Legt man die Weltjahresproduktion zugrunde, so werden für etwa 5 – 8 Grundchemikalien (d.h. Basisprodukte jeglicher chemischer Erzeugung und Weiterverarbeitung) mehr als 25 Mio. Tonnen pro Jahr und von den 10 – 12 weiteren Grundchemikalien zwischen 10 und 25 Mio. Tonnen pro Jahr hergestellt. Hinzu kommen 50 dieser Substanzen, die mit jeweils 1 Mio. Tonnen jährlich sowie 100 Substanzen in Jahresmengen von 50.000 Tonnen und weitere 1500 Substanzen mit jährlich 500 Tonnen produziert werden. Hierbei ist zu beobachten, daß der »Aufwärtstrend« der chemischen Industrie sowie damit verbunden ihre Ballung in den großen Industrieräumen anhalten, was diesen Bereich der Großindustrie zur letztlich alles weitere ökonomische Wachstum bestimmenden Schlüsselindustrie macht. Letztendlich sind alle sogenannten Hochtechnologien ohne eine leistungsstarke chemische Großindustrie nicht realisierbar. Dies gilt nolens volens auch für die Rüstungsindustrie bzw. die verteidigungsrelevanten Produktionsbereiche.

Wie eingangs schon betont, ist jegliche chemische Produktion ohne umfangreiche technische Sicherheitsvorkehrungen undurchführbar. Dies schließt Störfälle nicht aus. Das Umweltbundesamt der BRD hat 1983 in einer Studie ca. 1000 zivile Störfälle mit 2300 beteiligten chemischen Substanzen ausgewertet bzw. untersucht.4 Eine der wesentlichsten Konsequenzen aus dieser wie auch aus anderen Studien solcher Art ist, daß die risikoreiche chemische Produktion sowie der damit verknüpfte Transport von teilweise hochgiftigen Substanzen mit den industriespezifisch entwickelten Sicherheitstechniken nahezu problemlos möglich sind.5 Trotzdem spielen naturgemäß menschliches Fehlverhalten und material-technische Risiken gelegentlich eine tragische Rolle; die Vorkommnisse von Seveso, Bhopal, Basel und andernorts haben dies gerade in den letzten Jahren auch einer breiteren Öffentlichkeit deutlich gemacht.

Das, was derzeit unter den Bedingungen einer modernen Chemiewirtschaft in Friedenszeiten an Risiken und auch an regionalen Zwischenfällen technisch wie organisatorisch erwiesenermaßen beherrschbar ist, würde schon beim Einsatz der heute vorhandenen konventionellen Kriegsmittel Katastrophen auslösen, gegen die alle bisherigen zivilen Zwischenfälle in der chemischen Industrie sich wie ein Regentropfen zu einem Wolkenbruch verhalten. Allein schon ein Artilleriebeschuß oder der Einsatz herkömmlicher, mit Sprengstoffen bestückter Raketensysteme und Bomben hätte zur unmittelbaren Folge, daß aus den Anlagen und Lagern eine Vielzahl von industriellen Giften in solchen Mengen freigesetzt würden, die zu einem medizinisch-organisatorisch nicht mehr zu beherrschenden, qualvollen Massensterben als Ergebnis solcher Art von Kriegshandlungen führen würden. Die derart betroffenen industriellen Ballungszentren mit ihren angrenzenden bzw. ineinander verflochteten Wohngebieten und Siedlungsräumen wären Gaskammern eines überdimensionalen Auschwitz! Angesichts dieser Sachverhalte erscheint der Ausdruck »konventioneller Krieg« als nicht zu rechtfertigende Verharmlosung.

Drei Beispiele: Chlor, Phosgen, Blausäure

Zur Illustration der Situation seien in willkürlicher Auswahl aus der großen Palette ziviler Grundchemikalien der chemischen Großindustrie drei Beispiele herausgegriffen: das Chlor, das Phosgen und der Zyanwasserstoff (auch als Blausäure bezeichnet). Dies sind drei Gifte, die noch im I. Weltkrieg zu den chemischen Kampfstoffen gehörten; inzwischen stellen sie jedoch als zivile Vor- und Zwischenprodukte die Basis für die Herstellung von mindestens einhundert wichtigen Finalprodukten der chemischen Industrie dar. Die Produktionskapazitäten lagen zur Zeit des I. Weltkrieges für Chlor bei 100.000 Jahrestonnen (heute sind es ca. 25 Mio Tonnen), für Phosgen bei 25.000 (heute 1,5 Mio Tonnen), für Blausäure bei 13.000 Jahrestonnen (heute 600.000 – 700.000 Tonnen im Jahr). Entsprechend größer, wenn auch nicht in jedem Fall proportional, sind die Vorrats- und Zwischenlager sowie die erforderlichen Transportvolumina. Tagtäglich rollen heute auf Straßen und Schienen sowie schwimmen in Containerschiffen auf den Flüssen diese Gifte in Mengen, die gleich und teilweise größer sind als die Gesamtmenge dieser Substanzen, welche während des I. Weltkrieges zum militärischen Einsatz kam.

Realitätsbezogen muß man zu den giftigen Chemikalien im engeren Sinn noch die anderen gefährlichen Produkte der chemischen und verwandten Industrie hinzufügen, d.h. Stoffe, von denen Brand, Strahlen oder Explosionsgefahren ausgehen können. Allein auf und über dem Territorium der Bundesrepublik Deutschland werden jährlich 230 Mio. Tonnen dieser Güter in festem, flüssigem oder gasförmigem Zustand transportiert.6 Bedenkt man, daß die DDR als ein ausgesprochenes Transitland im Wirtschaftsverkehr zwischen West- und Osteuropa einen wesentlichen Teil auch des Chemie-Exports und Chemie-Imports über ihr Territorium abzuwickeln hat, dann bekommt man eine Vorstellung von den geopolitischen Besonderheiten unserer Republik. Die Situation kann man auch dahingehend verdeutlichen, wenn einzelne Transportsysteme betrachtet werden. Ein einziger Großraumkesselwagen faßt bis zu 60 Tonnen Chlor; Züge mit 20 – 30 solcher Kesselwagen sind keine Seltenheit. Jeder weiß auch bzw. sieht es täglich, was auf unseren Straßen und auf den Transitautobahnen an Spezialtransportern mit Chemieprodukten rollt.

Noch beeindruckender sind die Transportvolumina gefährlicher Güter im Seeverkehr. Zum Beispiel gibt es für Chlor heute Spezialschiffe mit einem Fassungsvermögen von 1100 Tonnen! Würde im letzteren Fall eine solche Menge Chlor durch Kriegseinwirkung in einem Hafen freigesetzt, wäre dieses Transportschiff mit seinem Inhalt für die Menschen in dieser Küstenregion von gleicher tödlicher Konsequenz wie eine Atombombe des Hiroshima-Typs. Phosgen oder Blausäure hätten aufgrund der noch höheren Giftigkeit dementsprechend größere Auswirkungen.

Ohne es hier aufzulisten zeigen Berechnungen, die für den Fall einer Zerstörung von Vorrats- und Transportkapazitäten chemischer Spezialprodukte, aber auch für Giftmülldeponien vorliegen, daß weiträumige Umweltkatastrophen heute zwangsläufige Kriegsfolgen wären. Nicht vergessen darf man bei solchen Betrachtungen auch die wahrhaft gewaltigen Mengen der vorstehend schon kurz erwähnten brennbaren Chemieprodukte, allen voran die Treibstoffe; sie würden das Inferno des Kriegsgeschehens sowohl durch das sich ausbreitende Flammenmeer als auch durch die Arten und Mengen hochgiftiger Brandgase zusätzlich steigern.

EUROCHEMIA oder EUROSHIMA

Man schaue sich unter den vorstehend genannten Aspekten einmal die Landkarte Zentraleuropas an. Die Zentren der chemischen Industrie erstrecken sich von Norditalien bis an die Rhein- und Elbemündungen. Die industriellen Ballungsräume um Mailand, um Basel, im Mannheim-Ludwigshafener und im Hoechster Raum, in der Region Leverkusen – Elberfeld – Dormagen, die Stoff- und Energiewirtschaft im nordböhmischen Gebiet, im Chemiebezirk Leuna – Buna – Bitterfeld – Wolfen, in den neuen Kombinaten von Schwarzheide bis Dresden oder Schwedt an der Oder, ebenso aber auch die Vielzahl chemischer Werke in Frankreich oder in der VR Polen machen deutlich, daß in diesem Jahrhundert Europa zu einem »Eurochemia« geworden ist. In Friedenszeiten ist dieses Eurochemia eine Basis des industriellen Fortschritts und sozialer Sicherungen für Millionen Europäer. Einen Krieg – welcher Art auch immer – würde niemand unbeschadet überleben; aus EUROCHEMIA würde ein EUROSHIMA werden.

Betrachtungen über das zivile Chemiepotential Europas und seine Risiken im Kriegsfall wären unvollständig, wenn man unerwähnt ließe, daß die größte Militärmacht der kapitalistischen Staaten, die USA, auf dem Territorium der BRD seit Jahrzehnten große Kampfstofflager unterhält. Demgegenüber hat die UdSSR außerhalb ihrer Landesgrenzen keine chemischen Kampfstoffe bevorratet, und überdies wird für die nach offiziellen sowjetischen Angaben in der UdSSR vorhandenen etwa 50.000 Tonnen chemischer Kampfstoffe derzeit eine großtechnische Anlage zu deren Vernichtung errichtet, so daß im Falle des angestrebten weltweiten Verbotes chemischer Waffen unmittelbar nach Vertragsunterzeichnung die Beseitigung dieses Risikopotentials in der UdSSR beginnen kann.

Betrachten wir jedoch die Verhältnisse, wie sie sozusagen »vor der Haustür der DDR«, an unserer Westgrenze real existieren, und vergegenwärtigen wir uns die Risikosituation, die bereits in Friedenszeiten mit der Bevorratung chemischer Waffen auf dem Territorium der BRD, beispielsweise im Rhein-Main-Gebiet oder der Pfalz, besteht. Der Absturz nur eines Flugzeuges auf ein solches Lagergelände, ein terroristischer Anschlag oder eine durch technische Defekte bedingte größere Leckage würden im Falle des Freisetzens nur einer Tonne phosphororganischen VX-Kampfstoffes Auswirkungen auf angrenzende Wohngebiete haben, die solche spektakulären Chemieunfälle à la Seveso oder Bhopal um ein Vielfaches an Getöteten und Vergifteten überträfen. Ähnliches gilt für den Fall, wenn beim An- oder Abtransport chemischer Munition oder mit Kampfstoffen gefüllter Nachschub-Container ein Fahrzeug, Flugzeug oder Schiff havariert. Selbst die schlimmsten der bisherigen Tanklastzugunfälle, Flugzeugabstürze oder Schiffsunglücke würden in ihren Schreckenswirkungen unvergleichbar sein angesichts der dann notwendig werdenden Bewältigung von Havariefolgen.

Für ein chemiewaffenfreies Europa

Blickt man noch einmal auf die Kampfstofflager in der Pfalz, so wird es offensichtlich, daß unter entsprechenden Wetterbedingungen eines West-Südwest-Windes die Gefahr des großräumigen Transportes der Kampfstoffwolken bis hinein in den thüringisch-sächsischen Raum befürchtet werden muß. Ist es angesichts einer solchen Sachlage nicht geradezu ein von innerer Logik diktiertes Erfordernis, ein chemiewaffenfreies Europa und einen atomwaffenfreien Korridor an der Nahtstelle der beiden Militärblöcke, NATO und Warschauer Vertrag, zur Grundlage gemeinsamer Sicherheit zu machen?!7 Hierbei darf jedoch nicht nur die Sicherheit vor den Folgen eines zivilen Desasters in Waffenlagern oder gar eines chemischen Krieges gemeint sein; es bedarf unabdingbar einer garantierten Sicherheit dafür, daß ein Krieg gar nicht erst begonnen werden kann.

Für ein gemeinsames Haus Europa ist es eine sicherheitspolitische Konsequenz, daß die existenznotwendige chemische Großindustrie keinerlei kriegerischem Risiko unterliegen darf. Es gilt, die politischen Bedingungen dafür zu schaffen, daß niemand im europäischen Haus sich vor Feuer, Explosionen und Gift zu fürchten braucht. Unser Land, die DDR, leistet seit Jahrzehnten das Menschenmögliche, um kriegschemisches Abenteuertum zu verhindern und den Frieden als einzig menschenwürdige Existenzform zu sichern.

Das vorstehende Referat hielt Prof. Lohs auf dem Nationalen Friedenskongreß der Wissenschaftler der DDR am 25.11.88 in Berlin.

Anmerkungen

1 Lohs, Karlheinz (Hrsg. d. dt. Ausgabe): Nach dem Atomschlag. Ein Sonderbericht von AMBIO, veröffentlicht unter der Schirmherrschaft der Königlich Schwedischen Akademie der Wissenschaften. Frankfurt – Oxford – New York – Toronto – Sydney – Paris: Pergamon Press, 1983 Zurück

2 Lohs, Karlheinz: Synthetische Gifte. 4. Aufl. Berlin: Militärverlag der DDR, 1974. Siehe ferner: Lohs, Karlheinz: Der Mißbrauch der chemischen Forschung. Dargestellt am Beispiel der Entwicklung von Massenvernichtungsmitteln. Sitzungsberichte der Akademie der Wissenschaften der DDR 6 N/1975. Berlin: Akademie-Verlag, 1975. Lohs, Karlheinz u. Martinetz, Dieter: Binärkampfstoffe. Eine neue Variante chemischer Massenvernichtungsmittel. Z. f. Chemie 26 (1986), 233 – 238 Zurück

3 Verband der chemischen Industrie e.V.: Chemiewirtschaft in Zahlen 1988. 30. Aufl. Frankfurt/Main 1988 Zurück

4 Umweltbundesamt: Handbuch Störfälle. Berlin (West): Erich Schmidt Verlag, 1983 Zurück

5 Hartwig, Sylvius (Hrsg.): Große technische Gefahrenpotentiale. Risikoanalysen und Sicherheitsfragen. Berlin – Heidelberg – New York: Springer-Verlag, 1983. Siehe dazu auch: Lange, Siegfried (Hrsg.): Ermittlung und Bewertung industrieller Risiken. Berlin – Heidelberg – New York – Tokyo: Springer-Verlag, 1984 Zurück

6 Heyer, Günter: Die BG. Fachzeitschrift für Arbeitssicherheit und Unfallversicherung, Heft 3/1987 Zurück

7 Lohs, Karlheinz; Uschrer, Manfred: Für ein chemiewaffenfreies Europa. Berlin: Dietz Verlag, 1986. Siehe ferner: Lohs, Karlheinz (Hrsg.): Europa: Giftfaß oder chemiewaffenfrei? Köln: Pahl-Rugenstein Verlag, 1986 Zurück

Prof. Dr. Dr. Karlheinz Lohs, Akademie der Wissenschaften der DDR, Forschungsstelle für chemische Toxikologie, Leipzig

Frankreichs EUREKA (II)

Frankreichs EUREKA (II)

Zielsetzungen

von Achim Seiler

“Wir müssen im zivilen wie im militärischen Bereich die 100 Milliarden für FuE, die wir jährlich ausgeben, bestmöglich nutzen. Zum Glück arbeiten wir in gutem Einvernehmen mit dem Forschungsministerium und wir sind ausgezeichnet darüber informiert, was sich in den »guten« zivilen Laboratorien tut.(…) Nach diesem Muster werden die Industriellen des alten Kontinents in eine Zusammenarbeit einwilligen müssen. Das ist vielleicht das, was am schwierigsten zu erreichen sein wird.“1 Katalysatoren für die französische Technologieinitiative Eureka waren die amerikanischen Weltraumrüstungspläne, die mit SDI verbundene technologie- und industriepolitische Herausforderung sowie die befürchteten rüstungsökonomischen und militärstrategischen Konsequenzen für die nukleare Mittelmacht Frankreich.

Parallel zur Ankündigung des im Zusammenhang mit Eureka geplanten Baus von Aufklärungs- und Beobachtungssatelliten lud der französische Verteidigungsminister Hernu die Europäer zur Mitarbeit bei einem als »Sternenfrieden« (paix aux étoiles) bezeichneten militärischen Weltraumvorhaben ein. Die inhaltliche Konzeption bewegt sich hierbei zunächst zwischen einem Netz von 5-10 Aufklärungssatelliten (VEC)2 und Maßnahmen zur Schaffung der wissenschaftlich-technischen Voraussetzungen für den Aufbau eines eigenen französischen Antisatellitensystems (ASAT). Die ausbaufähige Weltraumkonfiguration VEC soll nach französischer Intention vermutlich das Herzstück einer franco-europäischen Verteidigungsinitiative werden.3

Durch die Kombination weltraumgestützter Aufklärungs- und Führungsmittel mit einem signifikant ausgebauten und weltweit dislozierten Verteidigungspotential soll zunächst die »Glaubwürdigkeit« der französischen Nuklearstrategie zu Beginn des nächsten Jahrhunderts sichergestellt werden. Die Verlagerung der französischen Nuklearstrategie in den Weltraum gewinnt für Frankreich eine ähnliche historische Bedeutung wie der Bau eigener Nuklearwaffen nach dem 2.Weltkrieg.

„Wenn Eureka fehlschlägt, was wird Frankreich dann machen? “Wir werden“, sagt Roland Dumas, „vor einer historischen Entscheidung stehen wie in den 50er Jahren, als Pierre Mendes-France sich entschied, den ersten Beschluß zur französischen Atombombenforschung zu unterzeichnen.“ Mit oder ohne Europa wird Frankreich seinen Weg gehen und ein Verteidigungssystem suchen (entwickeln), das den neuen Regeln des Weltraum(zeitalters) angepaßt ist.“4

Strategisches Ziel des französischen Eureka-Vorschlages ist die europaweite Bereitstellung, Akkumulation und Abschöpfung der notwendigen innovativen Kenntnisse in ausgewählten Schlüsseltechnologiebereichen, die Frankreich für den Bau und die Dislozierung seiner weltraumgestützten Verteidigungskomponente und die eventuelle Erweiterung der Weltraumkonfiguration VEC zu einem integrierten europäischen Verteidigungssystem unter der militärpolitischen Führung durch Paris benötigt.

Die forschungs- und industriepolitischen Zielsetzungen bestehen zum einen darin, die europäischen FuE-Anstrengungen zu bündeln, Kohärenz in die Vielzahl transnationaler Vorhaben zu bringen, Doppelarbeiten künftig zu vermeiden und synergetische Effekte zu erzielen sowie zum andern in der Vehikelfunktion Eurekas für eine Vereinheitlichung von Normen und Standards und den Aufbau eines Europas mit zwei oder mehr Geschwindigkeiten.5

Sowohl im Hinblick auf eine Teilnahme europäischer Industrieunternehmen bei der amerikanischen Weltraumrüstung wie auch hinsichtlich des europäischen Binnenmarktes sollten projekt- oder themenorientiert Industriekonsortien (Eurokonglomerate) geschaffen werden. Auf diese Weise wurden, jeweils ergänzt durch Vertreter aus zivilen und militärischen Forschungsadministrationen, die europäischen Rüstungs- Elektronik- und Weltraumkonzerne, zunächst funktional, miteinander vernetzt und somit auch die geeigneten Verhandlungsplattformen geschaffen für eine gleichberechtigte technologische Zusammenarbeit europäischer, insbesondere französischer Unternehmen bei SDI.

Die französische Technologiestrategie

Die Ausführungen Curiens, die großen vertikalen Forschungsvorhaben müßten nach Ariane-Vorbild in internationaler Arbeitsteilung und unter der Kontrolle von kompetenten (französischen) Hauptauftragnehmern abgewickelt werden6, war ein politisches Signal an die französischen Konzerne, die Führungsrolle bei Eureka zu übernehmen und gleichzeitig ein weiteres Indiz für die Existenz einer kohärenten Technologiestrategie, die Frankreich im Rahmen seines Technologievorschlages zu verfolgen beabsichtigt. Der hierbei anvisierte Umfang französischer Eureka-Projekte wird sich in den ersten 5 Jahren auf insgesamt ca. 300 Vorhaben belaufen bei einer projizierten Gesamtlaufzeit Eurekas von vermutlich insgesamt 10 Jahren7; bislang nimmt Frankreich erst bei 1128 Projekten mit fast überwiegend französischer Projektführung teil.

Die von Paris vorgeschlagenen Technologiefelder, die im Rahmen von Eureka vorrangig erforscht werden sollen, waren im Weißbuch der französischen Regierung konzeptionell konkretisiert, in modulartige Segmente zerlegt und in einzelne Forschungsprojekte aufgeteilt worden, wobei die angestrebten Wunschkonstellationen der zukünftigen FuE-Projektpartner bereits explizit genannt wurden. Die Affinität zu den in Frankreich im gleichen Zeitraum angestellten ersten Kalkulationen über den Aufwand an Wissenschafts- und Kapitalressourcen, deren europaweite Bereitstellung, Konzentration und Steuerung für eine SDI-unabhängige Europäische Verteidigungsinitiative als notwendig erachtet wurde, sind verblüffend.9 Auch hier waren die gleichen großen ausländischen Konzerne (Elektronik- und Rüstungsunternehmen) genannt worden, auch hier wurde mit Nachdruck die Notwendigkeit betont, das wissenschaftlich-technische Potential der EFTA-Staaten miteinzubeziehen, welches für den Aufbau einer EVI/EVG unerläßlich sei.

Analog zur Segmentierung der von Frankreich verfolgten Technologiestrategie in Teilziele wurden die großen vertikalen Projektvorhaben wie etwa die Weltraumfabrik, die vermutlich am Ende der FAMOS-Prototypkette stehen wird, modulartig in Einzelprojekte zerlegt. Die in den verschiedenen Eureka-Forschungsvorhaben gewonnenen wissenschaftlich-technischen Erkenntnisse werden anschließend zu einem komplexen Großsystem integriert.

Die Einrichtung eines interministeriellen Koordinationskommittees in Paris soll dem Staat weiterhin die Rolle des politischen Antriebs und der intersektoralen Mobilisierung Eurekas ermöglichen. Der nationale Eureka-Beauftragte und Eureka-Projektkoordinator Yves Sillard ist Generalsekretär dieses Komitees.10

Für den Rüstungsmanager Sillard, der in Frankreich über die Konkordanz der als Eureka-Projekte vorgeschlagenen Forschungsvorhaben mit den in Hannover vereinbarten Grundsätzen und damit über das Zustandekommen eines Eureka-Projektes entscheidet, ist das Kriterium der zivilen Finalität zumindest von soweit untergeordneter Bedeutung, daß es in seinen öffentlichen Stellungnahmen keine Erwähnung findet. Vielmehr ist das Ziel Eurekas nach seinen Aussagen dann erreicht, wenn in der Öffentlichkeit sämtliche Bezüge zur Rüstungsforschung vermieden werden können.

Der europäische Konsesbeschaffungsprozeß

Neben den vielfältigen zusätzlichen Schwierigkeiten, die beim innereuropäischen Verhandlungsprozeß zu erwarten gewesen wären, wenn man die rüstungsökonomischen und militärpolitischen Bezüge sowohl zu SDI wie auch zur französischen Militärplanung hätte offenlegen müssen (besonders die Bundesregierung zeigte sich besorgt über die zu erwartende öffentliche Reaktion), wäre der französische Vorschlag sehr schnell an grundsätzlichen militärstrategischen Differenzen zwischen Bonn und Paris gescheitert. In diesem Falle hätte nämlich geklärt werden müssen, ob Eureka als Grundstein für eine Europäische Verteidigungsinitiative11 und Verhandlungsplattform europäischer Konzerne bei SDI eine militärische Verlängerung12 in Form des von den Amerikanern vorgeschlagenen SDI-Anhängsels EUROBMD, oder aber im Rahmen einer von Frankreich geführten EVI/EVG13 finden sollte, deren technologische Grundlage mit Eureka, die politische durch die Einübung des neuen europäischen Politikmusters der »géometrie variable« gelegt werden sollte.

Die grundsätzlichen Diskrepanzen im Bonner Kabinett, die eine klare bundesdeutsche Zusage zu Eureka – wie auch zu SDI – lange Zeit verhindert hatten, hatten sich an der Frage entzündet, ob die europäische Technologiebasis zuerst autochthon aufgebaut und anschließend gemeinsam in das amerikanische Weltraumrüstungsvorhaben SDI eingebracht werden sollte (Genscher14), oder aber bereits in ihrer Aufbauphase konzeptionell als das europäische Standbein bei SDI ausgelegt und organisiert werden sollte, wobei das Weltraumtechnologievorhaben Eureka und die Bemühungen um eine europäische Verteidigungsinitiative teilweise identisch sein sollten (Kohl15, Lenzer16).

Während sich die Bundesregierung im ersten Fall dem Dilemma der Unvereinbarkeit der zugrundeliegenden sicherheitspolitischen und militärstrategischen Konzeptionen noch nicht sofort stellen mußte, hätte die zweite Variante eine frühzeitige transatlantische Festlegung der westdeutschen Außen- und Sicherheitspolitik bedeutet – zulasten der deutsch-französischen Beziehungen.

Genscher konnte nun lediglich versuchen, zusammen mit den Ressortchefs für Forschung und Verteidigung beider Länder, unter dem Zeitdruck des 60-Tage-Ultimatums die in Europa politikfähigste Variante des französischen Technologievorschlages auszuloten und für die Option der Integration einer möglichst großen Bandbreite formaler und informeller Zielvorstellungen die prinzipielle Unterstützung der Bundesregierung zu erreichen, die für das politische Überleben der französischen Idee unabdingbar war.

In einem programmatischen Aufsatz seines Planungschefs Seitz hatte sich das Auswärtige Amt bemüht, sich politisch abzusichern und die von Mitterand bereits angesprochenen Brücken zwischen beiden Vorhaben inhaltlich zu konkretisieren. Ungeachtet der dezidierten Ablehnung von SDI durch Genscher – zum damaligen Zeitpunkt und unter den gegebenen Umständen – betonte Seitz die Komplementarität von SDI, EVI, Eureka und den Anstrengungen zum Bau eines deutsch-französischen Aufklärungssatelliten.17

Der pragmatische Ansatz der Konsensbeschaffung durch Problemausblendung hat wesentlich zur politischen Akzeptanz durch die großen Industriestaaten (GB, BRD) beigetragen. Die Implementierung informeller Koordinationsmechanismen und die durch die vereinbarte Satzung gedeckte Option, bei Eureka auch rüstungs- und SDI-relevante Forschungsvorhaben unterzubringen, haben dem französischen Technologievorschlag in seiner widersprüchlichen Entstehungsphase schließlich zu unerwarteter Dynamik verholfen18.

Ungeachtet der diversen anderslautenden Sprachregelungen19 bedeutete dies für die nun folgenden Bemühungen zur Ausarbeitung möglicher Projekte die gezielte Kombination von militärischen und zivilen Technologievorhaben im Rahmen von Eureka, um, entweder unter Ausnutzung der Dual-Use-Fähigkeiten der Hochtechnologien, oder über die modulartige Zerlegung militärischer Großsysteme in zivil ökonomisierbare Segmente kostensenkende Synergieeffekte zu erzielen und somit die Verhandlungsposition der europäischen Rüstungsindustrie gegenüber den USA zu stärken und darüberhinaus der NATO zu helfen, Entwicklungskosten zu sparen.

Formale und informelle EUREKA-Organisationsstrukturen

Zentrale Elemente der inoffiziellen Koordinationsmechanismen sind die politisch induzierten Rahmenvereinbarungen europäischer Industrieunternehmen20, die Möglichkeit, Eureka-Projekte auch geschlossen zu präsentieren, sowie nationale Eureka-Agenturen in allen 19 Mitgliedsstaaten. Die Arbeitsbereiche dieser Agenturen sind zwar in der Grundsatzerklärung indirekt erwähnt (nicht die Agenturen selbst), sind jedoch beliebig durch zusätzliche, in der Satzung nicht genannte Kooperationsfelder erweiterbar. Sie ermöglichen eine themengebundene multivariate Vernetzung ziviler wie militärischer Forschungsadministrationen, staatlicher Forschungseinrichtungen und Industrieunternehmen in Europa. Formale Instrumente sind die Industrieforen,21 ein relativ funktionsloses internationales Eureka-Sekretariat und eine Gruppe hoher Regierungsbeamter für die operationellen Interimstreffen zwischen den turnusmäßig wechselnden Eureka-Ministerkonferenzen, auf welchen die neuen Projekte jeweils formal bekanntgegeben werden. Die Bedeutung der informellen Eureka-Strukturen besteht in der hierdurch geschaffenen Möglichkeit der Einlösung von industrie- und technologiepolitischen Optionen, die entweder mit der Grundsatzerklärung von Hannover nicht vereinbar sind (militärische Projekte), oder aber bei den kleineren EG-Ländern zu handels- und wettbewerbspolitischen Befürchtungen führen würden (Marktabsprachen, französisch-deutsche Dominanz).

Ohne die Berücksichtigung dieser informellen Kooperationsmuster ließe sich auch nicht die große Resonanz des laut Satzung seiner militärischen Zielorientierung beraubten Technologievorhabens Eureka bei den europäischen Rüstungs- und Weltraumunternehmen plausibel erklären. Die skizzierten normativen Zielvorstellungen (Vehikelfunktion für die Vereinheitlichung von Normen und Standards) klingen zwar plausibel und sind in der öffentlichen Diskussion immer wieder als industriepolitische Rationale genannt worden, doch wurde von kompetenter Seite auch Skepsis angemeldet, ob Eureka als ein neuer Mechanismus zur Beschleunigung von politisch zu regulierenden Standardisierungs- und Anpassungsprozessen erfolgreicher sein wird, als die mühseligen und stockenden Versuche der EG-Kommission.22

Das offizielle Eureka kann jedenfalls laut Satzung ohne flankierende Unterstützungsmaßnahmen durch die EG-Kommission nicht funktionieren, geschweige denn die angestrebten industrie- und strukturpolitischen Erfolge erringen. Es dürfen daher durchaus auch Zweifel artikuliert werden, ob in der genannten Vehikelfunktion tatsächlich der eigentliche Motor Eurekas liegt.

EUREKA als Baustein einer europäischen Technologiegemeinschaft

Abgesehen von militärischen Eureka-Projekten23 sowie der gezielten Bereitstellung und Abschöpfung rüstungsrelevanten know hows24, erlauben die beschriebenen industriellen Eurokonglomerate direkte militärische Verlängerungen.

Teure Rüstungsvorhaben wie beispielsweise die Aufklärungs- und Beobachtungsatelliten25 lassen sich über die im Rahmen von dual-use-fähigen Eureka-Forschungsvorhaben bereitgestellten wissenschaftlich-technischen Erkenntnisse und die zivile Kommerzialisierung von Teilkomponenten (etwa im Bereich Elektronik, Sensorik, div. Software-Anforderungen) volkswirtschaftlich attraktiv zwischenfinanzieren – an nationalen wie europäischen Kontrollinstanzen (Parlament, WSA, etc.)26 vorbei.

Die Konfigurationen aus Rüstungs- und Weltraumindustrie, Vertretern des Wissenschaftsmanagements und der Politik ermöglichen jedoch nicht nur direkte militärische Projekt-Verlängerungen, sondern auch einen gemeinsamen transnationalen Vorlauf im Bereich der Grundlagenforschung. Der Übergang zum bottom-up-approach bei ausgewählten EG-FuT-Einzelprogrammen wie ESPRIT, RACE oder BRITE, bei dem die Industrie nun weitgehend selbst definiert, welche FuT-Vorhaben in Angriff genommen werden, sowie der erklärte Wunsch von EG-Kommission, Industrie- und Regierungsvertretern, Doppelarbeiten zu vermeiden und auf synergetische Strukturen zu achten, legen diesen transnationalen Vorlauf auch nahe.

Im Idealfall entstehen somit sektorbezogene Industriekonsortien, die – möglichst unter französischer Projektführung – in allen Phasen des FuE-Kontinuums in gleicher Konstellation zusammenarbeiten (dem Projektführer zuarbeiten). Die Grundlagen- und angewandte Grundlagenforschung (Esprit II) wird zu 50% von der EG-Kommission mitfinanziert bei weitreichender Projektgestaltungsautonomie der Industrie, die Entwicklung im Rahmen von Eureka-Vorhaben in individueller Absprache mit den nationalen Regierungen und über die zivile Kommerzialisierung einzelner Produkte (Komponenten). Entweder bereits in parallelen Arbeitsschritten oder unmittelbar nach Ende des FuE-Prozesses des zeitlich aufwendigsten zivil kommerzialisierbaren Teilstücks, können dann die Technologiemodule in ein komplexes militärisches Gesamtsystem integriert werden.

Die technologiepolitische Funktion der ursprünglich geplanten staatlich-industriellen Lenkungsausschüsse wurde auf den relevanten Technologiefeldern jeweils durch ein franco-europäisches Industriekonsortium übernommen – vermutlich in allen Fällen unter der Leitung eines Rüstungsmanagers des Rüstungsbeschaffungsamtes DGA – mit dem industriepolitischen wie rüstungsökonomischen Ziel, das in Frankreich implementierte intersektorale Technologiebereitstellungs- Steuerungs- und Abschöpfungsmuster europaweit zu verlängern.

Ausblick

Den französischen Technologiestrategen ist es gelungen, den unter dem Druck des Weinberger-Ultimatums viel zu früh präsentierten Eureka-Vorschlag trotz der politischen und finanziellen Anziehungskraft des amerikanischen Konkurrenzvorhabens in Europa besser zu vermarkten, hierbei eine Vielzahl divergierender Interessen miteinander in Einklang zu bringen und bei Ausblendung der sicherheitspolitischen Aspekte eine kritische Diskussion der Rüstungsrelevanz der von Frankreich mit VEC/Eureka verfolgten Zielsetzungen in der Öffentlichkeit bislang zu verhindern.

Nachdem der informelle Versuch Frankreichs, VEC/Eureka den Europäern als militärpolitische Antwort auf die politisch-strategische Herausforderung durch die amerikanischen Weltraumrüstungspläne zu präsentieren, vor der WEU im April 1985 zunächst einmal gescheitert ist, erfüllt Eureka dennoch zentrale rüstungsökonomische und militärpolitische Funktionen:

  1. Eureka fungiert als Rahmen für eine konzertierte europäische Reaktion und als gemeinsame Verhandlungsplattform europäischer Industrieunternehmen gegenüber den Amerikanern. Als Antwort auf die technologiepolitische Herausforderung durch SDI soll Eureka die technologischen und politischen Ausgangspositionen stärken vor einer politisch durchaus erwünschten industriellen Zusammenarbeit bei SDI.
  2. Die französische Regierung arbeitet parallel zu den Bemühungen um eine Begrenzung der Weltraumrüstung der Supermächte an der Schaffung der technologischen und politischen Voraussetzungen für eine integrierte Gesamtarchitektur einer (Franco)-Europäischen Verteidgungsinitiative in Europa. Während es folglich sehr plausibel erscheint, daß mit den von den französischen Politikern immer wieder erwähnten »militärischen Verlängerungen« die gezielte und systematische Bereitstellung, Abschöpfung und Integration von im Rahmen von Eureka gewonnenen Teiltechnologien in militärische Großsysteme gemeint sind, sprechen deutliche Hinweise auch für konkrete Absichten zur Integration militärischer Systeme/Subsysteme/Teiltechnologien in einen übergeordneten militärpolitischen Zusammenhang als Verlängerung der gesamten Eureka-Initiative nach Ende der Laufzeit der bislang längsten Projektvorhaben (ca. 1995).

Dies wird, vorbehaltlich der Lösung des bundesdeutschen sicherheitspolitischen Dilemmas, entweder in Form einer Anbindung VEC/Eurekas an ein konventionalisiertes SDI (EUROBMD) geschehen, oder aber im Rahmen einer eigenständigen EVI/EVG unter französischer Führung, wenn »en passant par la technologie civile« nicht nur die technologischen, sondern mit der Einübung des Politikmusters der »variablen Geometrie« vor allem die politischen Voraussetzungen hierfür in Europa geschaffen worden sind.

-> Teil I

Anmerkungen

1 Auszug aus einem Interview mit Victor Marcais, dem Direktor der Rüstungsplanungsabteilung im französischen Rüstungsbeschaffungsamt DGA, in: L'Usine, Nr.19, 07.05.87 Zurück

2 Voir, écouter, comprendre Zurück

3 Zum Zusammenhang von Eureka und EVI vgl.: Seiler, Achim: EUREKA – zum forschungspolitischen und rüstungsökonomischen Stellenwert der französischen Technologieinitiative, in: antimilitarismus information, Heft 9/10 1988, S. III-167 – III-176 Zurück

4 Zit.: Le Nouvel Observateur, 19.04.85 Zurück

5 Wie bereits im ersten Teil erwähnt, war das Politikmuster der »variablen Geometrie« von den Berufseuropäern in Brüssel heftig bekämpft worden, da hiermit die traditionellen Bemühungen um eine einheitliche Weiterentwicklung der Gemeinschaft zu einer Europäischen Union konterkariert wurden. Nach den Vorstellungen der französischen Sozialisten ist die Europäische Union jedoch keinesfalls mit der 12er-Gemeinschaft identisch. Sie wird zumindest in ihrer Anfangsphase deutlich weniger Mitglieder haben, dafür jedoch bereits ein oder zwei EFTA-Staaten umfassen. Ziel ist nach dieser Konzeption der Aufbau einer Europäischen Union mit einer gemeinsamen Außen- und Sicherheitspolitik (ab 1995) an den EG-Institutionen vorbei. Auch der »gemeinsame Binnenmarkt« hat nur einen funktionalen Stellenwert. Zurück

6 Financial Times, 15.07.85 Zurück

7 Der Hinweis auf die Gesamtlaufzeit findet sich in der französischen Presse. Auch EG-Kommissionspräsident Delors hatte nach der Pariser Gründungskonferenz eine militärische Verlängerung des EUREKA-Gesamtvorhabens nach einer 10-jährigen Laufzeit erwähnt; vgl.: La Tribune de l'Economie, 11.10.85. Die Projektlaufzeit der längsten Eureka-Forschungsvorhaben beträgt ebenfalls 10 Jahre. Bei einem Gespräch mit Madame Le Gall von IFREMER in Paris im Juni 1988 wurde dem Verfasser allerdings versichert, daß die Technologieinitiative Eureka zeitlich nicht begrenzt sei, doch waren auf der 6. Ministerkonferenz in Kopenhagen (Juni 1988) keine neuen Projekte bekanntgegeben worden, deren Projektlaufzeit insgesamt den Zeithorizont von 1995 überschreitet. Ebenfalls 1995 soll mit der Dislozierung der Weltraumkonfiguration VEC begonnen werden. Zurück

8 Stand: Kopenhagen Zurück

9 vgl.: Le Monde, 17.07.85 Zurück

10 AFP Sciences, Nr.497, 27.02.86 Zurück

11 Daß Eureka nach den Intentionen seiner französischen Planer die skizzierten integrations- und militärpolitischen Funktionen tatsächlich erfüllen soll – bei vorläufiger Konzentration auf die technologischen Aspekte – machte der französische Außenminister bei seiner Eureka-Reise in die VR China deutlich.
In Gesprächen mit seinem chinesischen Amtskollegen sowie dem Weltraumminister Li Xue (29.08.85) lud er die VR China zur Mitarbeit bei den Weltraumtechnologievorhaben ein. Von beiden Politikern wurden die Möglichkeiten gemeinsamer Projektkooperationen im Rahmen von Eureka ausgelotet, wobei die chinesische Regierung das Weltraumvorhaben Eureka als die Vorstufe der Europäischen Verteidigungsinitiative willkommen hieß und als einen weiteren Schritt zur Einhegung der sowjetischen Dominanz auf dem europäischen Kontinent begrüßte. Zurück

12 Le Quotidien de Paris, 22.04.85; La Lettre de l'Expansion, 22.04.85 Zurück

13 Europäische Verteidigungsinitiative/Europäische Verteidigungsgemeinschaft; vgl. besonders: Le Monde, 17.07.1985 (!) Zurück

14 Le Nouvel Economiste, Nr.488, 03.05.85 Zurück

15 Libération, 02.05.85; Le Matin, 04./05.05.85 Zurück

16 Le Monde, 31.05.85 Zurück

17 Seitz, Konrad: SDI – die technologische Herausforderung für Europa, in: Europa-Archiv, Folge 13/1985, S.381 – 390 Zurück

18 So hatte man sich in Abweichung des ursprünglichen französischen Vorschlages schließlich auch auf die Mindestteilnehmerzahl von 2 Projektpartnern verständigt. Hierdurch sollte gewährleistet werden, daß sich der Beginn der jeweiligen transnationalen Forschungsvorhaben nicht unnötigerweise verzögert. Zurück

19 Erst auf Intervention der Schweiz und Schwedens wurde in der Grundsatzerklärung schriftlich verankert, daß Eureka-Forschungsvorhaben zivilen Zwecken dienen sollen. Das Postulat dieser Finalität ist allerdings angesichts des dual-use-Charakters der Hochtechnologieprojekte von relativer Bedeutung. Es sind zudem laut Satzung die jeweiligen nationalen Regierungen bzw. Eureka-Projektkoordinatoren, welche eine Überprüfung der eingereichten Projektvorschläge mit den von der Satzung angesprochenen Kriterien vornehmen. Eine Einspuchsmöglichkeit dritter, am jeweiligen Projekt nicht beteiligter Regierungen existiert nicht. Eureka-Projekte kommen schließlich durch den Ablauf einer 45-Tage-Frist zustande. Zurück

20 So schlossen beispielsweise die fünf großen europäischen Luft- und Raumfahrtkonzerne Aérospatiale, British Aerospace, MBB, Aeritalia und CASA eine Rahmenvereinbarung, die u.a. den Bau von Kipprotorflugzeugen, Weltraumfabriken, Solarenergiezentren und großen Strukturen im Orbit vorsieht. Die Forschungszusammenarbeit dieser Konzerne sollte mit gemeinsamen Projekten zur Entwicklung einer integrierten Produktionsstrategie (PARADI) sowie zur papierlosen, interventionssicheren Zirkulation sensibler Informationen (APEX) begonnen werden. Zurück

21 Die Industrieforen wurden auf der 6. Eureka-Ministerkonferenz im Juni 1988 in Kopenhagen durch Arbeitsgruppen ersetzt. Auch sie folgen dem Strukturmuster der variablen Geometrie. Zurück

22 Mr. Paillon: „When Mitterand has launched the idea of Eureka, I think he has imagined that Eureka can solve all the problems. And he said that there is a need in Europe to enhance research cooperation in Europe in order to provide technology on the mondial level. These are words. He has forgotten all the things who are as the standards essential for the development of technology in Europe. And in fact Eureka has started rather quickly and they have launched projects but this were projects which in fact have been negotiated since 5 or 6 years before, which were not new projects, so this is a kind of (Potemkinsche Dörfer ??,A.S.). So this question of projects is for me secondary. The real problem are these questions of additional measures and now we face this problem in the Eureka framework. All the discussions from Stockholm in last december are more or less blocked by these questions. This is not a personal feeling. But we can not say that it is quiet blocked, but they are paralysed. Now they are facing the problems which we have been faced for ten years in the commission. And they can not avoid it.“ Auszug aus einem Interview des Verfassers mit dem Vertreter der EG-Kommission im Eureka-Sekretariat, Mr.Paillon. Zurück

23 z.B. MENTOR – expert system für die weltraumgestützte militärische Bedrohungsanalyse (Verwendungszweck laut der regierungsamtlichen französischen Projektbeschreibung: »pour la défense pacifique«); Zurück

24 Teile des Infrastrukturvorhabens Prometheus (vollautomatisches Auto) werden in der Bundeswehrhochschule in München abgewickelt; die am EUROLASER-Applikationsverbund beteiligten Französischen Firmen/Institute arbeiten teilweise direkt in militärischen Forschungseinrichtungen. Zurück

25 In der bundesdeutschen Presse findet sich der Hinweis auf die geplante Entwicklung von Segmenten für den Jäger 90 im Rahmen von Eureka. Der Jäger 90 war Gesprächsthema sämtlicher Gipfeltreffen zwischen Kohl und Mitterand in der Entstehungsphase von Eureka. Diskrepanzen in den unterschiedlichen Anforderungsprofilen verhinderten zu jener Zeit allerdings eine politische Einigung über eine systematische Zusammenarbeit mit Frankreich beim Bau dieses Flugzeuges im Rahmen von Eureka. Zurück

26 WSA=Wirtschafts- und Sozialausschuß des Europaparlaments Zurück

Achim Seiler ist cand. rer. pol, FU Berlin

Die Lektion von Tschernobyl

Die Lektion von Tschernobyl

von Peter Carl

Seit 1982 verfolgt der Internationale Rat Wissenschaftlicher Vereinigungen (ICSU) ein Projekt zur Untersuchung der biologischen, medizinischen und physikalischen Auswirkungen eines massenhaften Einsatzes von Kernwaffen. Im ICSU sind nationale und internationale wissenschaftliche Einrichtungen u.a. aus dem naturwissenschaftlich-technischen Bereich, wie die Europäische Physikalische und Geophysikalische Gesellschaft, vertreten.
Auf der 19. Generalversammlung wurde das Mandat für das Projekt erteilt; in der Beschreibung des ICSU-Generalsekretärs von 1983 wurde eine Konzentration auf langfristige globale klimatische und biologische Konsequenzen gefordert. Die Arbeit erfolgte unter Federführung des Umweltausschusses (SCOPE); ein Koordinationskomitee wurde an der Universität von Essex eingerichtet. Das Projekt firmierte seitdem als SCOPE-ENUWAR-Projekt (Environmental Consequences of Nuclear War). Die Arbeit wurde 1985 abgeschlossen; allerdings faßte die ICSU-Generalversammlung im Sept. 1986 den Beschluß zur Fortführung des Dialogs über die Ergebnisse (Gegenstimme-USA/Enthaltungen 10 NATO-Länder). Seitdem haben Workshops in Bangkok, Genf und Moskau stattgefunden, wurde eine Studie an die 3. UNO-Sondertagung für Abrüstung unterstützt, zahlreiche Einzelpublikationen vorgelegt und Folgestudien initiiert. Inzwischen steht eine Verlängerung des Mandats nicht mehr in Aussicht. Die beteiligten Wissenschaftler hoffen jedoch, ihre Problemstellungen in das dann zu erweiternde internationale Geosphäre-Biosphäre-Programm der ICSU einbringen zu können.
Auf dem Moskauer workshop im März dieses Jahres beschäftigte sich eine Arbeitsgruppe ausführlich mit der Bewertung der Reaktorkatastrophe von Tschernobyl. Die Gruppe führte auch eine Exkursion an den Ort des Geschehens durch. Der DDR-Wissenschaftler Dr. Peter Carl, tätig am Zentralinstitut für Elektronenphysik bei der Akademie der Wissenschaften in Berlin, war am SCOPE-ENUWAR-Projekt beteiligt. Aus dieser Arbeit ist ein Bericht entstanden, den das DDR-Komitee für wissenschaftliche Fragen der Sicherung des Friedens und der Abrüstung in drei Teilen veröffentlicht. Teil II ist unter dem Titel »Kernwaffenkrieg, Klima und Umwelt – Pathologie einer Katastrophe« jüngst veröffentlicht worden.
Wir bringen im folgenden einen Abschnitt, der sich mit den Folgen des Reaktorunfalls von Tschernobyl befaßt. Die dortige Analyse-Arbeit soll v.a. durch die sowjetischen Wissenschaftler fortgesetzt werden.

Der Moskauer Workshop hat wie seit längerem angekündigt in einer seiner Arbeitsgruppen die Erfahrungen aus dem Reaktorunfall von Tschernobyl, insbesondere die derzeitigen Fähigkeiten zur Prognose lokaler, regionaler und weltweiter radioaktiver Belastungen bewertet. Die Abbildung (s. W&F 4/88 S.19) zeigt eine berechnete Inhalationsdosis – sie ist zu 80 % auf Jod zurückzuführen, ansonsten im wesentlichen auf Cäsium, Ruthenium und Tellur (lokaler Fallout in der unmittelbaren Umgebung von Tschernobyl ist hier nicht berücksichtigt).

Von sowjetischer Seite sorgfältig vorbereitet und mit bemerkenswerter Aufmerksamkeit bedacht war eine Exkursion von 23 Teilnehmern nach Tschernobyl. Zwar sind die meisten der dort erhaltenen wissenschaftlichen Informationen bereits durch Publikationen verfügbar2-7, der persönliche Eindruck von den ökologischen, ökonomischen und sozialen Konsequenzen und von dem humanen Aspekt dieser Katastrophe – der besonders deutlich wurde beim Besuch der »Geisterstadt« Pripât – ist jedoch für ein Team, das die potentiellen Folgen des Einsatzes von Nuklearwaffen einzuschätzen hat, von nicht geringem Gewicht. Die folgenden skizzenhaften Angaben zur Dimension eines Unfalls, der nach Expertenmeinung eine der schwersten technisch überhaupt denkbaren Havarien an diesem Reaktortyp darstellte, belegen auch die extremen Anstrengungen, die unternommen werden mußten, um die räumliche und zeitliche Ausdehnung der Umweltbelastungen weitgehend einzugrenzen. Vollständig zu beseitigen sind sie in absehbarer Zeit nicht, ebensowenig wie die sozialen und ökonomischen Folgen des Unfalls und die starke Beeinträchtigung der betroffenen Bevölkerung:

  • 135.000 Menschen, zu einem großen Teil Alteingesessene, wurden aus der 30-km-Zone evakuiert (die zu etwa einem Drittel aus landwirtschaftlicher Nutzfläche bestand) und können kaum damit rechnen, je wieder in ihre Heimatorte zurückzukehren: das Risiko, daß etwa Kinder beim Spielen in der Umgebung der Ortschaften mit nicht entdeckten radioaktiv »heißen« Nestern in Berührung kämen, ist nicht akzeptabel.
  • Die Evakuierung der Stadt Pripât, 5 km nordwestlich des Kernkraftwerks gelegen (zur Zeit der Havarie in Windrichtung), begann 36 Stunden nach dem Unfall. Bis dahin eine moderne Neubaustadt, 50.000 Einwohner, Geburtenrate etwa 1000 Kinder pro Jahr, Durchschnittsalter unter 30 Jahre, erinnerte der Ort fatal an die Bilder kampucheanischer Geisterstädte. Die Bewohner mußten bis auf lebensnotwendige Dinge (ein Koffer pro Person) alles unwiderruflich zurücklassen; sie zeigten sich trotzdem – im Gegensatz zu denen einiger ländlicher Gebiete – der Situation gewachsen. Sie folgten der Aufforderung, in den Häusern zu bleiben, wodurch die empfangene Strahlendosis etwa um eine Größenordnung verringert werden konnte. Die Evakuierung erforderte ein hohes Maß an Organisation und Disziplin sowie die Bereitstellung beträchtlicher Transportkapazitäten (mehr als 1000 Busse für einen Zeitraum von 48 Stunden). Bei einer Havarie unter den Bedingungen nach einem nuklearen Schlagabtausch waren wahrscheinlich die Häuser in Mitleidenschaft gezogen, wäre Panik nahezu unvermeidbar und wäre die Bereitstellung der Transportmittel eine unlösbare Aufgabe.
  • 500 ha Wald, der einer Dosis von mehr als 3 Gy ausgesetzt war, mußten abgeholzt und begraben werden, um eine Windverbreitung abgestorbener Pflanzenteile zu unterbinden. Insbesondere bestand für Pripât die Gefahr einer erneuten Kontamination.
  • 5 Mill. M³ Boden wurden (in unmittelbarer Nähe des Reaktors knietief, ansonsten etwa 15 cm tief) beseitigt, um das Strahlungsniveau in dem durch lokalen Fallout betroffenen Gebiet unter die vorgeschriebene tolerierbare Höchstgrenze zu senken. Unkontrolliertes Auswaschen und damit tieferes Eindringen der radioaktiven Ablagerungen in den Boden wurde verhindert, indem man durch Injektion von Kondensationskeimen Regenwolken am Abregnen hinderte (»Overseeding«). Quelle der radioaktiven Bestrahlung war (knapp zwei Jahre nach dem Unfall) selbst in einer Entfernung von wenigen hundert Metern und trotz der genannten Maßnahmen nicht der havarierte Block 4, sondern eindeutig der Erdboden.
  • Die erste Dekontaminationswelle begann einen Monat nach der Havarie und nahm 6 Monate in Anspruch; eine zweite Etappe war im März 1988 im Gange. Sie soll in Pripât dazu dienen, die Stadt für industrielle Zwecke nutzbar zu machen, was vom allgemeinen Strahlungspegel her bereits möglich wäre – er liegt inzwischen niedriger als die natürliche Untergrundstrahlung in einigen Gebieten der Erde, z.B. in Mexico.
  • Von den 10.000 heute innerhalb der 30-km-Zone Beschäftigten gehören 3000 zum Reaktorpersonal. Blocks 1, 2 und 3 sind nach technischen Vorkehrungen zur Verhinderung ähnlicher Havarien wieder in Betrieb genommen worden, der weitere Aufbau der Blocks 5 und 6 ist vorläufig bis 1991 gestoppt. Neben starken Wachmannschaften, die die 30- und die 10-km-Zone abriegeln, sind die meisten anderen Beschäftigten für die Dekontamination eingesetzt. Die Bereitstellung technischer Hilfsmittel und des Personals für solche langwierigen Entaktivierungsmaßnahmen großen Umfangs wäre in einem von massiven Atomschlägen betroffenen Land nicht denkbar.

Obwohl er unmittelbar einunddreißig Menschen das Leben kostete, verlief der Unfall selbst – gemessen an Risikostudien solcher »worst case« Havarien – geradezu »glimpflich«. Im Gegensatz zu der kaum für möglich gehaltenen unglückseligen Aufeinanderfolge von Fehlhandlungen und Fehleinschätzungen durch das Reaktorpersonal (eine der erfahrendsten Besatzungen an diesem Reaktortyp, die offenbar auch aus einer dadurch entstandenen Haltung vermeintlicher Überlegenheit heraus bei dem letztlich zur Havarie führenden elektrotechnischen Test mit erschreckender Leichtfertigkeit die Sicherheitsbestimmungen ignorierte) war die Reaktion auf den Unfall nach Einschätzung der Internationalen Atomenergiebehörde (IAEA) »optimal« und hat eine größere Anzahl von Opfern verhindert.2 237 Fälle akuter Strahlenkrankheit sind aufgetreten, von denen 28 zum Tode führten. Die Hauptursache waren schwere Hautverbrennungen durch ß-Strahlung, die – wo sie nicht selbst tödlich waren – die Erfolgschance anderer therapeutischer Maßnahmen stark verringerten. Drei Menschen starben aus anderen Gründen (Herzanfall, Sturz ins Feuer, durch Trümmer erschlagen). Als geheilt galten im März 1988 139 Fälle der Strahlenkrankheit 1. Grades, 55 Fälle 2. Grades, 14 Fälle 3. Grades und ein Fall 4. Grades.

In Abhängigkeit von Wetterbedingungen, Evakuierungsstrategien und medizinischer Versorgung liegen Abschätzungen verschiedener Risikostudien – allerdings für Druckwasserreaktoren – im Bereich von einigen hundert bis hin zu einem Extremfall von 10.000 (!) unmittelbaren Unfallopfern.8 Auch wenn Tschernobyl diese Prognosen glücklicherweise nicht bestätigt (und zu einem gewissen Grade widerlegt) hat, sind sie nicht ohne Bedeutung: Kernkraftwerke stellen unter Kriegsbedingungen besondere Risikoquellen dar. Selbst wenn man von direkten Angriffen absieht, besteht aus folgenden Gründen eine beträchtliche Gefahr schwerer Havarien, die mit der Zerstörung des Reaktorkerns enden können:

  • Ausfall des Energienetzes für den gesamten Zeitraum, in dem der Reaktor »heruntergefahren“werden muß;
  • unzureichende Verfügbarkeit von Treibstoff für die Notstromversorgung bis zum sicheren Abschalten (1 – 2 Wochen) – aus sehr verschiedenen denkbaren Gründen unter Kriegsbedingungen;
  • Beschädigung oder Zerstörung der elektronischen Sicherheitssysteme und anderer elektrischer bzw. elektronischer Einrichtungen, die für das Abschaltregime wesentlich sind, durch den elektromagnetischen Impuls ;
  • Beschädigung von Teilen der Anlage (z.B. des Kühlkreislaufs) infolge mittelbarer Kriegswirkungen;
  • fehlende Besatzung (Tod, Verletzung oder Flucht);
  • Fehlhandlungen des Bedienungspersonals bei Havarie der Meßgeräte, durch Ausfall der Steuerelektronik, infolge Unsicherheit über die Meßwerte oder als Folge der extremen psychischen und physischen Belastungen: Es ist kaum denkbar, daß eine einzige Besatzung, die zur Zeit des Kriegsausbruches gerade Dienst hat, in dieser extremen Situation ihre Aufgabe 14 Tage lang fehlerfrei erfüllt (in einem bereits sehr instabilen Betriebszustand des Reaktors soll es – nach unbestätigten Berichten – in Tschernobyl zur eigentlichen Katastrophe gekommen sein, als einem Operateur, der die kritischen Druckwerte zu beobachten hatte, für einen Moment die Augen zufielen; die Havarie ereignete sich um 1.23 Uhr nachts);

Zwar ist bei Reaktoren mit doppeltem Containment die Gefahr eines starken Eintrags radioaktiver Substanzen in die Atmosphäre wesentlich geringer als im Fall von Tschernobyl, unter Kriegseinwirkung könnte bei eventueller Ordnung des Containment jedoch in keinem Fall mit einer effektiven Bekämpfung solcher Emissionen gerechnet werden, die in Tschernobyl fast zwei Wochen dauerte. Desweiteren ist der heute unter einem Beton-„Sarkophag« begrabene Block 4 dieses Kernkraftwerkes mit einer 40 m tief in den Erdboden führenden Betonmauer umgeben worden, um eine Verseuchung des Grundwassers zu verhindern, falls die Hitzeentwicklung im Reaktorkern zum »Chinasyndrom«, einem Durchschmelzen nach unten geführt hätte – was wegen seiner teilweisen Zerstörung durch eine (oder zwei) thermische Explosion(en) und infolge der effektiven Gegenmaßnahmen nicht geschah.

Unter Kriegsbedingungen müßte (selbst ohne direkte Angriffe auf Anlagen des Kernenergiezyklus) mit nahezu gleichzeitig auftretenden ernsten Havarien an einer Anzahl von Kernkraftwerken gerechnet werden. Wenn man heutige Risikostudien (mit Vorbehalt) auf eine Kriegssituation extrapoliert, wären das etwa 15 % der Reaktorblöcke8, für Europa also 30 Reaktoren. Darüber hinaus wäre unter solchen Extrembedingungen zu befürchten, daß bei Kraftwerken mit mehreren Reaktorblöcken (heute der Normalfall) kombinierte oder Folge-Havarien aufträten, daß also Ursache oder Verlauf einer Havarie nicht auf einen der Blöcke beschränkt bliebe, etwa durch Brandeinwirkung. Das Fluten des Blocks 4 in Tschernobyl mußte beispielsweise eingestellt werden, um Block 3 nicht zu gefährden. Durch Havarie an einem Nachbarblock könnte das Vertrauen in die Meßwerte, in die eigenen Fähigkeiten und in die Beherrschbarkeit der Situation erschüttert werden, würde sich die ohnehin schlimme psychische Lage der Besatzung weiter verschärfen. Die Unsicherheit, ob die angezeigten Meßwerte korrekt sind, spielte bei der Entwicklung der Havarie des Kernkraftwerkes TMI bei Harrisburg eine Rolle.

In der Bilanz radioaktiver Belastungen außerhalb der Zonen des lokalen Fallouts bodennaher Kernwaffenexplosionen würden die Emissionen havarierter Kernkraftwerke deutlich zu Buche schlagen; auch direkte Angriffe mit wesentlich schwerwiegenderen Konsequenzen wären natürlich nicht prinzipiell ausgeschlossen. Die Abbildung zeigt berechnete Flächenbelastungen (Strahlungsdosis mal exponierter Fläche pro Zeiteinheit) nach Kernwaffenexplosionen (bezogen auf 1 Mt Detonationsstärke des spaltbaren Materials) im Vergleich mit der aus zerstörten Anlagen des Kernernergiezyklus.

Die vollständige Freisetzung des radioaktiven Inventars einer einzigen dieser Anlagen würde Langzeitwirkungen hervorrufen, die für einzelne Isotope (beispielsweise für 90Sr) mit der Langzeit-Strahlenbelastung eines 1000-Mt-Krieges (!) vergleichbar wären.9 Ein für den jahrelang ununterbrochenen Einsatz ausgelegtes kernkraftgetriebenes Kriegsschiff kann ein radioaktives Inventar an Bord haben, das dem eines kommerziellen Reaktors nahekommt. Solche Schiffe gehören wegen der von ihnen ausgehenden unmittelbaren strategischen Bedrohung zu den ersten Zielen eines nuklearen Schlagabtausches (zur Bekämpfung würden taktische Waffen zum Einsatz kommen). Es besteht eine gewisse Wahrscheinlichkeit, daß solche Attacken zur Freisetzung der akkumulierten Radionuklide führen. Obwohl ein beträchtlicher Teil durch die bei Detonationen auf See mit dem Feuerball emporgerissenen Wassermassen wieder unmittelbar ausgewaschen würde, könnten erhebliche Mengen langlebiger Radionuklide in der Troposhäre verbleiben und zum mittelfristigen Fallout beitragen.

Die Erfahrungen von Tschernobyl bestätigen, daß lokale »hot spots« mit 30 – 40-facher Belastung insbesondere dort auftreten können, wo die Aerosole durch Niederschläge ausgewaschen werden. Beträchtliche Schädigungen der Umwelt und der Bevölkerung durch Kernkraftwerks-Havarien wären also im Kriegsfall wahrscheinlich – zumal nicht wie in der Umgebung von Tschernobyl eine (kostenlose) Versorgung mit allem Lebensnotwendigen erfolgen, sondern es im Gegenteil an allem Lebensnotwenigen bald mangeln würde. Die Bevölkerung müßte und würde, um zu überleben, auf radioaktiv verseuchte Produkte zurückgreifen.

Der Unfall von Tschernobyl hat das Krebsrisiko einer 100-Millionen-Bevölkerung Osteuropas, die einer erhöhten Strahlenbelastung ausgesetzt war, rein rechnerisch von 20% auf 20,002 % erhöht, d.h. der Effekt verliert sich vollständig im Schwankungsbereich gegenwärtiger Krebsursachen. Das kann jedoch nicht heißen, es gäbe praktisch keine durch diese Belastung hervorgerufenen Krebsfälle – die empfangene Dosis wird zusammen mit anderen Faktoren zur Manifestation von Erkrankungen beitragen, ohne daß sie nach unserer heutigen Kenntnis eindeutig auf diese Ursache zurückzuführen sind. Die für westeuropäische Länder berechnete kollektive Strahlendosis aus dem Reaktorunfall ergäbe bei einer – fragwürdigen – Extrapolation statistischer Werte (die nur für wesentlich höhere individuelle Belastungen vorliegen) für die nächsten 50 Jahre 1000 Todesfälle durch Krebs, im Vergleich zu 30 Millionen Krebstoten aus anderen Gründen.4 Für den europäischen Teil der Sowjetunion ist dieses Verhältnis ungünstiger (25000/60 Mio.), liegt aber immer noch deutlich unter einem hypothetischen Wert, den man bei der Anwendung derselben Methode auf die natürliche Hintergrundstrahlung ermitteln könnte. Dies trifft natürlich nicht auf die (weitere) Umgebung von Tschernobyl zu. Etwa 5 Millionen Menschen aus diesem Gebiet sind in Reihenuntersuchungen erfaßt und werden voraussichtlich bis an ihr Lebensende regelmäßig überprüft, um mögliche Langzeitfolgen der empfangenen Strahlenbelastung zu erkennen und zu behandeln – ein Programm von hohem gesundheitspolitischem Anspruch und auch von großer wissenschaftlicher Bedeutung.

Anmerkungen

1 Chernobyl Source Term, Atmospheric Dispersion, and Dose Estimation. Gudiksen, P.H.; Harvey, T.F.; Lange, R. preprint UCRL-98235, Lawrence Livermore National Laboratory, Livermore, February 1988. SCOPE-ENUWAR Manuskript MO.11.88. SCOPE-ENUWAR Moscow Workshop, March 21 – 25, 1988. –S. 16 Zurück

2 Summary Report on the Post-Accident Review Meeting on the Chernobyl Accident. International Safety Advisory Group (INSAG). Vienna: IAEA Governing Council GC(SPL.I)/3, 1986 Zurück

3 Ecological Consequences of Radioactive Contamination of the Environment in the Chernobyl Emergency Zone. Izrael, Û.A. et al. Report to the XIV. Session of IAEA Governing Council, Nairobi, June 1987, Moscow: 1987. –S. 31. Zurück

4 Chernobyl – Ethical and Environmental Considerations. Sir Frederic Warner. IEE Proceedings: 134A(1987)10. – S. 834 – 840 Zurück

5 Die Havarie im KKW Tschernobyl: ein Jahr danach (russ.). Asmolov, V.G. et al. Atomnaâ energiâ, – Moskau: 64(1988)1. – S. 3 – 23 Zurück

6 Analyse der ersten Entwicklungsphase der Havarie am vierten Block des KKW Tschernobyl (russ.). Adamov, E.O. et al. Atmonaâ energiâ, – Moskau: 64(1988)1. – S. 24 – 28 Zurück

7 Ökologische Folgen der radioaktiven Verseuchung von Umweltmedien im Gebiet der Havarie des KKW Tschernobyl (russ.). Izrael, Û.A. et al. Atomnaâ energiâ, – Moskau: 64 (1988) 1. – S. 28 – 40 Zurück 8Station Blackout at Nuclear Power Plants. Radiological Implications for Nuclear War. Shapiro, C.S. preprint UCRL-95827, Lawrence Livermore National Laboratory, Livermore, December 1986. SCOPE-ENUWAR Manuscript BA.13.87. SCOPE-ENUWAR Bangkok Workshop, February 9 – 12, 1987. –S. 25 Zurück

9 Climatic Consequences of Nuclear War, Bach, W. Manuscript of an Invited Lecture given at the VIth World Congress International Physicians for the Preventation of Nuclear War (IPPNW). Cologne: May 29 – June 1, 1986. –S. 30 Zurück

10 Die Kontamination wird hier auf die Expositionsrate durch Gamma-Strahlung bezogen. Ein Röntgen (R) ist die Dosis ionisierender Strahlung, die der Exposition durch eine Ladungsmenge von 2,58 * 10-4 Coulomb pro Kilogramm Masse entspricht. Es handelt sich bei dieser Einheit also um eine Ladungsdosis, während das Gray (Gy) eine Energiedosis ist. Zurück

11 SCOPE 28 – Environmental Consequences of Nuclear War. Vol. I: Physical and atmospheric Effects/ Pittock, A.B. et al. Chichester, New York: John Wiley and Sons, 1986. S. 359. Vol. II: Ecological and Agricultural Effects/ Harwell, M.A.; Hutchinson, T.C. Chichester, New York: John Wiley and Sons, 1985. S. 523 Zurück

Peter Carl, Zentralinstitut für Elektronenphysik, AdW, Berlin/DDR

Retrospektive des Atomskandals: Was ist an der Wahrheit so gefährlich?

Retrospektive des Atomskandals: Was ist an der Wahrheit so gefährlich?

von Detlef zum Winkel

Viel ist nicht herausgekommen bei der „rückhaltlosen und lückenlosen Aufklärung“ der Vorgänge in Hanau und Mol, die die Regierenden vor einem halben Jahr täglich versprachen. Immerhin aber das: In der Produktion von Pointen ist das Bundesumweltministerium kaum zu übertreffen. Letztes Jahr hatte Walter Wallmann noch im Bonner Amt den Klassiker geprägt, das bundesdeutsche Plutonium werde Gramm für Gramm überwacht. Dieses Jahr formulierte sein Nachfolger Töpfer das geflügelte Wort: „ich suche auch hier wirklich die Urmehrheit – auch auf die Gefahr hin, daß wir sie finden“.(„Spiegel“, 11.1.88)

Was als pfälzische Heiterkeit gedacht war, wird von der Realität in häßlichen Zynismus verwandelt: Die unbekannte Wahrheit hat tatsächlich zwei Akteuren das Geschehens das Leben gekostet. Das ist der Unterschied zum Flick-Skandal. Jener allerdings erlaubt es, auf die finanzielle Größenordnung der Geschäfte zu schließen, um die es gegangen sein könnte. Bei 20 Millionen Bestechungsgeldern sollten nach den von Flick gesetzten Maßstäben Milliarden im Spiel sein. Daran dachte wohl der spendenerfahrene Kanzler, als er Mitte Januar fragte: „21 Millionen für das bißchen Zeug?“ („Spiegel“, 18.1.88)

Die Vorgeschichte

In der zweiten Märzwoche 1987 informierte der damals neue Geschäftsführer der Transnuklear, Hans Joachim Fischer, das Management von TN und ihrer Mutterfirma Nukem über „Unregelmäßigkeiten“ in den Abrechnungen: Zwischen 1981 und 1986 seien von der Abteilung Radioaktive Abfälle fünf bis sechs Millionen Mark Schmiergelder gezahlt oder unterschlagen worden. Der damalige Aufsichtsratsvorsitzende der Nukem und seine Stellvertreter, Spalthoff (RWE) und Becker (Degussa) wurden informiert. Fischer machte den Vorschlag, eine Selbstanzeige beim zuständigen Finanzamt oder bei der Hanauer Staatsanwaltschaft einzureichen. Doch die Degussa zögerte über wiederholte Interventionen ihrer Steuerabteilung die Selbstanzeige um runde drei Wochen hinaus: bis zum 7 April, genau zwei Tage nach der hessischen Landtagswahl. Trotz allen inzwischen vorgebrachten Erläuterungen und Relativierungen ist ganz klar, daß die Affäre erst nach dem Wahltermin öffentlich werden sollte Die Manager verhehlen nicht, wem ihre politischen Sympathien damals galten: Wallmann, der es dann auch knapp schaffte.

Bis Mitte Dezember 1987 konnte man erfahren, daß Transnuklear Angestellte bundesdeutscher Atomkraftwerke und Energieversorgungsunternehmen sowie des Kernforschungszentrums CEN im belgischen Mol „beschenkt“ hatte, um sich „lukrative Aufträge“ zur Entsorgung des schwach- bis mittelradioaktiven Abfalls zu beschaffen, wie er in den AKWs ständig anfällt. In diesem Bereich (kontaminierte Arbeitskleidung, Reinigungsmittel u.ä.) bot die Firma nämlich nicht nur Transportleistungen an, sondern einen „Entsorgungsservice“. So schloß sie mit den AKW-Betreibern Verträge ab, wonach die genannten Abfälle konditioniert (Verfressen/Verbrennen/Verfestigen zur Volumenreduzierung und in endlagerfähiger Form zurückgebracht werden sollten. Da TN über keine eigene Konditionierungsanlage verfügte, arbeitete man mit den Kernforschungszentren in Karlsruhe, Mol und Studsvik (Schweden) zusammen. Vor Ort in Mol waren TN-Angestellte mit „Sortierungsarbeiten“ der radioaktiven Abfälle beschäftigt. „Hantierungsarbeiten“ für TN leistete auch die Firma Smet Jet auf dem Gelände des CEN.

Versionen mit kurzer Lebensdauer

Zunächst hieß es, Sicherheitsbelange seien bei dieser „branchenüblichen“ Auftragsbeschaffung nicht verletzt worden. Diese Behauptung ließ sich nicht mehr aufrechterhalten, nachdem in Belgien zwei Direktoren des CEN wegen der Annahme von TN-Geldern entlassen worden waren und dort ebenfalls Staatsanwaltliche Ermittlungen eingesetzt hatten. Am 8. und 15.12.87 sahen sich Transnuklear und Preußen-Elektra zu weiteren Eingeständnissen gegenüber dem Bundesumweltministerium veranlaßt: In Mol konditionierte und an die Atomkraftwerke zurückgelieferte Abfälle enthielten geringe Mengen Plutonium und größere Mengen Kobalt 60. Daraus folge, daß andere Abfälle „untergemischt“ worden seien, die nicht von den in den Begleitpapieren ausgewiesenen Kraftwerken stammten. Außerdem habe TN an Smet Jet im Laufe von 8 Jahren ca. 24 Mio. DM gezahlt, obwohl die Leistungen der belgischen Firma allenfalls mit 8 Mio. zu veranschlagen seien: weitere 15 Millionen, die möglicherweise für Bestechungen aufgewendet wurden.

Am 15.12.87, zeitgleich zum Bekanntwerden dieser neuen Informationen, nahm sich der ehemalige TN-Angestellte Hans Holtz, der die schwarze Kasse geführt und die „nützlichen Aufwendungen“ notiert hatte, in der Untersuchungshaft das Leben. Töpfer entzog der Firma am 17.12.87 bis auf weiteres die Genehmigung für Atomtransporte und ordnete einer Überprüfung ihrer Zuverlässigkeit an. Bis zum Jahreswechsel wurden in verschiedenen Atomkraftwerken, Zwischenlagern und Forschungsinstituten knapp 2000 Mol-Fässer registriert, während die genaue Untersuchung ihres Inhalts auf sich warten ließ.

Transnuklear hatte rasch eine Erklärung für die Plutoniumverunreinigungen zur Hand, wobei es nicht sehr fair war, daß das Unternehmen über seinen Pressesprecher Jörg Pompetzki sogleich versuchte, dem toten Hans Holtz und einigen entlassenen Mitarbeitern die alleinige Verantwortung zuzuschieben: sie seien „in „dunkle Geschäfte“ mit falsch deklarierten radioaktiven Abfällen verwickelt“(„FAZ“, 17.12.87). TN zufolge handelte es sich um 321 zwischen 1982 und 1984 gelieferte Fässer mit Rückständen des Reaktors BR-3 in Mol. In diesem 1987 stillgelegten Forschungsreaktor habe sich 1977 eine „Leckage“ ereignet, weshalb der Primärkreislauf dekontaminiert werden mußte. Die verfestigten Reinigungsschlämme mit insgesamt 211 Milligramm Plutonium seien auf jene 321 Fässer verteilt worden. Die Verunreinigung betrage pro Faß etwa 300 Millicurie Kobalt 60 und 0,04 mCi entsprechend 0,57 mg Plutonium 239. Diese Werte lägen innerhalb des Erlaubten, und dementsprechend hätten auch Messungen der Strahlendosis an der Oberfläche der Fässer nichts Auffälliges ergeben können.

Garantieren könne TN allerdings nicht dafür, daß nicht auch weitere Fässer mit Fremdstoffen gefüllt seien, die nicht von ihren Absendern stammen („Frankfurter Rundschau“, 18. und 22.12.87; „Spiegel“, 28.1287). Später wurde genauer bekannt, wohin die 321 Fässer geliefert wurden: 64 nach Neckarwestheim, 150 nach Würgassen, 107 nach Stade, wobei die letzte Charge in der Lagerhalle Kleinensiel des AKW Unterweser landete. Nach Informationen der „taz“ (13.1.88) soll Transnuklear diese Angaben im Dezember von Mol erhalten haben.

Die Belgier, die nach dieser Version nicht nur TN-Gelder kassiert sondern auch noch eigenen Pu-kontaminierten Abfall heimlich und billig beiseitegeschafft hätten, gaben die 321 Fässer zu, behaupteten aber, ihrerseits geschädigt worden zu sein, weil TN große Mengen Abfälle geliefert habe, die in Mol gar nicht konditioniert werden konnten. Von 1983 bis 1987 habe das Hanauer Unternehmen 6000 Kubikmeter Abfälle angefahren, wovon 4900 Kubikmeter bearbeitet wurden. Von den verbleibenden 1100 Kubikmetern könnten nach Untersuchungen noch 500 Kubikmeter konditioniert werden, die restlichen 600 Kubikmeter seien jedoch wegen zu hoher Bestrahlung in Mol nicht bearbeitungsfähig. Bei diesen 600 Kubikmetern handle es sich jedoch nicht um plutoniumhaltige Abfälle, erklärte das belgische Energieministerium zur Erleichterung der Kollegen in der BRD (Bericht Töpfers vom 21.12.87).

Von Transnuklear-Angestellten kamen dagegen Hinweise, wonach sich auch spaltbares Material in dem BRD-Abfall befunden habe, der nach Mol transportiert wurde („Spiegel“, 28.12.87). So könne bei Brennelemente-Schäden Plutonium in den leichtaktiven Müll geraten. In diesem Kontext sah sich Umweltminister Töpfer am 23.12.87 genötigt, eine Überprüfung Störfälle in Siedewasserreaktoren seit 1984 anzuordnen. Konkret wurde der Verdacht geäußert, 100 Gramm alphaaustrahlenden Materials seien nach einem Störfall unter falscher Bezeichnung, d.h. mit dem gewöhnlichen schwachaktiven Abfall nach Mol gegangen. Diese 100 Gramm wurden als Uranstaub mit Plutoniumspuren beschrieben. Neben Caesium, was wegen der Kernspaltung logisch ist, sei auch noch Kobalt 60 darin enthalten gewesen („FR“ und „FAZ“, 29.12.87), ein Radioisotop, das nie zu fehlen scheint und von der Presse gelegentlich der Einfachheit halber auch als Spaltprodukt bezeichnet wird („FR“ und „FAZ“, 5.1.88), ohne ein solches zu sein. Die Atomkraftwerke Philippsburg und Grundremmingen, bei denen ein solcher Störfall vermutet wurde, widersprachen umgehend. Auch die Staatsanwaltschaft Hanau dementierte, Beweise hierfür zu haben. Trotzdem nahm Töpfer den Vorfall in seinen Bericht über die Entsorgung des Atommülls in der Bundesrepublik auf („taz“, 14.1.88). Später wurde tatsächlich eine einzelne Brennstofftablette im Abklingbecken des AKW Philippsburg gefunden („taz“, 24.2.88). Freilich sind alle hier genannten an spaltbarem Material – sowohl diejenigen, die nach Mol gingen als auch diejenigen, die von dort zurückkamen – unter dem Gesichtspunkt einer Proliferation irrelevant – wenn die Mengenangaben stimmen.

Die Kontrollinstanzen IAEO und Euratom hatten es daher leicht, sich für nicht zuständig zu erklären und darauf zu verweisen, daß an solchen Abfällen eigentlich niemand interessiert sein kann. Der Atomskandal rangierte unter dem Stichwort „ungelöste Entsorgung“. Wenn schon die Handhabung der schwach- bis mittelaktiven Abfälle derartige Probleme bereite, so fragten die Kommentatoren, wie werde es dann erst mit der Wiederaufarbeitung und Endlagerung der bestrahlten Brenn elemente aussehen? Aber Mitte Januar nahm die Geschichte ihre nächste spektakuläre Wendung.

Der Paukenschlag

Am 14.1.88 antwortete Wallmann im Umweltausschuß des hessischen Landtags auf eine Frage des Grünen Joschka Fischer, im Zusammenhang mit den Vorgängen in Mol gebe es den konkreten Verdacht einer Proliferation waffenfähigen Spaltmaterials an Pakistan oder Libyen. Am gleichen Tag verfügte Töpfer die vorläufige Stillegung der nuklearen Produktion bei der Hanauer Nukem, weil das Unternehmen die Behörden unzureichend informiert hatte. Diese Maßnahme habe aber, wie in den folgenden Tagen in Bonn und Wiesbaden betont wurde, nichts mit dem Proliferationsverdacht zu tun.

Vergegenwärtigen wir uns zunächst die Vorwürfe gegen Nukem. Bei der Mutterfirma von Transnuklear, „im Auge des Taifuns“ („Spiegel“), wurden 50 Mol-Fässer erst „entdeckt“, als quer durch die Republik bereits 2000 Fässer aus Belgien gemeldet waren. Von diesen Fässern wußte Nukem seit 1985, daß sie Spuren von Caesium 137 und Kobalt 60 enthielten. Weil diese Nuklide nicht von den Alkem-Abfällen stammen könnten, verweigerte das Unternehmen die Annahme der Fässer, so daß sie einfach in einer Lagerhalle von TN abgestellt wurden. Darüber hinaus waren zwei Fässer nicht mehr auffindbar; ein weiteres Faß war trotz der Kontaminierung an die Uranverarbeitungsanlage Gewerkschaft Brunhilde im pfälzischen Ellweiler gegangen.

Unabhängig von den unterschiedlichen Bewertungen wird von Nukem und den Behörden die im wesentlichen übereinstimmende Darstellung gegeben: Von 1983 bis Anfang 1987 ließ Nukem 42,5 Tonnen uranhaltige Betriebsabfälle von TN nach Mol bringen. Dabei habe es sich um zerkleinerte Büromöbel gehandelt, die mit angereichertem Uran kontaminiert gewesen seien. In Pressemeldungen wird von „hoher“ oder „starker“ Anreicherung gesprochen, was nicht auszuschließen ist, da das Nukem-Uran Anreicherungen bis zur Waffentauglichkeit besitzt. Um die Auflagen für schwach bis mittelaktiven Abfall einzuhalten, will das Unternehmen angereichertes Uran hinzugegeben haben, bis mit Hilfe einer solchen „Verdünnung“ die Isotopenzusammensetzung von Natururan (0,71 % U 235) erreicht worden sei.

Die so präparierten Abfälle seien nicht zu einer endlagerfähigen Konditionierung nach Mol geschickt worden, sondern nur zur Verbrennung. Denn man wollte, sagt Nukem, versuchen, das enthaltene Uran später „als Kernbrennstoff zurückzugewinnen“. Die Quantitäten müßten demnach so gewesen sein, daß ein solcher Versuch als lohnend erschien. 53 Fässer zu je 200 Litern, von Nukem als „Asche mit Natururan“ deklariert, seien zwischen 1984 und 1986 zurückgekommen, zunächst 1984 in einer gesonderten Sendung zwei Stück, die angeblich nicht vollständig gefüllt seien. Daher habe man sie bei Nukem „mit Reststoffen in verschiedenen Abfallfässern zusammengefaßt". Zusammen sollen die beiden verschwundenen Fässer 114 kg Material enthalten haben.

Aus den folgenden 51 Fässern zog Nukem 1985 Proben, in denen geringe Beimengen von Kobalt 60 und Caesium137 festgestellt wurden: 3 bis 5 Becquerel pro Gramm Reststoff in der Hälfte dieser Fässer. Ferner ergab die Untersuchung Hinweise darauf, daß die Behälter auch angereichertes Uran enthielten, das „Kernbrennstoffcharakter“ besaß. Von der Verunreinigung mit „Fremdstoffen“ und dem Brennstoffcharakter des Urans wurden die Aufsichtsbehörden nicht informiert; auch wurde damals keine Plutoniumsanalyse vorgenommen, obwohl der Caesiumbefund dies nahegelegt hätte. Wären die Behörden informiert worden, so der hessische Umweltminister Weimar, so wären die dubiosen Abfallverschiebungen und Vermischungen in Mol wahrscheinlich schon vor drei Jahren aufgeflogen. Stattdessen schickte Nukem im Juli 1986 eine Probe mit 15 kg solcher uranhaltiger Asche (anderen Berichten zufolge zwei Proben zu je 15 kg) an die Uranverarbeitungsanlage in Ellweiler, um prüfen zu lassen, ob eine Rückgewinnung des Urans möglich wäre. Eine Bearbeitung ist dort aber anscheinend nicht erfolgt.

Weitere 22 Fässer der Nukem mit ähnlichem Inhalt lagern noch in Mol. Daraus und aus der bereits nach Hanau zurückgelieferten Sendung ließ Nukem im Oktober 1987 Proben entnehmen, um sie nun auch auf Plutonium untersuchen zu lassen. Für die noch in Mol lauernden Nukem-Fässer wurde ein Pu-Gehalt von 6 Nanogramm pro Gramm Asche ermittelt; das Ergebnis für die Proben aus Hanau stand im Februar immer noch aus und wurde m.W. auch später nicht bekanntgemacht (nach „Siemens/argumente“, 9.2.88). Noch im Dezember, als die Untersuchungen zu Transnuklear auf vollen Touren liefen, verschwieg Nukem den Behörden, diese Analysen in Auftrag gegeben zu haben. So erweckte die Firma den Eindruck, daß sie etwas zu verbergen hat.

Der ungeheuerliche Verdacht

Auch heute weiß man darüber nicht mehr als die paar Schlagzeilen vom Januar, zu denen die Texte nicht geschrieben oder nicht veröffentlicht wurden: waffenfähiges Spaltmaterial aus Mol sei von Transnuklear nach Lübeck transportiert, dort auf einem finnischen Schiff unter einer Ladung Koks versteckt worden und über Schweden nach Pakistan oder Libyen gelangt. An dem Handel seien die Bremer Hansa Projekt Transport und die Lübecker Neuen Metallhüttenwerke beteiligt gewesen, beide im Besitz der pakistanischen Brüder Gokal, die im Ruf stehen, Waffenhändler zu sein. Gelegentlich wurden auch Bremen und Hamburg als Häfen genannt, über die Proliferationsgeschäfte abgewickelt wurden. Weil zwei Nukem-Fässer abhanden gekommen waren, konzentrierte sich in den Medien der Verdacht darauf.

Am Abend des 15.1.88 dementierte in Hanau Jörg Pompeßski, Firmensprecher von Nukem und TN, waffenfähige Atomexporte nach Pakistan, Libyen oder Sudan (letzteres war gar nicht behauptet worden, doch soll Khartoum ein Hauptumschlagsplatz für unkontrollierte bzw. illegale Nukleargeschäfte sein: ein „grauer Markt“). Lediglich Kobalt 60-Strahlungsquellen seien für medizinische und technische Zwecke nach Pakistan exportiert worden. Ferner habe Nukem einmal 19,45 kg Uran in Form von Hexafluorid an Pakistan verkauft. Der Stoff sei 1978 für Laborzwecke geliefert worden. Über seinen Anreicherungsgrad wurden keine Angaben gemacht. Weitere Pressemeldungen und Import/Export-Tabellen norddeutscher Häfen zeigen ein reges internationales Geschäft mit Kobalt 60-Sendungen, auch nach Libyen und Südafrika.

Der Begriff des spaltbaren Materials, das zur Herstellung von Atombomben geeignet sein könnte, ist ein weites Feld. Der belgische Sozialist und Europa-Abgeordnete Glinne sprach definitiv von 45 kg hochangereicherten Urans, die in pakistanischen Besitz gelangt seien. Dafür seien „praktisch alle europäischen Staaten“ verantwortlich („FR“ und „FAZ“,19.1.88). Hingegen wurde in der Boulevardpresse mit Bestimmtheit die These vertreten, es sei um Plutonium gegangen. So hatte die Frankfurter „Abendpost-Nachtausgabe“ schon am 18.12.87 behauptet, belgische Behörden hätten bestätigt, daß TN „mit Hilfe von Bestechungsgeldern Plutonium ungenehmigt in Mol untergebracht hat“. „Ausgediente Brennstäbe“ seien in Mol bearbeitet worden, doch die „Restabfälle“ seien nicht zur Zwischenlagerung in die Bundesrepublik zurückgekommen, sondern durch anderen Atommüll ausgetauscht worden. „Bild“ berichtete am 15.1.88, „daß offenbar in (genehmigte) Atommüll-Fässer (verbotenerweise) hochgiftiges Plutonium gefüllt wurde. Transnuklear transportierte die Fässer ins belgische Atomkraftwerk Mol. Dort soll das Plutonium herausgeholt und weiter verschoben worden sein – möglicherweise nach Pakistan und Libyen.“

Technologien zur Plutoniumextraktion – sei es durch Wiederaufarbeitung bestrahlter Brennstäbe oder durch Rückgewinnung aus Abfällen, die stark mit Plutonium versetzt sind – waren in Mol vorhanden: Von 1968 bis 1974 wurde dort die WM Eurochemic von 12 westeuropäischen Ländern betrieben. Die „FAZ“ (16.1.88) merkte dazu an, es müsse geprüft werden, ob sich die Geschäftsführung, heute als Belgoproces N.V. mit Dekontaminierungsarbeiten befaßt, wirklich seit 1974 an die Stillegung gehalten hat. Als geschlossene Anlage unterliegt dieser Bereich auch nicht der IAEO-Kontrolle. Zweitens wurde auf dem Eurochemic-Gelände unter Regie des Karlsruher Kernforschungszentrums eine sog. Naßveraschungsanlage errichtet, um Plutonium aus brennbaren Abfällen zurückzugewinnen, gedacht vor allem für stark plutoniumhaltige Betriebsrückstände aus der Wiederaufbereitung oder der Brennelementeproduktion. Mit diesem Verfahren produzierte Belgoproces N.V. im Rahmen eines zweijährigen Demonstrationsbetriebs (1983-85) 6 kg Plutonium aus 4 Kubikmetern brennbarer Eurochemic-Abfälle. Nach Mitteilung des KfK wurde dieses Plutonium in die Spaltstofflußkontrolle einbezogen, wobei es in der Natur der Sache liegt, daß sich IAEO/Euratom nur im guten Glauben auf die Angaben der Betreiber verlassen können.

Keine Mitteilung gibt es darüber, ob und in welchem Umfang dieses als ausgesprochen erfolgreich beschriebene Verfahren nach 1985 fortgesetzt wurde.

Die unterschiedlichen Möglichkeiten einer Proliferation von militärisch interessantem Spaltmaterial nach Pakistan oder in andere Länder wurden in einem „FAZ“-Artikel (16.1.88) durchgespielt, um zu dem Schluß zu kommen, daß die direkte Weitergabe vom waffenfähigem Uran 235 oder Plutonium 239 unwahrscheinlich sei. „Eher wäre (…) denkbar, daß die Fässer abgebrannten Brennstoff enthalten, der zunächst wiederaufgearbeitet werden müßte.“ Dann wären allerdings nicht nur zwei Fässer, sondern ganz andere Mengen verschoben worden.

Tatsächlich verfügt Pakistan dank belgisch-französischer Technik über eine Wiederaufbereitungstechnik, die sicherlich militärischen Zwecken dienen soll. „Fraglich blieb jedoch bislang, woher der zu Atombomben zu verarbeitende Brennstoff kommen sollte“ (ebenda), weil die eigenen Reaktoren des Landes im Unterschied zu anderen Komponenten des pakistanischen Atomprogramms IAEO-Kontrollen unterworfen wurden, ohne daß bisher Unregelmäßigkeiten auffielen. Wenn man diesen Gedanken weiterspinnt, wird man wiederum heimliche Exporte von Brennstäben mit hohem Abbrand, etwa solche aus kommerziellen stromerzeugenden Reaktoren, für relativ unwahrscheinlich halten. Wegen des hohen Abbrands wäre das daraus zu extrahierende schmutzige Plutonium waffentechnisch nicht sehr geeignet. Wegen der hohen Strahlung wären Transport und Bearbeitung ebenso gefährlich wie auffällig, und schließlich könnte das Material natürlich auch den Kontrollen entzogen werden. Etwas anders verhält es sich möglicherweise mit schwach bestrahlfern Material oder mit Betriebsabfällen aus der Brennelementeproduktion, die noch relevante Reste von hochangereichertem Uran oder Plutonium enthalten. Ein solches Material könnte problemlos als schwach- bis mittelaktiver Abfall getarnt nach Mol geschmuggelt worden sein. Und in Belgien gelten wiederum andere Abfallkategorien als in der Bundesrepublik.

Für die letzte Variante haben sich bisher die stärksten Indizien gefunden. Große Mengen der von Transnuklear ins Ausland beförderten, als schwach- bis mittelaktiv deklarierten Abfälle sind offensichtlich verschwunden. Wie bereits erwähnt, hatten gemeinsame deutsch-belgische Abklärungen Ende 1987 ergeben, daß in Mol noch 1100 Kubikmeter solcher Abfälle lagern müßten. Am 18.1.88 berichtete der „Spiegel“, das Brüsseler staatliche Amt für radioaktive Abfälle, Ondraf, habe Ende der ersten Januarwoche festgestellt, „daß knapp 700 Fässer mit deutschen Strahlrückständen in Belgien spurlos verschwunden sind, nachdem sie beim belgischen TN-Tochterunternehmen „Smet Jet“ angeliefert worden waren.“ Zehn Tage später bestätigte die Geschäftsleitung von TN gegenüber der „FAZ“ (28.1.88): „Belgien habe zugesagt, die 321 Fässer im Gegenzug gegen deutschen Müll zurückzunehmen. Der deutsche Abfall sei aber nicht mehr aufzufinden.“ Ähnliches ergaben Ermittlungen in Schweden. Anfang April teilte die schwedische Atomenergiebehörde mit, fünf angekündigte TN-Transporte von radioaktiven Abfällen, die zur Verbrennung nach Studsvik gebracht werden sollten, seien dort nicht angekommen. Wo ist es geblieben, das bißchen Zeugs?

Krisenmanagement

Bewiesen ist bisher nur der enge wissenschaftlich-technische Austausch des CEN in Mol und der Plutoniumfabrik Belgonucleaire im benachbarten Dessel mit Pakistan, obwohl sich die belgische Seite jederzeit über die militärischen Ambitionen Islamabads bewußt war. Aus der BRD hat die Degussa-Tochter Leybold Heraeus (Köln/Hanau) Pakistan maßgeblich beim Erwerb der Urananreicherungstechnologie geholfen. Pakistan selbst erklärte, es habe keine illegalen Nuklearimporte aus der Bundesrepublik oder Belgien erhalten. Libyen sprach von Verleumdungen des „zionistischen Geheimdienstes“. Die IAEO bekräftigte die Effektivität ihrer Kontrollen und bescheinigte den Firmen in Hanau und Mol, für Abzweigungen von Spaltstoffen hätten nie Anhaltspunkte vorgelegen. Die Hanauer Staatsanwaltschaft dementierte das Vorhandensein irgendwelcher Beweise. Am 20.1.88 erklärte die Bundesregierung über ihren Sprecher Ost, die „ungeheuerlichen Verdächtigungen der letzten Tage“, daß von deutschen Firmen direkt oder indirekt der Atomwaffensperrvertrag verletzt worden sei, entbehrten „jeglicher Grundlage“.

Gleichwohl wurden bei den Hanauer Firmen einige Veränderungen veranlaßt, zwar keine „tiefen Schnitte“, die der ganzen atomaren Familie Schmerzen bereitet hätten, aber doch Maßnahmen, bei denen widerstreitende Interessen sichtbar wurden. Am interessantesten: Die RWE verkauften ihre Nukem-Anteile (45 %) an den HTR-Hersteller BBC/Babcock, der gerade ein „Riesen-Atomgeschäffe mit China“ („FR“, 12.3.88) abgeschlossen hatte. Für den Bau eines ersten chinesischen Hochtemperaturreaktors gingen Aufträge über mehrere 100 Millionen Mark an BBC und andere bundesdeutsche Firmen. Dem Bonner Untersuchungsausschuß berichtete Töpfer am 21.4.88, es seien 2362 Gebinde von Transnuklear falsch deklariert aus Mol in die BRD zurückgeliefert worden. Die von diesen Fässern ausgehende Strahlung bewege sich jedoch innerhalb der genehmigten Werte. Hatte die „FAZ“ am 6.1.88 noch voller Eifer gemeldet „Alle fast 2000 Atommüllfässer sollen geöffnet werden“, so waren 14 Wochen später nur 50 Fässer auf ihre Nuklidzusammensetzung untersucht worden. In vier Fässern habe die Pu-Kontaminierung zwischen 1 und 2,8 mg betragen, in allen anderen lag sie unter einem Milligramm. Solche geringen Beimischungen seien bei Verbrennungsanlagen wie derjenigen in Mol üblich. Die Fässer seien für die Endlagerung geeignet.

Wohin führen die Spuren? Just zum Zeitpunkt dieser beruhigend abgefaßten Worte gab die Hanauer Staatsanwaltschaft bekannt, noch einmal 50 Mol-Fässer im Auge des Taifuns gefunden zu haben, bei Transnuklear. Die neuen Fässer würden auch andere Stoffe als schwach strahlendes Material enthalten („FAZ“, 22.4.88). Bis zum Juni stieg die Zahl der in der BRD registrierten Mol-Fässer auf über 5000, mindestens 2400 davon falsch deklariert. Das ist das Siebeneinhalbfache der anfänglich in Hanau und Mol eingeräumten 321 Fässer. Bei jener Sendung mit angeblichen Rückständen von Reinigungsschlamm aus dem BR-3-Reaktor in Mol stellte sich heraus, daß in die Fässer noch einmal Stahlbehälter einzementiert waren. Erst darin befand sich das radioaktive Material, der Zement war strahlungsfrei. Es handelte sich also nicht einfach um ein Vermischen verschiedener Abfälle und schon gar nicht um eine Querkontaminierung bei der Verbrennung, sondern um ein regelrechtes Verstecken – und um einen ziemlichen Aufwand, der das Ganze nicht nur harmlos erscheinen läßt, wie es von Töpfer schließlich dargestellt wurde. Wider Erwarten enthielt der Stoff überhaupt keine Caesium-Beimischungen, so daß die ganze These eines Reaktorstörfalls mit Brennelementeschaden als recht fragwürdig erscheint („Nordseezeitung“, 29.2. und 1.3.88).

Mehrere Fälle von Plutonium-Verunreinigungen betrafen Fässer, die nicht zu der 321 er Charge gehören, ohne daß daraus auf den gesamten Pu-kontaminierten Anteil der 2400 falsch deklarierten Fässer geschlossen werden könnte. Seltsamerweise scheint dabei immer auch Kobalt 60 aufzutreten. Bei der Untersuchung von zehn Fässern in Baden-Württemberg fanden sich neben „typischen Kernkraftwerksabfällen“ auch Anhaltspunkte dafür, „daß schwach- und mittelradioaktive Abfälle aus anderen kerntechnischen Anlagen mitverarbeitet worden sind.“ („Siemens/argumente“, 9.2.88). Handelt es sich dabei um Wiederaufarbeitung, Brennelementeprodukte oder Anreicherung? Beträchtlich war auch der Uran-Anteil in den Nukem-Fässern, als Asche mit Natururan „deklariert“: In den 50 aus Mol zurückgelieferten Fässern mit einem Gesamtinventar von 7085 kg befanden sich 756 kg Uran, das Zehnfache der anfänglich vermuteten Menge. Die Anreicherungsgrade waren unterschiedlich. In 20 Fässern sei das Uran in kernbrennstoffähiger Form vorhanden gewesen. „Der Höchstwert, der vom Umweltministerium bislang ermittelt worden ist, liegt bei 4,4 % Uran 235.“ („FR“, 21.1.88). Meint das die Isotopenzusammensetzung oder, weil hier nichts ausgeschlossen werden kann, den Anteil am gesamten Faßinhalt? Dann nämlich werde es sich um stark angereichertes Uran handeln.

Andererseits ist auch nicht auszuschließen, daß die Plutonium – Caesium – Verunreinigungen in den Nukem-Fässern nicht erst in Mol entstanden sind. Diese Spuren von abgebrannten Brennstäben können auch zu der Firma selbst zurückführen. Schon im Frühjahr 1987 hatten die hessischen Aufsichtsbehörden registriert, daß Nukem ihre genehmigte Umgangsmenge mit schwach bestrahltem Uran (30 kg) um das Achtfache überschritten hatte. Es handelte sich z.T. um Brennstoff aus Forschungsreaktoren mit niedrigem Abbrand. Der IAEO war das nicht aufgefallen. Dabei verdeckt die harmlose Bezeichnung der schwachen Bestrahlung, daß sich waffenfähiges Plutonium darin befinden kann, wenn auch nur in geringen Anteilen. Immerhin wurde ein Teil dieses Materials in den staatlichen Plutoniumbunker bei der Schwesterfirma Alkem überführt, was nicht gerade für seine Harmlosigkeit spricht. Was wurde aus dem anderen Teil?

Fassen wir zusammen: Ausgeschlossen ist, daß die Pu-Verunreinigungen in den Mol-Fässern auschließlich auf den genannten Reinigungsschlamm von dem belgischen BR-3-Reaktor zurückzuführen sind. Es muß auch andere Ursachen aus anderen kerntechnischen Anlagen dafür geben. Um sie nachzuweisen, müßte man die genauen Analyseergebnisse kennen. Ziemlich unwahrscheinlich ist, daß die Pu-Verunreinigungen ausschließlich von belgischem Material herrühren. Durchaus möglich ist es, daß sich in dem von der BRD nach Mol transportierten, als schwach- bis mittelaktiv deklarierten Abfall relevante Mengen von Spaltstoff befanden, die eine chemische Rückgewinnung lohnend erscheinen lassen – auch für militärische Atomprogramme.

Schließlich ist sogar das Unwahrscheinliche möglich, daß bestrahlte Brennelemente aus kommerziellen westdeutschen Atomkraftwerken verschoben wurden. Dazu müssen wir in die Vorgeschichte des Skandals zurückgehen, als von falschen Frachtpapieren und Proliferation noch nicht die Rede war. Am 4.9.87 berichtete die "Zeit" von einem Provisionsgeschäft der Transnuklear mit dem Preußenelektra-Sachbearbeiter Klaus Ramcke, der auf der Liste von Hans Holtz an oberster Stelle stand, d.h. mit rund einer dreiviertel Million den höchsten Betrag aus der schwarzen Kasse erhielt.

Ramcke sollte 220.000 DM erhalten, „wenn er der TN den Auftrag zur Entsorgung von radioaktiven Abfällen verschaffte, die bereits zerschnitten in einem Becken des Reaktors in Wergassen lagerten.“ schwach- bis mittelaktive Abfälle legt man aber nicht zerschnitten in ein Becken; dies tut man nur mit abgebrannten Brennelementen. Folglich war das in der Öffentlichkeit präsentierte Motiv für die „nützlichen Aufwendungen“ der Transnuklear von Anfang an falsch: Es ging nicht nur um schwach- bis mittelaktive Abfälle. Es ging sehr wohl auch um abgebrannte Brennelemente. Klaus Ramcke warf sich am 27.4.87 bei Hannover vor einen fahrenden Zug.

Ein illegaler Abfallkreislauf?

Eine Fülle weiterer Informationen hat der Atomskandal zutage gefördert – nicht weniger schwerwiegend als die Abfallverschiebungen. An erster Stelle wäre die führende Rolle der Nukem bei der Einschleusung namibischen Urans aus Südafrika in den Weltmarkt zu nennen. Durch „Umflaggen“ und „Ursprungs-Swaps“ werden die Beschlüsse der UNO und zahlreicher Staaten unterlaufen, keine nukleare Zusammenarbeit mit dem Apartheid-Regime einzugehen. Im Gegenzug hat die Bundesrepublik schon im letzten Jahrzehnt durch Transfer von Technologie und know how maßgeblich zur atomaren Aufrüstung beigetragen, wie auch der ehemalige IAEO-Direktor David Fischer vor dem Bonner Untersuchungsausschuß betonte.

Bekannt wurden frühere Plutoniumimporte der BRD aus Schweden und der Schweiz, Briefkastenfirmen von Nukem in der Schweiz und Luxemburg, offensichtlich um dubiose Handelgeschäfte zu tätigen, ungenehmigte inländische Unranvorräte – 6,6 Tonnen bei Transnuklear; eine Überschreitung um mehr als 200 Tonnen bei der Spedition Braunkohle – und bisher unbekannte, von Nukem verwaltete strategische Reserven des Bundes – 600Tonnen – ebenso wie ein Transnuklear-Lager im niedersächsischen Leese auf Bundeswehrgelände. Apropos Bundeswehr: Sie wäre im Bedarfsfall gewiß nicht darauf angewiesen, den Umweg über das Ausland oder über radioaktive Abfälle zu machen (…)

In Mol geht es – hauptsächlich – um die Frage der horizontalen Proliferation aus Belgien oder der Bundesrepublik an dritte Länder. Insbesondere geht es darum, welche Rolle „Abfall“-Lieferungen in diesem Zusammenhang spielen können. Beispielsweise hat Die Volksrepublik China in der Vergangenheit mehrfach ein Interesse am Import abgebrannter, aber noch nicht wiederaufgearbeiteter Brennelemente erkennen lassen. Dies wird für andere Staaten ähnlich gelten.

Jede/r mag für sich über das Gesetz Murphys sinnieren, wonach alles, was möglich ist, auch eintritt. Daß der Proliferationsverdacht "jeglicher Grundlage“ entbehre, ist jedenfalls die lächerlichste Episode dieser ganzen Geschichte. Beim Ziehen des Schlußstrichs war die Bundesregierung wieder einmal zu eifrig.

Detlef zum Winkel ist freier Journalist in Frankfurt/Main.

Waffentauglichkeit von Reaktor-Plutonium

Waffentauglichkeit von Reaktor-Plutonium

von Christian Küppers

In diesem Beitrag soll untersucht werden, ob unter Verwendung von Plutonium, das in stromerzeugenden Leichtwasserreaktoren (LWR) gewonnen wird („Reaktor-Pu“), ein Atomwaffenbau realisierbar ist. In der Bundesrepublik als einem der wenigen Nicht-Atomwaffenstaaten der Welt mit weiter expandierender Pu-Wirtschaft kommt der Frage der Möglichkeit eines Mißbrauchs besondere Bedeutung zu. Eine „Bastlerbombe aus der Garage“ ist sicher unrealistisch. Nach den Möglichkeiten eines Staates, sei es ein hochentwickeltes Industrieland oder ein Land der sogenannten Dritten Welt, sowie nach Möglichkeiten einer technisch versierten Gruppe ist umso mehr zu fragen.

Unterschied zwischen Reaktor- und Waffen-Pu: Das Isotopengemisch

Jeder mit Uran betriebene Atomreaktor produziert Pu. Mit zunehmender Verweilzeit des Brennstoffs im Reaktor (höherer „Abbrand“) wächst der relative Anteil der schweren Pu-Isotope Pu 240, Pu 241 und Pu 242 sowie von Pu 238. Als Waffen-Pu wird häufig ein Pu mit mindestens 93% Pu 239 definiert; hinzu kommen bis 7 % Pu 240 und Pu 241. Reaktor-Pu kann 20 bis 30% Pu 240 enthalten. Im Folgenden wird dargestellt, weshalb und in welcher Weise die Isotopenzusammensetzung Bedeutung für den Bau von Pu-Waffen hat.

Die „kritische Anordnung“

„Kritikalität“ bedeutet das Eintreten einer sich selbst erhaltenden Kettenreaktion im Spaltstoff. Zur Einleitung und Aufrechterhaltung der Kettenreaktion muß eine hinreichend große Spaltstoffmasse vorliegen, deren erforderliche Größe wiederum von der geometrischen Konfiguration dieses Spaltstoffs und von dessen Dichte spaltbarer Atomkerne abhängt. Die optimale Konfiguration ist durch ihr günstiges Oberflächen-Volumen-Verhältnis die Vollkugel. Eine größere Masse zum Erreichen der Kritikalität erfordert z.B. eine Hohlkugel. Ein den Spaltstoff umgebender Neutronenreflektor (z.B. Be, U) reduziert die kritische Masse. Wichtig ist auch der Einfluß der Spaltstoffdichte: Die kritische Masse ist umgekehrt proportional zum Quadrat der Dichte. Aus diesem Grund ist z.B. die kritische Masse von Pu-Dioxid deutlich größer als diejenige von Pu-Metall. In Atomwaffen des unten erläuterten Implosionstyps ist nicht die Pu-Dichte unter Normalbedingungen ausschlaggebend, da die auftretenden Drücke von einigen ES bar die Dichte des Metalls mehr als verdoppeln. Auf diese Weise ist es möglich, auch mit einer zunächst sicher unkritisch erscheinenden Spaltstoffmasse (z.B. 4 kg Pu) eine Atomwaffe zu konstruieren. Eine untere Grenze der erforderlichen Pu-Masse ergibt sich aus der militärisch gewünschten Energiefreisetzung. Um die Sprengkraft von etwa 10.000 t (10 kt) – etwa der halben Sprengkraft der Nagasakibombe – des Sprengstoffs Trinitrotoluol (TNT) zu erreichen, muß 1 kg Pu vollständig gespalten werden. Die Sprengkraft wird üblicherweise in kt TNT-Äquivalent angegeben.

Tabelle 1: Spontanspaltraten für Pu-Isotope 11

Pu 238 Pu 239 Pu 240 Pu 241 Pu 242
3,4E6 30 1,6E6 0 1,7E6 n/s x kg

Funktionsweise einer Atomwaffe

Es werden hier die grundsätzlich verschiedenen Funktionsprinzipien Geschütz- und Implosionsmethode vorgestellt, ohne z.B. auf Neutronenbomben oder Fusionsbomben einzugehen. Vom Typ der Geschützmethode war die 1945 über Hiroshima abgeworfene U-Bombe. Bei diesem Typ wird in einem Kanonenrohr eine Spaltstoffmenge in eine andere hineingeschossen und so eine kritische Konfiguration erreicht (siehe Abb.1). Solche Bomben sind aufgrund der Beschleunigungsstrecke groß, unhandlich und schwer. Die erzielbaren Zusammenschußgeschwindigkeiten sind erheblich niedriger (1945 ca. 900 m/s) 1, als bei der unten vorgestellten Implosionsmethode (mehrere km/s).

Vom Typ der Implosionsmethode waren die im Juli 1945 in der Wüste von New Mexico (Alamogordo) getestete Bombe und die Nagasakibombe; sie enthielten je 6,1 kg Pu 2 Bei der Implosionsmethode wird eine Hohlkugel aus spaltbarem Material durch Zündung einer sie umhüllenden Sprengstoffladung zu einer kritischen Konfiguration komprimiert. Es können heute solche Waffen sehr kompakt und transportabel gebaut werden, was z.B. „Rucksackbomben“ und Mehrfachsprengköpfe möglich gemacht hat. Die Implosionsmethode diese Vorzüge nur bei der Verwendung von Pu als Spaltstoff auf, denn die kritische Masse von hochangereichertem Uran wäre zu groß, um eine vergleichbar handhabbare Waffe zu konstruieren.

Die besondere Schwierigkeit der Implosionsmethode besteht in der Erhaltung der kugelförmigen Gestalt während der Komprimierung. Der die Hohkugel umgebende Sprengstoff wird nur an einigen Punkten seiner Oberfläche gezündet, von denen dann eine Druckwelle ausgeht, die die gesamte Oberfläche der Spaltstoff-Hohlkugel nicht zeitgleich erreicht und eine ungewünschte Deformierung zur Folge hätte. Die Implosionsmethode erfordert deshalb die Beherrschung der „Sprenglinsentechnik“. Durch ausgeklügelte Zusammensetzung der Sprengstoffhülle aus unterschiedlichen Sprengstoffen (mit z.B. unterschiedlichen Detonationsgeschwindigkeiten) oder auch durch gezielte Hohlräume in der Sprengstoffschicht kann die Druckwelle gelenkt werden. Diese 1943 neu entwickelte Technik wird – ihrem Grundgedanken nach – heute auch im zivilen Sektor angewendet 3, so daß sich hieraus keine unüberwindbaren Schwierigkeiten für eine technisch versierte Gruppe ergeben.

Isotopenzusammensetzung und Frühzündung

Stellen wir uns vor, das Komprimieren des Pu einer Implosionswaffe geschähe sehr viel langsamer, als dies tatsächlich der Fall ist (z.B. innerhalb 1 Minute). Bei Erreichen der kritischen Konfiguration würde dann die Kettenreaktion durch Neutronen des Pu eingeleitet. Die Folge wäre eine schnelle Expansion des Spaltstoffs aufgrund der freigesetzten Energie und damit ein Abbruch der Kettenreaktion, da die Konfiguration sogleich wieder unterkritisch würde. Die in einem solchen Fall gespaltene Pu-Masse und damit auch die freigesetzte Energie wären nicht sonderlich groß. Eine Pu-Kontamination wäre die Folge, jedoch keine Atomexplosion.

Dieses Problem wird in Atomwaffen umgangen. Es sind 4 Phasen zu unterscheiden: Die Komprimierung bis zur kritischen Anordnung, eine weitere Komprimierung bis zur optimalen „Überkritikalität“ (ca. 1 (s), der Ablauf der Kettenreaktion (ca. 0,1 (s) und die eigentliche Energiefreisetzung gegen Ende dieser Phase (ca. 0,02 (s). Durch die Komprimierung auch über den Zustand der kritischen Anordnung hinaus kann die Kettenreaktion während der Expansion des Spaltstoffs noch andauern. Tritt die Zündung mittels Neutronen nach Erreichen der kritischen Anordnung vor Ablauf von 1 (s ein, so wird dies als Frühzündung bezeichnet. Eingeleitet wird die Kettenreaktion bei maximaler Überkritikalität mit Hilfe einer künstlichen (elektronisch gesteuerten) n-Quelle. Je größer die Rate der spontan auftretenden Neutronen ist, um mit so höherer Geschwindigkeit muß die Anordnung komprimiert werden, wenn mit hinreichender Sicherheit eine Frühzündung ausgeschlossen werden soll. Eine höhere n-Rate kann also innerhalb gewisser Grenzen ausgeglichen werden.

Natürlich kann eine Frühzündung weder bei Waffen- noch bei Reaktor-Pu mit Sicherheit ausgeschlossen werden; sie ist eine Frage der Wahrscheinlichkeit. Je länger die Zeit zwischen Erreichen der kritischen Konfiguration und dem Anlaufen der Kettenreaktion ist, um so größer ist auch die Zeitspanne, in der ohne Abbruch der Kettenreaktion der Spaltstoff expandieren kann. Innerhalb dieser Zeitspanne wird Spaltenergie freigesetzt und die insgesamt erzielte Sprengkraft ist eine statistische Größe.

In der wichtigen Eigenschaft der spontanen n-Rate, die überwiegend aus Spontanspaltung des Pu herrührt, unterscheiden sich Reaktor- und Waffen-Pu. Für Pu-Dioxid ist die n-Freisetzung noch einmal deutlich durch ((, n)-Reaktionen zwischen der ( Strahlung des Pu und Sauerstoffkernen erhöht. Die Halbwertszeiten hinsichtlich Spontanspaltung liegen für die Isotope Pu 238, Pu 239, Pu 240 und Pu 242 zwischen 4,8 E10 und 5,5 E15 Jahren Für U 234, U 235 und U 238 zwischen 2 E16 und 3,6 E17 Jahren);4 Pu 241 spaltet nicht spontan. Bei der Spontanspaltung werden im Mittel etwa 2,5 Neutronen frei. In Tabelle 1 ist die durch Spontanspaltung verursachte n-Rate der einzelnen Pu-Isotope aufgetragen. Sie ist für Pu-240 etwa 50000 mal größer als für Pu-239. Wichtiger als der Vergleich einzelner Isotope ist jedoch der Vergleich von tatsächlichem Waffen-Pu, welches ja auch kein istotopenreines Pu-239 ist, mit Reaktor-Pu.

Gemessen an einem Pu mit 7 % Pu 240 wäre die n Rate von Reaktor Pu mit einem heute (noch) üblichen mittleren Abbrand von etwa 33000 MWd/t etwa 4 mal so groß, bei 45000 MWd/t etwa 5 mal so groß. Nach dreimaliger Pu-Rückführung in thermischen LWR wäre das Verhältnis auf etwa 7 angestiegen. Allerdings ist nicht anzunehmen, daß die Atomwaffenstaaten heute noch Waffen-Pu mit 7 % Pu 240 verwenden, 1/3 bis 1/4 dieses Werts dürfte realistischer sein. Nach einerAussage des US-Verteidigungsministeriums von 1975 wies zumindest damals der überwiegende Teil der Pu-Waffen neben Pu 239 7 % andre Isotope auf.5 Das Verhältnis der n-Raten könnte also bei 12 bis 28 liegen. Als Isotopenzusammensetzung wurden hier die Werte der Tabelle 2 gewählt.

Eine höhere n-Rate erfordert, wie bereits erwähnt, eine aufwendigere Schießtechnik, soweit eine schlechte Vorhersagbarkeit der Sprengkraft nicht akzeptiert wird. Mit Reaktor-Pu kann also entweder eine z.B. durch umfangreichere Sprengstoffladung schwere und unhandliche Waffe, die etwa der Nagasakibombe entspräche, konstruiert werden, oder die Sprengkraft ist nicht mit hoher Zuverlässigkeit voraussagbar. Es wäre im zweiten Fall nur die untere und obere Grenze der Sprengkraft sowie die Wahrscheinlichkeitsverteilung der Zwischenstufen bekannt. Eine in ihrer Wirkung nicht exakt vorhersagbare Waffe würde anspruchsvolle Militärs sicherlich abschrecken; terroristische Gruppen oder sich gerade entwickelnde Atommächte könnten sie akzeptieren.

Tabelle 2: Isotopenzusammensetzung von Pu (in Massen, in %)12

Pu 238 Pu 239 Pu 240 Pu 241 Pu 242
33.000 MWd/t 1,4 59,3 20,85 14,2 4,25
45 000 MWd/t 2,45 53,75 22 15,5 6,3
nach 1.Rückführung 1,7 56 23,6 12,3 6,3
nach 2.Rückführung 2,8 47,7 28,4 12,6 8,5
nach 3.Rückführung 3,6 43,8 29,5 12,9 10,3

Um die Wahrscheinlichkeitsverteilung der Sprengkraft quantitativ und anschaulich darzustellen, sind in der Abbildung 2 Berechnungsergebnisse 6 aufgetragen, die auf einer Pu-Kugel von 6,1 kg basieren, welche von 8,4 cm auf 6,4 cm Durchmesser komprimiert wird (Dichteerhöhung: Faktor 2,3). Auf eine Reihe weiterer vereinfachender Annahmen kann hier nicht näher eingegangen werden. In ihrer Tendenz sind die Ergebnisse von hinreichender Aussagekraft.

Die Abbildung geht von 100 Pu Bomben aus (waagerechte Achse). Senkrecht aufgetragen ist die Energiefreisetzung in kt TNT für die jeweilige Waffe, wenn die Waffen der Höhe ihrer Energiefreisetzung nach sortiert sind. Die Abbildung zeigt die Verhältnisse bei Pu eines Abbrands von 300 MWd/t Waffen-Pu mit ca. 1 % Pu 240) und 30000 MWd/t (Reaktor-Pu) aus einem LWR. Um einen Endladeabbrand von 300 MWd/t zu erzielen, hätte der Brennstoff nach etwa 10 Tagen entladen werden müssen. Unterschieden werden 4 radiale Komprimierungsgeschwindigkeiten der Oberfläche der Pu-Hohlkugel (1 bis 8 km/s). Derartige Geschwindigkeiten dürften heute technisch realisiert sein.

Betrachten wir zunächst Waffen-Pu bei einer Komprimierungsgeschwindigkeit von 1 km/s: Etwa 80 % der Bomben detonieren mit der maximal möglichen Sprengkraft von 20 kt TNT; eine Sprengkraft nahe 0 ist jedoch nicht ausgeschlossen. Wird die Komprimierungsgeschwindigkeit auf 2 km/s gesteigert, so wird die volle Sprengkraft von 90 %, bei 8 km/s von 98 % der Bomben erreicht. Außerdem ist im letztgenannten Fall eine Mindestsprengkraft von etwa 3 kt TNT erkennbar.

Bei Reaktor-Pu ist die maximal mögliche Sprengkraft hier auf etwa 8 kt TNT reduziert, da in allen Beispielen die gleiche Pu-Masse zugrunde liegt. Durch deren Erhöhung könnte die Sprengkraft gesteigert werden. Bei einer Komprimierungsgeschwindigkeit von 1 km/s liefern nur wenige der 100 Bomben die maximale Energiefreisetzung; etwa 70 Bomben würden mit weniger als 1 kt TNT detonieren. Es ist jedoch zu erkennen, daß mit Steigerung der Komprimierungsgeschwindigkeit auch Waffen mit Reaktor-Pu deutlich an Zuverlässigkeit gewinnen. Bei 8 km/s würden mehr als 80 % der Waffen die maximal mögliche Sprengkraft erreichen. Die Mindestsprengkraft würde sich in diesem Fall auf immer noch über 3,7 kt TNT belaufen, entsprechend einer Energie der Detonation von etwa 100 LkW-Ladungen TNT. Im folgenden Abschnitt soll auf Probleme eingegangen werden, die Reaktor-Pu über das Frühzündungsproblem hinaus bereiten kann.

Wärmeentwicklung, Strahlung und kritische Masse von Plutonium

Neben der verschiedenen n-Raten haben die einzelnen Pu-Isotope auch eine unterschiedliche Wärmeleistung. Diese rührt überwiegend von abgebremster (-Strahlung her (siehe Tabelle 3).

Wärmeleistung von Pu-Isotopen13
Pu-238 Pu-239 Pu-240 Pu-241 Pu-242
560 1,9 6,85 4,23 0,115 W/kg

Die Wärmeleistung wird vom Isotop Pu 238 bestimmt, dessen Anteil mit höherem Abbrand bzw. nach mehrfacher Rezyklierung zunimmt (vgl. Tab. 2). Reaktor-Pu ist zu heiß, um es mit bloßen Händen anzufassen. Durch Berechnung von Temperaturen in verschiedenen Designs 6 (Änderungen von z.B. Pu-Masse, Hohlkugelradius, Dicke der Sprengstoffschicht) läßt sich feststellen: Selbst ohne gezielte Kühlung einer Waffe sollte es möglich sein, sie so zu konstruieren, daß Sprengstoff oder Pu nicht zum Schmelzen oder zur Detonation gebracht werden. Kann der Zusammenbau von konventionellem und nuklearem Teil der Waffe erst wenige Stunden vor Zündung erfolgen, so hat sich auch die maximale Temperatur im Innern noch nicht aufgebaut.

Die Strahlung des Reaktor-Pu unterbindet dessen Verarbeitung nicht. Es sind jedoch besondere Techniken erforderlich (Handschuhkastentechnik), die bei Inkaufnahme eines erhöhten Krebsrisikos, z.B. bei einer terroristischen Gruppe, nicht in dem Maße nötig wären; auch ohne Abschirmmaßnahmen sind akute Strahlenschäden nicht zu erwarten. Eine unabgeschirmte 10 kg Kugel Reaktor-Pu weist in 10 cm Abstand eine Ortsdosisleistung von 0,15 cSv/h auf.7 Zu weiteren Problemen der Verarbeitung und deren Bewältigung (z.B. Pu-Selbstentzündung) gibt die internationale frei verfügbare Literatur hinreichend Auskunft. 8 Die auch längerfristige Unempfindlichkeit vieler – nicht aller – konventioneller Sprengstoffe gegenüber der Pu-Strahlung wurde in einer Vielzahl von Experimenten seit Mitte der 40er Jahre nachgewiesen und dokumentiert.9

Von einigen Autoren wird die „Denaturierung“ von Pu durch gezielte Erhöhung des Pu 238-, Pu 240- und Pu 241 Anteils, durch Zusatz harter Gammastrahler (z.B. Co 60) oder (n)-Quellen (z.B. Be, Cf) vorgeschlagen.10 Nachteil dieser Maßnahmen ist die in einem Pu-Kreislauf eingeschränkte Verwendbarkeit von denaturiertem Pu, da es in heutigen Reaktoren nicht mehr einsetzbar wäre oder in existierenden Anlagen aus Strahlenschutzgründen nicht verarbeitet werden kann.

Abschließend sei noch darauf hingewiesen, daß anders als z.B. in einem thermischen Reaktor, wo nur die Pu-Isotope Pu 239 und Pu 241 spaltbar sind, jedes Pu-Isotop in einer Pu-Waffe gespalten werden kann. Dies liegt an der in Atomwaffen höheren Energie der spaltenden Neutronen, die dort nicht auf thermische Geschwindigkeiten abgebremst werden. Die kritische Masse von Reaktor-Pu ist gegenüber Waffen-Pu um etwa 20 % erhöht.

Schlußfolgerungen

Reaktor-Pu ist für den Bau von Atombomben geeignet. Der Besitz von Atombomben die Auswirkungen wie die über Hiroshima und Nagasaki gezündeten Waffen haben können, verleiht auch heute noch eine gewisse Macht und ist nicht „hinter der Zeit“ insbesondere wenn terroristische Interessen berücksichtigt werden. Nicht geeignet ist Reaktor-Pu im militärischen Bereich dagegen dort, wo möglichst kleine, leichte und in ihrer Sprengkraft vorhersagbare Sprengsätze gewünscht sind. Die Verarbeitung von Reaktor-Pu im Tonnenmaßstab im zivilen Bereich wirkt sich in militärischer Hinsicht aus, da die regelmäßige heimliche Abzweigung einer größeren Pu-Menge möglich wird und eher die Gefahr eines Überfalls auf einen Pu-Transport besteht der Dritte in Besitz einer für einen Sprengsatz ausreichenden Pu-Menge bringt.

Abkürzungen:

E = Exponent (E3 = 10³ = 1000)

n = Neutronen

Be = chemisches Zeichen für Beryllium

U = chemisches Zeichen für Urans = Mikrosekunden

MWd/t = Megawatt-Tage/Tonne

Co = chemisches Zeichen für Kobalt

cSv/h = centi-Sievert/Stunde

a = alpha

Cf = chemisches Zeichen für Californium

Anmerkungen

1 D. Hawkins, Manhattan District History, Project Y, Vol. 1, LAMS 2532 (Vol. 1), Los Alamos 1961 Zurück

2 T. B. Cochran et al., Nuclear Weapons Data Book, Vol. 1, Cambridge 1984 Zurück

3 z.B. R. Schall, Detonation Physics, in: R Caldirola et al. (Eds.), Physics of High Energy Density, New York 1971 Zurück

4 C. M. Lederer et al. (Eds.), Table of Isotopes, 7th Edition, New York 1978 Zurück

5 T. B. Cochran et al., Nuclear Weapons Data Book, Vol. 2, Cambridge 1987 Zurück

6 E. Kankeleit, Chr. Küppers, Bericht zur Waffentauglichkeit von Reaktorplutonium, unveröffentlichtes Manuskript, Institut für Kernphysik der TH Darmstadt, Darmstadt 1986 Zurück

7 D. O. Campbell et al., Proliferation-Resistant Nuclear Fuel Cycles, ORNL/TM-6392, Oak Ridge 1978 Zurück

8 z.B. O. J. Wick, Plutonium Handbock – A Guide to the Technology, NewYork 1967; A. L. Staut in: E. Grison et al. (Eds.), Plutonium 1960, London 1961; IAEA, Safe Handling of Plutonium, Safety Series No. 34, Wien 1974 Zurück

9 z.B. H. Rosenwasser, Effects of Gamma Radiation on Explosives, ORNL-1720, Oak Ridge 1955 J.V. R. Kaufman, Proc. Royal Soc. A246 (1958) 219, E R Bowden et al., Proc. Royal Soc. A227 (1954) 22; R. V. Phung, J. Chem. Phys. 53 (1970) 2906, J. M. Groodcock, Proc. Royal Soc. A246 (1958) 225, E. R. Bowden, Proc. Royal Soc. A246 (1958) 216, M. J. Urizar et al., Explosivstoffe 3 (1962) 55 R. O. Bolt et al., Radiation Effects on Organic Materials, New York 1963 Zurück

10 z.B. A. De Volpi, Proliferation Plutonium and Policy, New York 1979; B. A. Hutchins, Denatured Plutonium: A Study of Deterrent Action, EPRI 310 FR, PB-245831 (1975); G. Locke, Möglichkeiten Reaktorplutonium als Nuklearsprengstoff unbrauchbar zu machen, Reaktortagung Düsseldorf 1976; T H. Pigford et al., Nucl. Technology 41 (1978) 46; J. G. Asquith et al., Nucl. Technology 41 (1978)137; R. E. Brooksbank et al., Proc. ASME-Symposium, Albuquerque 1978, CONF-780330-2 Zurück

11 IAEA, Safe Handfing of Plutonium, Safety Series No. 34, Wien 1974 Zurück

12 Öko-Institut, Stellungnahme zur beantragten ALKEM-Brennelementfabrik in Hanau-Wolfgang, Werkstattreihe Nr. 12, Freiburg/Dammstadt 1984 Zurück

13 ALKEM GmbH, Sicherheitsbericht Gesamtanlage, ALKEM-SB-3/82 (1982) Zurück

Christian Küppers, Diplom-Physiker, Mitarbeiter am Öko-Institut Darmstadt.

Neue Spin-off-Studie: „Sehr gewagte Annahmen…“

Neue Spin-off-Studie: „Sehr gewagte Annahmen…“

von Redaktion

Mit Datum vom 30.11.1985 publizierte die überwiegend für das BMVg arbeitende Industrieanlagen-Betriebsgesellschaft die Literaturrecherche „ZIVILER NUTZEN MILITÄRISCH MOTIVIERTER FORSCHUNG UND ENTWICKLUNG“, die im Auftrag des Forschungsministeriums erstellt wurde (B-SZ 1456/01 v. 30.11.1985, Ottobrunn). Überprüft wurden 65 Datenbanken, ausgewertet rund 200 Literaturhinweise, die zu etwa 2/3 aus den USA stammen; sie betreffen Luft-, Raum-, Schiffahrt und fortgeschrittene Produktionstechnologien, Mikroelektronik sowie Computertechnik. Im folgenden bringen wir Auszüge bzw. fassen wesentliche Aussagen zusammen.

Definition

„Als militärische FuE werden im folgenden jene FuE-Aktivitäten bezeichnet, die mit Finanzierung aus dem Wehretat direkt von militärischen Stellen bzw. im Auftrag militärischer Stellen von Universitätsinstituten, von sonstigen staatlichen Institutionen oder von Unternehmen durchgeführt werden. Ausgehend von dieser Definition ist zunächst festzustellen, daß es keinen strukturellen Unterschied zwischen militärischen und zivilen FuE-Aktivitäten gibt. Es kann nämlich nicht davon ausgegangen werden, daß Forscher in militärischen Labors anders vorgehen als in zivilen. Unterschiede zwischen militärischer und ziviler FuE ergeben sich in Bezug auf

  • die Ziele, die mit FuE verfolgt werden,
  • die Art der Projekte, die in Angriff genommen werden,
  • die Rahmenbedingungen für die jeweiligen FuE-Aktivitäten.

Militärische FuE verfolgt immer militärische Ziele. Insofern gibt es im militärischen Bereich keine eigentliche Grundlagenforschung, denn auch in einem frühen Stadium werden die Forschungsthemen nach dem Kriterium „militärisch relevante Technologien“ selektiert und entsprechend gefördert.“ (S. 1) „Militärische FuE unterliegt erheblich höherer Geheimhaltung als zivile FuE. Diese Geheimhaltung bezieht sich nicht nur auf Vorgehensweise und Ergebnisse, sondern oft auch auf die Tatsache selbst, daß gewisse Forschungsprojekte durchgeführt werden. Im zivilen Bereich beschränkt sich die Geheimhaltung, wenn überhaupt vorhanden, vorwiegend auf den FuE-Zeitraum.“ (S. 2)

Die IABG konzediert hinsichtlich der Literatur, daß für „militärische Institutionen bzw. für sonstige an militärischer FuE beteiligte Kreise … ein möglicher Technologietransfer in den zivilen Bereich zu einem wichtigen Argument geworden (ist), um militärische FuE zu rechtfertigen bzw. die hierfür zur Verfügung gestellten öffentlichen Finanzmittel aufzustocken. Dementsprechend ist davon auszugehen, daß ein Teil der Literatur durch diese Interessenlage geprägt ist.“

1. Luftfahrttechnologie

Hier gab es traditionell eine intensive Wechselwirkung; „zumindest in der Anfangsphase“ (S. 10) bestand kein großer Unterschied zwischen milit. und ziviler FuE. Seit den 60er Jahren sind allerdings die Entwicklungskosten für zivile Flugzeuge stark angestiegen, „was auf einen geringeren Transfer aus dem militärischen Bereich hindeutet“ (S. 12). Insgesamt muß von einem „erheblichen militärisch-zivilen Technologietransfer“ ausgegangen werden (S. 10). Zum Beleg zieht IABG vor allem die RAD-CAP-Studie von NASA, DOD und DOT heran, welche für den Zeitraum von 1925 – 1972 51 Innovationskarrieren verfolgt und (freilich ohne detaillierte Belege – Red.) von einer „große(n) Anzahl von Innovationen“ (S. 11), sprach, die aus dem militärischen in den zivilen Bereich transferiert worden seien.

Das Motiv dieses Technologietransfers sind die Kosten- und damit Profitvorteile: „Die Senkung der Entwicklungskosten im zivilen Luftfahrtbereich (geschieht) durch

  • direkten Transfer militärischer Technologie und Hardware;
  • Mitbenutzung staatlicher Produktions- und Testanlagen;
  • Anwendung ähnlicher, manchmal identischer Designs im militärischen und zivilen Bereich, wobei die entsprechenden Kosten vom militärischen Bereich getragen wurden;
  • Mitarbeit in zivilen Projekten von Experten, die ihr know-how in militärischen Projekten erwarben;
  • rationelle Produktionsverfahren, die im Rahmen von militärischen FuE-Projekten entwickelt wurden.“ (S. 12)

„Es besteht bei militärisch geforderten Technologien eine offensichtliche Zeitverzögerung zwischen militärischer und ziviler Anwendung der Technologien, die auf Geheimhaltungsbestimmungen seitens des Militärs oder aber auf geringe Relevanz für den zivilen Bereich zurückzuführen ist.“ (S. 12)

Diese Verzögerung betrug im Schnitt 2 Jahre. Weiterhin ist „offenbar die Verzögerung zwischen militärischer und ziviler Anwendung abhängig (…) vom strategischen Wert der Technologie. So ist beispielsweise die Verzögerung für jene Technologien am größten, die von militärischer Seite unmittelbar nach der Entwicklung übernommen werden … So ist festzustellen, daß bei einigen strategisch wichtigen Entwicklungen, wie beim Turbojetantrieb oder beim Bordcomputer, die Verzögerung zwischen militärischer und ziviler Anwendung über 10 Jahre beträgt.“ (S. 13) Nach Aussage des OSTP 1982 gilt, „daß es in den Phasen der Grundlagenforschung und der angewandten Forschung im Prinzip relativ geringe Unterschiede zwischen militärischen und zivilen Aktivitäten gibt. Unterschiede können sich hier allerdings dann ergeben, wenn gewisse Technologien aus Geheimhaltungsgründen dem zivilen Bereich vorenthalten bleiben. Größere Unterschiede treten allerdings im Bereich der Entwicklung und Demonstrationsphase auf, da hier die differierenden Anforderungsprofile an zivile und militärische Systeme zu berücksichtigen sind und Tests unter Bedingungen, die diesen Anforderungsprofilen entsprechen, durchgeführt werden müssen. Einige der wichtigsten Unterschiede sind in diesem Zusammenhang:

  • „Militärische Flugsysteme müssen unter Bedingungen operieren (etwa Geschwindigkeit, Manövrierfähigkeit, Flughöhe), die für zivile Flugzeuge nicht relevant sind, weil sie im Vergleich zum normalen Operationsmodus unrentabel wären.
  • Militärische Flugsysteme haben in der Regel geringere Lebenserwartungszeiten als zivile.“(10)

Daher „ist davon auszugehen, daß in einigen der technologischen Bereiche, die für die zivile Luftfahrt immer wichtiger werden, wie etwa der Umweltschub und die Wirtschaftlichkeit, insbesondere in bezug auf den Energieverbrauch, nur mit geringem Transfer aus dem militärischen Bereich zu rechnen ist. Zwar gibt es auch militärische Forschung im Umweltschutzbereich, aber sie beschränkt sich vor allem auf passive Maßnahmen. Aktive Maßnahmen, etwa im Lärmbereich, werden unterlassen und sind offenbar auch unerwünscht, weil (13/14) sie im allgemeinen zu höheren Gewichten und zu Leistungsvermindenung führen.“ „(…) in Bereichen wie etwa dem des Umweltschutzes ist, wenn überhaupt, nur mit einem geringen Transfer aus der militärischen FuE zu rechnen. Dieses hängt damit zusammen, daß geringere Emissionen bei vielen militärischen Systemen nur auf Kosten von Leistungsminderungen erreicht werden können. Das militärische Primat führt dann dazu, daß Umweltaspekte im Bereich der entwickelten Technologien und Produkte weitgehend unberücksichtigt bleiben.“ (S. 43)

„Der Hubschrauber gilt als primär zivile technologische Entwicklung und die Anforderungen an zivile und militärische Hubschrauber waren in der Vergangenheit auch sehr ähnlich. Die militärischen Hubschrauber haben sich in letzter Zeit jedoch stark verändert, wobei die Richtung auf Spezialisierung hin deutet: Von allgemein einsetzbaren zu Kampf-, Aufklärungs- und Frachthubschraubern. Somit driften militärische und zivile Hubschrauber in Bezug auf Anforderungsprofil und Designmerkmale auseinander. Zwar sind die Anforderungsprofile bezüglich der notwendigen Lufttauglichkeit ähnlich, sie differieren jedoch im Bereich der Absturzfähigkeit. Hier müssen militärische Hubschrauber erheblich höhere Standards einhalten, was zu einer entsprechenden Verteuerung und zu einer Leergewichtanhebung von 7-10 % führt. Es wird daher befürchtet, daß die Entwurfsnormen bei militärischen Hubschraubern in Zukunft höhere Vibrationsschwellenwerte und höhere Geräuschemissionen erlauben werden, um so die Kosten wieder in den Griff zu bekommen. Anforderungsprofile im Bereich der Aufgabenerfüllung sind für beide Systeme sehr unterschiedlich, insbesondere in Bezug auf

  • Umweltbedingungen (Temperatur Feuchtigkeit usw.)
  • Flughöhe
  • Nutzlasten.

Diese unterschiedlichen Anforderungsprofile führen zu unterschiedlichen Designspezifikationen, etwa bei

  • Anordnung der verschiedenen Subsysteme und Komponenten
  • Festigung der Kabine
  • Materialkonfiguration und Belastbarkeit des Rotors.

All dieses bewirkt, daß in der Praxis in zunehmendem Maße spezielle Entwicklungen für militärische und zivile Hubschrauber nötig werden.“ (S. 13 ff.)

2. Schiffahrts- und Produktionstechnologie

In der Schiffahrtstechnologie sei man „weniger erfolgreich gewesen“ (S. 16). Auch im Bereich der internationalen technologischen Konkurrenzfähigkeit konnte wenig erreicht werden.“ (S. 17) Bemühungen zum Transfer fortgeschrittener Produktionstechnologien haben „eine geringe Breitenwirkung gehabt … Erfolge gab es offenbar nur in kleinen Marktsegmenten.“ (19)

3. Mikroelektronik und Computertechnik

Auch die IABG-Studie schließt sich der zum Beispiel von DeGrasse vertretenen Ansicht an, daß die zentralen Innovationen (Transistor, integrierte Schaltungen, Speichertechnologie, Mikroprozessor etc.) aus dem zivilen Bereich kommen und die Bedeutung des Militärs bis Anfang der 60er Jahre in der Abnahme der (extrem teuren) Produkte bestand. Seitdem kommt auch die Marktnachfrage überwiegend aus dem zivilen Bereich. Daß zivile Neuentwicklungen nicht mehr im militärischen Bereich genutzt wurden, war der Gipfelpunkt dieser Entwicklung. Das 1977 konzipierte und 1980 begonnene VHISC-Programm reagierte darauf; es sollte keinen technology push liefern, sondern die zivile Technologie (VSLI) in den militärischen Bereich integrieren.

Das Programm soll daher in erster Linie potentielle Anwendungen der Mikroelektronik im militärischen Bereich fördern. Nur ein geringer Anteil des Programms war und ist darauf ausgerichtet, grundlegende technologische Innovationen zu initiieren, hier insbesondere in den Bereichen des Entwurfs und der Fertigung integrierter Schaltungen, der Materialforschung, der Systemarchitektur und vor allem der Verarbeitungsgeschwindigkeit. Die Entwicklung der Computertechnologie war schon in der Frühphase vom Militär stark unterstützt worden. Unmittelbar nach Kriegsende entwickelte die US-Army in Zusammenarbeit mit der University of Pennsylvania den ersten digitalen Computer ENIAC, der für die Lösung ballistischer Probleme eingesetzt wurde. Ende der 40er förderte die US-Navy den vom MIT entwickelten Computer WHIRL-WIND I, der als erster Computer für Realzeitanwendungen eingesetzt werden konnte. Die US-Air Force unterstützte Anfang der 50er Jahre die Gründung des Lincoln Laboratory, aus der wichtige technologische Entwicklungen wie der erste Magnetspeicher kamen. Der erste Computer auf Transistorbasis endlich wurde Mitte der 50er für militärische Zwecke entwickelt. „Die weitere Entwicklung des Computers ab 1960 wurde nicht mehr nennenswert von militärischer Seite gefördert.“ (S. 26) Im Bereich der Software dagegen gibt es nach Ansicht der IAGB-Studie weitgehende Überlappungen der militärischen und zivilen Anforderungsprofile und daher – auch dank der Geheimhaltungsprobleme – einen Transfer.

4. Raumfahrt

Das Gesetz, welches die NASA ins Leben rief, verpflichtet sie, Aktivitäten zur Verbreitung der hier gewonnenen Technologie zu unternehmen. Die IABG-Studie referiert eine Reihe prominenterer Spin-off-Studien, die sich mit der Raumfahrttechnologie befassen: Welles & Watermann (1964); Midwest Research Institute (1971); Chase Econometric Associates Inc. (1977); Mathematica (1976); Mathtech (1977).

Die IABG-Studie kritisiert an diesen Untersuchungen:

  • es würden teilweise „sehr gewagte Annahmen gemacht, ohne sie näher zu begründen“
  • die Schätzungen über den Beitrag der NASA seien „teilweise unrealistisch“
  • die Auswahl sei parteiisch, da vornehmlich positive Fälle berücksichtigt werden, so daß keine problemlose Generalisierung möglich sei
  • echte Kosten-Nutzen-Analysen seien die Ausnahme
  • es wird nicht nach Alternativen gefragt
  • die ökonometrischen Analysen hantieren mit „sehr instabilen“ Beziehungen als Basis.

Insgesamt sei der empirische Gehalt der Untersuchungen „unbefriedigend (…) Viele der nicht näher begründeten Annahmen erweisen sich als notwendige Hilfskonstruktionen. Wichtige Informationen sind nicht vorhanden und sie sind, wenn überhaupt, nur schwierig zu erhalten.“ (S. 34) Eine quantitative Bestimmung des Technologietransfers auf der Ebene aggregierter Output-Indikatoren bereite „erhebliche Schwierigkeiten“ (S. 35), was erfolgreiche Nachweise auf der Ebene von Einzelfällen nicht ausschließe. Andererseits gibt es durchaus Nachweise im Bereich der Input-Indikatoren (NASA-Tech-Transfer Division 1982, Herzfeld 1980, Register 1984).

Die neue Analyse des Denver Research Institute (1981) ergibt, daß von den bis 1980 von der NASA entwickelten Technologien keine Anwendungsmöglichkeiten haben 34 %, Anwendung nur für Informationszwecke 54 %, Anwendung zur Verbesserung bereits existierender Technologien 11 % und Anwendung zur Entwicklung neuer Produktionstechnologien, Erzeugnisse und Verfahren ganze 1 % (37), d. h. daß die NASA zwar einen „ausgezeichneten Informationsdienst betreibt, daß jedoch die Entwicklung neuer Produktionstechnologien, Erzeugnisse und Verfahren anhand von NASA-Technologien und Erfahrungen verhältnismäßig selten sind und die Ausnahme bilden.“ (S. 37)

Hinsichtlich der militärischen Raumfahrt gibt es einen gemeinsamen Gesamtbedarf hinsichtlich der Grundkenntnisse über den Weltraum (z.B. Atmosphäre etc.), der Trägersysteme, Kontrollsysteme, Raketensubsysteme, Lande-, Start- und Kontrollinfrastruktur. Hier gibt einen starken TT vorwiegend aus dem zivilen in den militärischen Bereich. Daneben gibt es jedoch anwendungsbezogene Raumfahrttechnologien (etwa Satellitenkommunikations- und Navigationstechnologie) und sonstige informationssammelnde und -verarbeitende Technologien, an die zum Teil stark divergierende Anforderungen gestellt werden. Z.B. gibt es im Bereich meteorologischer Satelliten zwei getrennte Systeme, obwohl doch eine weitreichende Gleichartigkeit vorliegt. Im Bereich der Navigationstechnologie gibt es das GPS, das zwar auch für zivile Verwendungen vorgesehen ist; um es gegen absichtliche Störungen zu schützen, wird jedoch eine vergleichsweise komplizierte Breitbandtechnik verwandt. Die Anforderungsparameter für Positionsgenauigkeit, Verfügbarkeit für Signale, Flächenabdeckung, maximale Zeitdauer zwischen 2 aufeinanderfolgenden Lagebestimmungen usw. sind für das militärische System erheblich weitgehender. Für die Weltraum-Waffensysteme gebe es freilich kein ziviles Pendant (S. 40).

5. Resümee

Abschließend resümiert die IABG-Studie, daß ein Technologietransfer dann stattfindet, wenn es einen korrespondierenden Anwendungsbereich mit ähnlichem Leistungsprofil gibt und die Technologie nicht besonders sensibel ist und daher keine Verzögerung stattfindet. Ein Transfer ist vor allem in einer frühen Phase zu erwarten; er wird später immer unwahrscheinlicher (S. 41). Man kann in diesem Sinne auch unterscheiden zwischen Unterstützungstechnologien (z.B. Kommunikation), Waffenträgertechnologien (z.B. Flugzeug) und Waffentechnologien (z.B. Kanone) – mit absteigender Chance zum Transfer, da es immer weniger funktional äquivalente zivile Bereiche gibt.