Wachstum, Fortschritt, Frieden

Wachstum, Fortschritt, Frieden

von Niko Paech und Björn Paech

Wirtschaftliches Wachstum und eine fortwährende Steigerung technischer Mittel sind nicht zufällig zum prägenden Merkmal moderner Entwicklungsvorstellungen geworden. Eine Vermehrung menschlicher Entfaltungsspielräume und materiellen Reichtums soll Verteilungskonflikte lindern und somit Frieden stiften. Aber diese Rechnung geht inzwischen nicht mehr auf. Deshalb steht ein doppelter Paradigmenwechsel an, nämlich die Abkehr vom Wachstumsdogma und – damit untrennbar verbunden – ein bescheidenerer Anspruch an die Möglichkeiten der Technik.

In seiner »Philosophie des Geldes« beschrieb der deutsche Philosoph und Soziologe Georg Simmel (1900) einprägsam den Zusammenhang zwischen Wachstum und Fortschritt. Bis zur Kopernikanischen Wende war das abendländische Weltbild von der Vorstellung beherrscht, der Kosmos stelle ein endliches Ganzes dar. Wenn nun aber die Dinge, welche von vielen begehrt würden, nicht vermehrt werden könnten, drohe unweigerlich eine „Menschheitstragödie der Konkurrenz“, die es kraft Fortschritt zu überwinden gelte: „In dem Maße, in dem man weitere Substanzen und Kräfte aus dem noch unokkupierten Vorrat der Natur in die menschliche Nutznießung hineinzieht“, so schreibt Simmel, „werden die bereits okkupierten von der Konkurrenz um sie entlastet“. Damit würden Konflikte zwischen Menschen in solche zwischen Mensch und Natur umgelenkt.

»Substanzieller« Fortschritt besteht gemäß Simmel darin, die Natur mittels technischer Möglichkeiten in ein Füllhorn zu verwandeln. Dieses epochale Unterfangen trage schon deshalb zur Zivilisierung der Menschheit bei, weil daran im Zuge einer umfassenden und zusehends ausdifferenzierten Arbeitsteilung alle teilhaben könnten. Die damit vorgegebene, geradezu universelle Entwicklungsrichtung – höher-schneller-weiter-besser-größer-bequemer – binde jene Kräfte, die andernfalls weniger harmlosen Zwecken dienen könnten. Friedlich vereint in geschäftiger Plünderung hackt also eine Krähe der anderen kein Auge aus, jedenfalls solange genug für alle da ist. Die damit einhergehenden räumlich entgrenzten Verflechtungen und arbeitsteiligen Prozesse bilden neue Motivstrukturen heraus, durch die alles Soziale in ökonomische Beziehungen eingebettet wird. Dies lässt nach moderner Lesart friedenstiftende Bindungen entstehen: Wer komplexe Handelsbeziehungen zum beiderseitigen Nutzen unterhält, führt (meistens) keine Kriege.

Genau dieser Logik folgt auch der europäische Expansionsprozess. Eine gründliche Durchdringung und Verwertung des europäischen Wirtschaftsraumes, so heißt es in jeder Sonntagsrede, diene der politischen und sozialen Integration. Um diese zu beschleunigen, bedürfe es einer ökonomischen Großanstrengung, insbesondere einer uniformen Währung. Sie lasse die Menschen näher zusammenrücken, fördere den kulturellen Austausch und stabilisiere den Frieden. Geld als Friedensstifter? Seltsam: Im Schulunterricht war immer die Rede davon, dass Aufklärung und Humanismus die Grundlage einer zivilisierten Gesellschaft seien. Aber vielleicht misstrauen die Berufsprotagonisten des europäischen Projektes ihren eigenen Beschwörungen, wollen sich also nicht auf ethisches Kleckern, sondern sicherheitshalber nur auf ökonomisches Klotzen verlassen: industrielle Spezialisierung und Machtzentralisierung, Agrarfabriken, monströse Subventionen, ressourcenschwere Infrastrukturen, exzessive Digitalisierung und entgrenzte Mobilität als Fundament eines solidarischen und friedlichen Europas.

Hoffentlich bleibt es auch friedlich, wenn keine Ressourcen mehr da sind, um den alles mit allem verbindenden und befriedenden Tatendrang zu füttern. Damit dieser Albtraum aller Europabegeisterten nicht eintritt, wurde unlängst ein nunmehr »grünes« Wachstum als neuer Kurs des europäischen Friedensprogramms ausgerufen. Und diese Strategie verdient ihren Namen, zielt sie doch darauf, ganze Landschaften industriell nachzuverdichten. In Deutschland, dem Energiewende-Musterschüler, wird keine grüne Nische ausgelassen, in die sich eine Windkraft-, Biogas-, Photovoltaikfreiflächenanlage, Stromtrasse oder ein Pumpspeicherkraftwerk stopfen lässt. Auf diese Weise wird der vermeintlich friedenstiftende Krieg gegen die Ökosphäre lediglich mit veränderten Mitteln fortgesetzt.

»Grünes« Wachstum kraft technischer Innovationen – eine Quadratur des Kreises

Bisherige Versuche, wirtschaftliches Wachstum mittels technologischer Modernisierung von ökologischen Schäden zu entkoppeln, sind bestenfalls fehlgeschlagen. In nicht wenigen Fällen resultierte daraus sogar eine Verschlimmbesserung der Umweltsituation. Ein Zuwachs des Bruttoinlandsproduktes (BIP) setzt zusätzliche Produktion voraus, die als Leistung von mindestens einem Anbieter zu einem Empfänger übertragen werden muss und einen Einkommenszuwachs induziert.

Der Wertschöpfungszuwachs hat somit erstens eine materielle Entstehungsseite und zweitens eine finanzielle Verwendungsseite des zusätzlichen Einkommens. Beide Wirkungen wären ökologisch zu neutralisieren, um die Wirtschaft ohne Verursachung zusätzlicher Umweltschäden wachsen zu lassen. Selbst wenn sich die Entstehung einer geldwerten und damit BIP-relevanten Leistungsübertragung technisch jemals entmaterialisieren ließe – was mit Ausnahme singulärer Laborversuche weder bisher gelang, noch absehbar ist, zumindest wenn alle Verlagerungseffekte einbezogen werden –, bliebe das Entkopplungsproblem solange ungelöst, wie sich mit dem zusätzlichen Einkommen beliebige Güter finanzieren lassen, die nicht vollständig entmaterialisiert sind. Beide Seiten sollen im Folgenden kurz beleuchtet werden.

Entstehungsseite des BIP: Materielle Rebound-Effekte

Wie müssten Güter beschaffen sein, die als geldwerte Leistungen von mindestens einem Anbieter zu einem Nachfrager übertragen werden, deren Herstellung, physischer Transfer, Nutzung und Entsorgung jedoch jeglichen Flächen-, Materie- und Energieverbrauchs enthoben ist? Bisher ersonnene Green-growth-Lösungen erfüllen diese Voraussetzung offenkundig nicht, ganz gleich, ob es sich dabei um Passivhäuser, Elektromobile, Ökotextilien, Photovoltaikanlagen, Bio-Nahrungsmittel, Offshore-Anlagen, Blockheizkraftwerke, Smart Grids, solarthermische Heizungen, Cradle-to-cradle-Getränkeverpackungen, Carsharing, digitale Services etc. handelt. Nichts von alledem kommt ohne physischen Aufwand, insbesondere neue Produktionskapazitäten und Infrastrukturen, aus.

Könnten die grünen Effizienz- oder Konsistenzlösungen den weniger nachhaltigen Output nicht einfach ersetzen, anstatt eine materielle Addition zu verursachen? Um eine ökologisch entlastende Substitution zu erwirken, reicht es nicht aus, Outputströme zu ersetzen, solange dies mit zusätzlichen materiellen Bestandsgrößen und Flächenvernutzung (wie bei Passivhäusern oder Anlagen zur Nutzung erneuerbarer Energien) erkauft wird. Die bisherigen Kapazitäten und Infrastrukturen müssten zudem beseitigt werden. Aber wie könnte die Materie ganzer Industrien und Gebäudekomplexe ökologisch neutral verschwinden?

Hinzu kommt ein zweites Dilemma: Wie kann das BIP dauerhaft wachsen, wenn jedem grünen Wertschöpfungsgewinn ein Verlust infolge des Rückbaus alter Strukturen entgegenstünde?

Wie unwahrscheinlich dabei ein positiver Saldo ist, lässt sich exemplarisch an der deutschen »Energiewende« nachzeichnen. So entpuppen sich die momentan von der Green-growth-Gemeinde bestaunten Wertschöpfungsbeiträge der erneuerbaren Energien bei genauerer Betrachtung bestenfalls als Strohfeuereffekt. Nach der Investitionsphase, also wenn der Kapazitätsaufbau, beispielsweise die Errichtung von Windturbinen, abgeschlossen ist, reduziert sich die Wertschöpfung auf einen mehr oder weniger konstanten Energiefluss, der keine weiteren Inputleistungen, d.h. keine zusätzlichen Aufwendungen für Produktion, Transporte, Planung etc. benötigt. Im Vergleich dazu generieren fossile Energiesysteme infolge ihres permanenten und weit verzweigten Raubbaus, insbesondere der notwendigen Brennstoffförderung nebst aller sonstigen Beschaffungs- und Logistikerfordernisse, weitaus ergiebigere Wertschöpfungspotenziale.

Eine Basis für wirtschaftliches (grünes) Wachstum bilden erneuerbare Energieträger daher nur, wenn die Produktion der hierzu benötigten Anlagen ohne Begrenzung fortgesetzt wird. Aber dann drohen neue Umweltschäden: Die schon jetzt auf Akzeptanzgrenzen stoßende Degradierung des Landschaftsbildes und die Eingriffe in den Naturhaushalt nähmen entsprechend zu, weil die materiellen Bestandsgrößen expandieren müssten. Daran zeigt sich die Problematik materieller Verlagerungseffekte: »Grüne« Technologien lösen zumeist keine ökologischen Probleme, sondern transformieren diese nur in eine andere physische, räumliche, zeitliche oder systemische Dimension.

Neirynck (2001) hat die Historie von technischer und gesellschaftlicher Evolution unter Rückgriff auf das Entropie-Gesetz trefflich rekonstruiert. Technische Entwicklung vermag, so lautet sein verallgemeinerbarer Befund, punktuell und zeitpunktbezogen zusätzliche Ordnung schaffen, aber immer nur zum Preis erhöhter Unordnung anderswo. Deshalb sind die Versuche, Entkopplungserfolge empirisch nachzuweisen, nur soweit brauchbar, wie es gelingt, alle Verlagerungseffekte zu berücksichtigen. Aber wie sollen beispielsweise CO2-Einsparungen mit Landschaftszerstörung saldiert werden?

Verwendungsseite des BIP: Finanzielle Rebound-Effekte

Selbst wenn entmaterialisierte Produktionszuwächse je möglich wären, müssten die damit unvermeidlich korrespondierenden Einkommenszuwächse ebenfalls ökologisch neutralisiert werden. Aber es erweist sich als schlicht undenkbar, den Warenkorb jener Konsumenten, die das in den grünen Branchen zusätzlich erwirtschaftete Einkommen beziehen, von Gütern freizuhalten, in deren (globalisierte) Produktion fossile Energie und andere Rohstoffe einfließen. Würden diese Personen keine Eigenheime bauen, mit dem Flugzeug reisen, Auto fahren und übliche Konsumaktivitäten in Anspruch nehmen – und zwar mit steigender Tendenz, wenn das verfügbare Einkommen wächst?

Ein zweiter finanzieller Rebound-Effekt droht, wenn grüne Investitionen den Gesamtoutput erhöhen, weil nicht zeitgleich und im selben Umfang die alten Produktionskapazitäten zurückgebaut werden (die gesamte Wohnfläche nimmt durch Passivhäuser zu, die gesamte Strommenge steigt durch Photovoltaikanlagen), was tendenzielle Preissenkungen verursacht und folglich die Nachfrage erhöht. Es ist nicht einmal auszuschließen, dass davon letztlich sogar der fossile Sektor mitprofitiert. Ein dritter finanzieller Rebound-Effekt tritt ein, wenn Effizienzerhöhung die Betriebskosten bestimmter Objekte (Häuser, Autos, Beleuchtung etc.) reduziert.

Theoretisch ließen sich diese Rebound-Effekte vermeiden, wenn sämtliche Einkommenszuwächse abgeschöpft würden – aber wozu dann überhaupt Wachstum: Was könnte absurder sein, als Wachstum zu erzeugen, um die damit intendierte Wirkung, nämlich Einkommenssteigerungen, im selben Moment zu neutralisieren? Die Behauptung, durch Investitionen in grüne Technologien könne Wirtschaftswachstum mit einer absoluten Senkung von Umweltbelastungen einhergehen, ist also nicht nur falsch, sondern kehrt sich ins genaue Gegenteil um: Aus der Perspektive finanzieller Rebound-Effekte haben grüne Technologien allein unter der Voraussetzung eines nicht wachsenden BIP überhaupt eine Chance, die Ökosphäre zu entlasten. Und dies ist nicht einmal eine hinreichende Bedingung, weil die materiellen Effekte – insbesondere die unzähligen Verlagerungsmöglichkeiten – auf der Entstehungsseite ebenfalls einzukalkulieren sind.

Obendrein beschwört die technologische Entkopplungsstrategie ein moralisches Problem herauf: Das Schicksal der Menschheit würde auf Gedeih und Verderben von einem technischen Fortschritt abhängig, der noch nicht eingetreten ist und dessen zukünftiges Eintreten unbeweisbar ist – ganz zu schweigen davon, dass er womöglich mehr zusätzliche Probleme erzeugt, als er zu lösen imstande ist. Ist ein solches Roulette verantwortbar, das nicht aus Not erfolgt, sondern allein zur Mehrung eines zumindest im Globalen Norden schon jetzt überbordenden Wohlstandes?

Perspektiven

Game over?

Nicht nur ökologische Grenzen, sondern auch die unter der Bezeichnung »Peak Everything« (Heinberg 2007) firmierenden Ressourcenengpässe lassen die modernistische Verheißung, Frieden durch technologischen Fortschritt schaffen zu können, zunehmend absurd erscheinen. Wenn das Industriemodell strauchelt, versagt die technikbasierte Friedensstifterlogik nicht nur, sondern kehrt sich ins direkte Gegenteil um: Je abhängiger Gesellschaften von industrieller Fremdversorgung sind, desto aggressivere Reaktionen auf unfreiwillige Begrenzungen lassen sich erwarten. Die erste, längst begonnene Eskalationsstufe besteht in einer Zweitverwertung (z.B. Fracking und Urban Mining), Nachverdichtung (z.B. vertikale Landwirtschaft und »Energiewende«) sowie effektiveren Durchdringung (z.B. Nanotechnologie und Digitalisierung) räumlicher und mineralischer Ressourcen.

Diese finale technologische Mobilmachung steigert indes nur die Wirkmächtigkeit eines Kollapses, der sich bestenfalls aufschieben lässt, ähnlich einem Heroinsüchtigen, der die Dosis verdoppelt, um den Folgen seiner Abhängigkeit zu entfliehen. Die darauffolgende Phase dürfte von Verteilungskämpfen um die letzten verbliebenen Ressourcen gekennzeichnet sein, kriegerische Auseinandersetzungen inbegriffen. Oder existiert eine Notbremse und wenn ja, welche technologischen Anforderungen gingen damit einher?

Ohne Wachstumsverzicht kein neues Technologieparadigma!

Konzepte einer Wirtschaft ohne Wachstum (Jackson 2009, Paech 2012, Latouche 2015), die sich als Alternativszenario anböten, beinhalten weit mehr, als pathologische Industriestrukturen zurückzubauen. Sie orientieren sich zudem an einer gemäßigteren Technologieentwicklung, jedoch nicht im Sinne einer ökologischen Optimierung vorhandener, mit industrieller Fremdversorgung kompatibler Strukturen, was nur in die Sackgasse grüner Wachstumsversprechungen führen würde. Vielmehr erschließt sich ihre Wirkungsweise am ehesten durch eine Rekonstruktion und Umkehrung des bisherigen Verlaufs technischer Entwicklungen. Diese waren bislang dadurch gekennzeichnet, menschliche Arbeit durch die Umwandlung entsprechend massiver Einsätze von Energie, Mineralien und Naturraum zu verstärken oder zu ersetzen. Derlei Akte des Maschineneinsatzes, der Mechanisierung, Automatisierung, Elektrifizierung und Digitalisierung bedingten eine immense Steigerung der Arbeitsproduktivität und Kapitalintensität jeglicher Wertschöpfung.

Dies ruft zwei Wachstumszwänge auf den Plan: Erstens impliziert die zunehmende Arbeitsproduktivität, dass der Gesamtoutput einer Volkswirtschaft entsprechend wachsen muss, um den bisherigen Beschäftigungsstand zu halten. Zweitens verlangt das eingesetzte Kapital eine hinreichende Verwertung, also zu erwirtschaftende Überschüsse, um Fremdkapitalzinsen bzw. Eigenkapitalrenditen abdecken zu können.

Postwachstumstaugliche Technologieorientierungen

Kohr (1978) unterscheidet zwischen primitiven, mittleren und fortgeschrittenen Technologien, die jeweils mit einer entsprechenden Größe des relevanten sozialen Systems bzw. der Gesellschaft korrespondieren. Die von ihm favorisierten mittleren Technologien weisen nicht nur einen geringeren Komplexitätsgrad auf, sondern vermeiden eine grenzen- und bedingungslose Maximierung der Arbeitsproduktivität. Ähnlich sind die von Illich (1973/2011) beschriebenen „konvivialen“ Technologien zu sehen. Demnach käme es nicht zu einer vollständigen Substitution körperlicher Arbeit durch externe Energiezufuhr und Kapitalinput. Angestrebt wird vielmehr eine Balance aus handwerklichen Verrichtungen und deren Verstärkung mittels maßvoller Energiezufuhr. Ebenso wie Kohr hebt auch Schumacher (1973/1977) den dezentralen Aspekt mittlerer Technologien hervor.

Eine möglichst geringe Kapitalintensität derartiger „Verstärker der menschlichen Kraft“ (Illich 1973/2011, S.42) bewirkt, dass deren Verfügbarkeit nicht von hohen Investitionssummen abhängt. Somit wohnt mittleren bzw. konvivialen Technologien ein demokratischer und sozial nivellierender Grundcharakter inne. Ihre Verfügbarkeit setzt weder Reichtum noch Macht voraus. Schumacher (1973/1977) verbindet damit den Wandel von der Massenproduktion hin zur „Produktion der Massen“ (S.140). Der damit implizierte Emanzipationsgedanke wurde kürzlich von Friebe/Ramge (2008) mit dem Slogan „Marke Eigenbau: Der Aufstand der Massen gegen die Massenproduktion“ aufgegriffen. Während Friebe/Ramge sich gegen die „Rückkehr zu einem vorindustriellen Handwerkeridyll“ (S.8) verwahren, erweist sich ein kurzer Rückblick auf diese Entwicklungsstufe durchaus als instruktiv.

Mumford (1967/1977, S.493) kennzeichnet Technologien, die vor der Industrialisierung genutzt wurden, folgendermaßen: „Wenngleich sie langsam arbeiteten, besaßen Gewerbe und Landwirtschaft vor der Mechanisierung, gerade weil sie hauptsächlich auf manueller Arbeit beruhten, eine Freiheit und Flexibilität wie kein System, das auf eine Garnitur kostspieliger spezialisierter Maschinen angewiesen ist. Werkzeuge sind stets persönliches Eigentum gewesen, den Bedürfnissen des jeweiligen Arbeiters entsprechend ausgewählt und oft umgestaltet, wenn nicht eigens gemacht. Im Unterschied zu komplexen Maschinen sind sie billig, ersetzbar und leicht transportierbar, aber ohne Menschenkraft wertlos.“

Ein weiteres Merkmal angepasster Technologien besteht in ihrer kürzeren räumlichen Reichweite, d.h. geringeren Distanzen zwischen Verbrauch und Produktion. Daraus ergibt sich nicht nur eine hohe Kompatibilität mit Ansätzen der Subsistenz und Regionalökonomie, sondern auch die Möglichkeit ihrer eigenständigen Gestaltung und Reparatur. Solchermaßen beschaffene Technologien sind flexibel, beherrschbar und autonom. Auf dieser Grundlage sind daseinsmächtigere Versorgungs- und Existenzformen möglich. Sie schützen nicht nur vor Ausgrenzung und Manipulation, sondern gewährleisten Stabilität. Insoweit an die Stelle vereinheitlichender und zentraler Strukturen eine flexible „Polytechnik“ (Mumford 1967/1977, S.487ff.) tritt, ergibt sich eine Vielfalt an Werkzeugen. Diese trägt erstens zur Krisenfestigkeit (Resilienz) bei und hält zweitens eine reichere Variation an Entwicklungspfaden und möglichen Reaktionen auf Störgrößen offen.

Die verschiedenen Spielarten angepasster Technologien ermächtigen zu jenem »Prosumententum« (abgeleitet vom produzierenden Konsumenten bzw. konsumierenden Produzenten), ohne das eine „Postwachstumsökonomie“ (Paech 2008, 2012) kaum möglich erscheint. Zudem korrespondieren sie mit einer Senkung der Kapitalintensität, was nicht nur geringere Verwertungszwänge impliziert, sondern dazu verhilft, einen bestimmten Beschäftigungsstand ohne oder zumindest mit geringeren Wachstumsraten stabilisieren zu können. Ein weiteres Kriterium, die Abhängigkeit von (Experten-) Wissen betreffend, betont Illich (1973/2011, S.91): „Wie viel jemand selbsttätig lernen kann, hängt ganz maßgeblich von der Beschaffenheit seiner Werkzeuge ab: Je weniger konvivial sie sind, desto mehr Ausbildung erfordern sie.“ Angepasste Technologien würden demnach nicht nur von einer Monopolisierung unerlässlichen Wissens, sondern von den Zwängen und Ausgrenzungstendenzen der Wissensgesellschaft befreien. Ihr demokratischer Charakter, die finanziell voraussetzungslose Verfügbarkeit sowie ihre Individualisierbarkeit würden dazu beitragen, den notwendigen Rückbau der Industrie sozial abzufedern. Angepasste Technologien könnten jenen Ressourcenhunger mildern, der oft eine Motivation für gewaltsame oder gar kriegerische Handlungen entstehen lässt. Vielleicht liegt die Essenz einer Friedensstabilisierung darin, Ansprüche an knappe Güter so zu regulieren, dass es keinen Grund gibt, um sie zu kämpfen.

Literatur

Holm Friebe und Thomas Ramge (2008): Marke Eigenbau. Der Aufstand der Massen gegen die Massenproduktion. Frankfurt a.M.: Campus.

Richard Heinberg (2007): Peak Everything. Waking Up to the Century of Declines. Gabriola Island: New Society Publishers.

Ivan Illich (1973/2011): Selbstbegrenzung. Eine politische Kritik der Technik. München: C.H. Beck.

Tim Jackson (2009): Prosperity without Growth: Economics for a Finite Planet, London: Routledge.

Leopold Kohr (1978): Appropriate Technology. Resurgence Vol. 8 No. 6 (January-February), S.10-13.

Serge Latouche (2015): Es reicht! Abrechnung mit dem Wachstumswahn. München: oekom

Lewis Mumford (1967/1977): Mythos der Maschine. Kultur, Technik und Macht. Frankfurt a.M.: Fischer.

Jacques Neirynck (2001): Der göttliche Ingenieur. Die Evolution der Technik. Renningen: expert.

Niko Paech (2008): Regionalwährungen als Bausteine einer Postwachstumsökonomie. Zeitschrift für Sozialökonomie 45. Jg, No. 158-159, S.10-19.

Niko Paech (2012): Befreiung vom Überfluss. Auf dem Weg in die Postwachstumsökonomie. München: oekom.

Ernst Friedrich Schumacher (1973/2013): Small is Beautiful. Die Rückkehr zum menschlichen Maß. München: oekom.

Simmel, G. (1900): Philosophie des Geldes. Leipzig: Duncker & Hublot.

Niko Paech ist Wirtschaftswissenschaftler und vertritt den Lehrstuhl für Produktion und Umwelt an der Carl von Ossietzky Universität Oldenburg.
Björn Paech ist Geograph und als Berater im Naturschutz tätig.

Fracking

Fracking

Keine Technik, die begeistert

von Daniel Hiß

In Deutschland ist der Streit um den Einsatz von Fracking zur Förderung unkonventioneller Erdöl- und Erdgasvorkommen voll entbrannt. BefürworterInnen erhoffen sich einen neuen Boom in der heimischen Erdgasproduktion, GegnerInnen verweisen auf Umweltzerstörung und Gesundheitsbeeinträchtigungen durch den Fracking-Boom in den Vereinigten Staaten. Aber worum genau geht es in diesem Technikkonflikt, der in vielen Staaten dieser Welt ausgetragen wird? Wer sind die Akteure, und was sind ihre Ziele?

Mit überwältigender Mehrheit beschloss der Bundestag im Juni 2011 den Atomausstieg und die Energiewende. Der damalige Bundesumweltminister Norbert Röttgen feierte diesen Beschluss als „nationales Gemeinschaftsprojekt“.1 Der Konflikt um die Nutzung der Atomenergie, der insbesondere die umwelt- und energiepolitische Debatte in Deutschland über Jahrzehnte geprägt hatte, sollte damit beigelegt werden. Der Energiewende-Konsens war allerdings nur von kurzer Dauer. Insbesondere der noch ungeklärte Netzausbau, die offene Frage des Energiemarktdesigns, die Sorge um die dauerhafte Energiesicherheit und nicht zuletzt die Kostendebatte werfen neue Konflikte in der Umsetzung des Energiewendebeschlusses auf.

In genau diese Kerbe schlägt auch der Fracking-Boom in den USA: Aufgrund hoher Preise für Erdöl und Erdgas setzten US-Konzerne »Hydraulic Fracturing« seit der Jahrtausendwende vermehrt ein. Die Vereinigten Staaten stiegen so zu einem der größten Öl- und Gasproduzenten weltweit auf, und die Gaspreise sind kräftig gesunken. Auch in Deutschland scheint auf einmal ein alternatives Versorgungsszenario denkbar: Energieautarkie und billiger Strom für Haushalte und Unternehmen durch unkonventionelles Erdgas. Insbesondere seit Beginn des Ukraine-Konflikts haben hierzulande Erdgasunternehmen und Fracking-BefürworterInnen Oberwasser und werben für eine unabhängige Energieversorgung aus heimischen Lagerstätten.

Dabei scheint ein derartiger Erdgasboom, wie ihn die USA derzeit erleben, in Deutschland vollkommen ausgeschlossen – dafür ist das Potenzial an unkonventionellem Erdgas schlichtweg zu gering. Aber auch darüber hinaus – so urteilten 2013 die AnalystInnen der Kreditanstalt für Wiederaufbau (KfW) – fehlen in Deutschland hierfür die entsprechenden volkswirtschaftlichen Weichenstellungen: „Deutschland und die USA gehen bei der Gestaltung ihrer Energieversorgung unterschiedliche Wege: Während in Deutschland mit der Energiewende die Umorientierung hin zu regenerativen Energien im Mittelpunkt steht, versuchen die USA mittels Fracking Importunabhängigkeit bei fossilen Energieträgern zu erreichen. In diesem Sinne ist Fracking eine interessante Technologie, um heimische Schiefergas- und -ölvorkommen zu erschließen, die zuvor nicht förderbar waren. Die Hoffnung bzw. Befürchtung, daraus könnten sich deutliche und v.a. langfristig tragbare Wettbewerbsvor- bzw. -nachteile für die betroffenen Volkswirtschaften ergeben, halten wir (v.a. im Fall Deutschlands) für unberechtigt. Zudem sind wir skeptisch, ob unter Energieeffizienz- und Umweltgesichtspunkten Fracking eine lohnenswerte Alternative darstellt.“ 2 Und trotzdem: Plötzlich steht eine dreckige Technik aus der Mitte des 20. Jahrhunderts wieder im Fokus des öffentlichen Interesses.

Fracking – teuer und dreckig?

Tatsächlich führte der amerikanische Erdölkonzern Stanolind Oil bereits 1947 die erste Hydraulic-fracturing-Maßnahme durch, um die Förderrate eines Erdölfeldes zu erhöhen. Seit 1961 findet das Verfahren auch in der deutschen Erdgasindustrie Anwendung. Zweck war zunächst auch hier, bei abfallendem Lagerstättendruck die Förderrate wieder zu erhöhen. Der Einsatz des Fracking-Verfahrens beschränkte sich zunächst also auf die Spätphase der Öl- und Gasförderung aus konventionellen Lagerstätten.

Grundsätzlich sind Erdöl und Erdgas in Gesteinsporen gespeichert. Speichergesteine mit einer hohen Durchlässigkeit gelten als konventionelle Lagerstätten. Erdöl und Erdgas können hier frei zur Förderbohrung strömen. Erst wenn der natürliche Lagerstättendruck sinkt, sind so genannte Stimulations-Fracs notwendig. In unkonventionellen Lagerstätten hingegen sind Öl und Gas in dichtem, undurchlässigem Gestein eingeschlossen. Sie können daher nicht frei strömen. Das ist insbesondere in Tonschiefer (Shale Gas = Schiefergas) und dichtem Sandstein (Tight Gas) der Fall. Diese unkonventionellen Gasvorkommen können erst durch Hydraulic Fracturing erschlossen werden.

Das Verfahren ermöglicht es, Gesteinsschichten unter hydraulischem Druck aufzubrechen und so eingeschlossenes Erdgas und Erdöl aus der Lagerstätte zu lösen. Vor dem eigentlichen Fracking wird zunächst eine Bohrung bis zu 5.000 Metern Tiefe in den Untergrund abgesenkt und dann horizontal in die Gas führenden Gesteinsschichten abgeleitet. Erst in einer bestehenden Bohrung ist dann ein Frac möglich. Hierbei werden große Mengen des so genannten Frackfluid, einem Gemisch aus Wasser, Quarzsand oder Keramikkügelchen sowie diversen chemischen Zusätzen, mit einem enormen Druck von bis zu 1.000 bar in die Bohrung gepresst. Der Flüssigkeitsdruck sprengt die Gesteinsschichten auf und schafft somit Wegbarkeiten, durch die Gas oder Öl entweichen können. Die dem Frackfluid beigemischten Chemikalien und Feststoffe verhindern, dass sich die Risse und Wegbarkeiten im Gestein wieder schließen.

Im Vergleich zu konventionellen Fördermethoden ist die Erdöl- und Erdgasgewinnung durch Fracking auf die nähere Umgebung des horizontalen Bohrlochs im Gestein begrenzt. Das hat zur Folge, dass die Förderraten eines Bohrlochs schneller sinken und eine höhere Zahl von Bohrlöchern pro Fläche und Zeit notwendig ist. Das erhöht Aufwand und Förderkosten. Erst hohe Verkaufspreise für Öl und Gas machen die unkonventionelle Förderung rentabel und lösten seit Anfang der 2000er Jahre einen Boom der Schiefergasförderung in Nordamerika aus. Auch in Deutschland wird schon lange gefrackt, wenn auch nicht in Schiefergestein. Hierzulande gab es seit 1961 rund 300 Fracking-Maßnahmen in so genannten Tight-Gas-Vorkommen. 2008 testete der Erdgaskonzern ExxonMobil in der Nähe der niedersächsischen Ortschaft Damme erstmals in Deutschland das Frackingverfahren in Schiefergestein. Die Lagerstätte war allerdings nicht besonders ergiebig, weshalb es dort bis heute keine Förderung gibt.

Born in the USA – die Anti-Fracking-Bewegung

Auch in der deutschen Debatte um die Regelung von Hydraulic Fracturing werden daher in erster Linie Erfahrungswerte aus den USA herangezogen, wo auch die Anti-Fracking-Bewegung ihren Ursprung hat. 2010 bekam sie durch den Dokumentarfilm »Gasland« auch diesseits des Atlantiks größere Aufmerksamkeit. Der »brennende Wasserhahn« wurde seither zum Sinnbild der Fracking-Debatte: Ein Mann dreht seinen Wasserhahn in der Küche auf, hält ein Feuerzeug daneben und schon sticht ihm eine Riesenflamme entgegen. Fracking-GegnerInnen und Medien griffen dieses Bild auf, um die Risiken der umstrittenen Gasfördermethode zu veranschaulichen. Aus Sicht der Fracking-BefürworterInnen wiederum zeigt sich am brennenden Wasserhahn die Hysterie, mit der die öffentliche Auseinandersetzung um die Fracking-Technik geführt wird.

In der öffentlichen Wahrnehmung schwankt die Anti-Fracking-Bewegung in den USA wie in Deutschland daher irgendwo zwischen hysterischem Protest und fachkundiger Kritik. Dabei geben insbesondere die Erfahrungen aus den USA den Fracking-GegnerInnen Recht. Eine im Februar 2015 veröffentlichte Untersuchung des Environment America Research & Policy Center und der Frontier Group zeigt auf, wie dreckig und umweltschädlich der Einsatz von Fracking im US-Bundesstaat Pennsylvania ist.3 Die AutorInnen des Berichts stellen außerdem fest, dass die Erdgaskonzerne bewusst geltende Bestimmungen des Umwelt- und Gesundheitsschutzes brechen: Zwischen Januar 2011 und August 2014 begingen die 20 größten Fracking-Konzerne durchschnittlich 1,5 Regelverstöße pro Tag. Aber nicht nur die Methode der Erdgasgewinnung selbst, sondern auch notwendigerweise damit einhergehende Bau- und Transportmaßnahmen stellen eine direkte Bedrohung etwa für die gute Qualität von Luft und Wasser dar. Menschen, die in der Umgebung von Fracking-Bohrplätzen wohnen, seien daher einem erhöhten Risiko ausgesetzt, Atemwegs- oder neurologische Erkrankungen zu erleiden.4

Die Kritik am Fracking beinhaltet also weit mehr als das Schreckensszenario der brennenden Wasserhähne – und ebenfalls weit mehr als eine reine Not-in-my-backyard-Abwehrhaltung. Beides – regionaler Protest und die verstörenden Bilder aus »Gasland« – haben aber sicherlich die globale Verbreitung der Anti-Fracking-Bewegung begünstigt. In der Tat war »Gasland«insbesondere in Europa ein Katalysator für den schwelenden Fracking-Protest. In Deutschland gründeten sich 2011 zahlreiche Bürgerinitiativen, die sich zunächst mit regionalem Schwerpunkt gegen Fracking-Vorhaben einsetzten und in verschiedenen Bundesländern mit ihrem Protest Fracking-Moratorien erwirkten. In Frankreich verhängte die Regierung sogar ein nationales Fracking-Verbot. Deutschland, Frankreich, Bulgarien oder Südafrika – überall waren Filmvorführungen von »Gasland« fester Bestandteil der neu wachsenden Protestbewegung. Selbst in den USA, wo Umweltverbände schon seit Ende der 1990er gegen Fracking mobilisierten, wurde der Protest erst durch den Dokumentarfilm zur Massenbewegung.5

Neben Filmvorführungen und der damit verbunden Graswurzel-Mobilisierung stützt sich der Fracking-Protest inzwischen vermehrt auch auf soziale Medien. Gerade auf Twitter und Facebook, aber auch in zahlreichen Blogs sind die Risiken von Hydraulic Fracturing Diskussionsthema. Dennoch: Der Protest auf der Straße bleibt eines der wichtigsten Instrumente der Bewegung. Nicht nur in den USA, sondern auch in Deutschland rufen immer wieder Initiativen zu Demonstrationen gegen Fracking auf und mobilisieren Tausende Menschen. Die Basis der Anti-Fracking-Bewegung ist breit: In den USA schlossen sich über 300 Einzelinitiativen aus 31 Bundesstaaten zusammen. Unter dem Namen »Americans against Fracking« setzen sie sich für ein Verbot der Technik ein. Auch in Deutschland fanden sich zahlreiche regionale Initiativen unter dem gemeinsamen Dach »Gegen Gasbohren« zusammen, das nicht nur Fracking, sondern auch konventionelle Erdgasförderung kritisch unter die Lupe nimmt.

Dabei findet der Protest nicht nur Zulauf aus einem linken beziehungsweise grün-alternativen Spektrum. Die Skepsis gegenüber Hydraulic Fracturing zieht sich durch fast alle Bevölkerungsschichten – mehr als ein Drittel der Deutschen lehnen laut einer Forsa-Umfrage von Oktober 2014 Fracking grundsätzlich ab. Ein Viertel der Befragten ist gegen den Einsatz giftiger Chemikalien.6 Weit über die Hälfte der Befragten zeigte also eine kritische bis ablehnende Haltung zum Fracking.

Eine Bewegung, viele Ziele?

Die Kernbotschaft der zum Bewegungsfilm aufgestiegenen Dokumentation »Gasland« ist, dass Fracking ein untragbares Risiko für die Umwelt darstellt. Gerade diese Aussage und damit verbunden der bessere Schutz von Umwelt und Gesundheit war vielerorts Beweggrund für die Schaffung neuer Anti-Fracking-Initiativen. Dennoch lässt sich der globale Fracking-Protest nicht allein auf dieses eine Ziel beschränken. Ohne jede einzelne, regionalspezifische Ausprägung des Protests zu berücksichtigen, lassen sich vier unterschiedliche Stoßrichtungen der Anti-Fracking-Bewegung nachzeichnen: die Forderung eines Komplettverbots von Hydraulic Fracturing, die Forderung nach einer besseren Regulierung von Gasbohrungen, die Forderung nach vertiefenden wissenschaftlichen Untersuchungen zu ökonomischen und ökologischen Auswirkungen der umstrittenen Fördermethode und die Forderung nach einer besseren Teilhabe an der Erdgasförderung. Letztere Stoßrichtung setzt sich vor allem mit den ökonomischen Verlockungen eines neuen Erdgasbooms auseinander. Hier stellen sich Fragen nach heimischen Arbeitsplätzen oder nach der Besteuerung von Erdgasunternehmen. Anders gesagt geht es diesem Teil der Bewegung nicht darum, Fracking per se abzulehnen, sondern Verteilungsgerechtigkeit zu schaffen. Im Mittelpunkt steht die Frage, wie die Gesellschaft stärker vom Rohstoffabbau profitieren könnte.

In den USA, aber auch in Deutschland, sind allerdings die Fraktionen am präsentesten, die Fracking ganz verbieten oder zumindest strikt regulieren wollen. In Deutschland scheint sich die Regulierungsgruppe nun auch durchzusetzen: Im Sommer 2014 haben Bundesumweltministerin Barbara Hendricks und Bundeswirtschaftsminister Sigmar Gabriel (beide SPD) mit einem gemeinsamen Eckpunktepapier ein Fracking-Gesetz angestoßen, das Fracking einschränken, nicht aber verbieten soll. Im Sinne des Koalitionsvertrags von CDU, CSU und SPD wollten sich die beiden MinisterInnen damit vor allem „für einen besseren Schutz des Trinkwassers“ 7 stark machen.8 Damit griffen sie die Hauptbefürchtung der deutschen Bevölkerung auf: die Sorge vor Verunreinigungen des Trinkwassers durch Frack-Fluide oder so genanntes Flowback, also ein Gemisch aus Chemikalien und Lagerstättenwasser, das bei der Gasgewinnung mit nach oben gepumpt wird. Wie oben bereits angedeutet, würde eine Mehrheit der Deutschen den Einsatz von Fracking hinnehmen, wenn dieses »giftfrei« stattfände.

Aus Sicht großer Teile der im Fracking-Protest engagierten Umweltbewegung greift eine Erlaubnis für »giftfreies« Fracking aber deutlich zu kurz. Der Einsatz umwelt- und wassergefährdender Substanzen in den Frack-Fluiden ist nur ein Teil der Problematik. Andere Aspekte wie das gesteigerte Erdbebenrisiko durch den Einsatz von Hydraulic Fracturing, die ungeklärte Frage der Entsorgung hochgiftiger Lagerstättenwasser, Lärm- und Feinstaubbelastungen oder der erhöhte Flächenverbrauch durch neue Bohrplätze bleiben unabhängig vom Chemikalieneinsatz ungelöst. In anderen Worten: Auch chemiefrei bleibt Fracking eine Risikotechnologie. Dass und wie sich Fracking auf die Umwelt auswirken kann, zeigen Beispiele in den USA: Trinkwasserverunreinigungen durch schlecht verarbeitete Rohre, Bodenverunreinigungen durch Leckagen an Bohrplätzen oder eine vermehrte Zahl von Erdbeben.

Neue Dimensionen des Konflikts

Jenseits von »Gasland« – in wissenschaftlichen Studien und journalistischen Reportagen – gibt es also genug Anschauungsmaterial für die verschiedenen Risiken, die mit dem Einsatz von Hydraulic Fracturing und dem Erdgasboom in den USA einhergehen. Daraus ergeben sich genug Gründe, die in der vermeintlich grünen Vorzeigerepublik Deutschland für ein klares Verbot von Fracking sprechen sollten. Gerade in der deutschen Ausprägung dieses Technikkonflikts geht es aber um weitergehende Fragestellungen als die, welche Kosten und Risiken die Gesellschaft bereit ist, für die Erschließung von Rohstoffen zu tragen. Es geht beispielsweise auch um die Ausgestaltung und das Gelingen der Energiewende: Wie kann der Übergang in CO2-neutrale und regenerative Energieversorgung gelingen, und welche technischen Investitionen sind auf dem Weg dahin notwendig? Welche Rolle spielen große Energie- und Erdgasunternehmen dabei? Und wie kann die Politik dem immer größer werdenden Bedürfnis der Bevölkerung nach Mitbestimmung und politischer Teilhabe gerecht werden?

Anmerkungen

1) Protokoll der Plenarsitzung vom 30.06.2011.

2) Tobias Rehbock und Peter Kolbe: Fracking – Wer nicht »frackt«, verliert? KfW Fokus, Nr. 19, 9. April 2013.

3) Jeff Inglis und John Rumpler: Fracking Failures. Oil and Gas Industry Environmental Violations in Pennsylvania and What They Mean for the U.S. Environment America, Winter 2015.

4) Ebd.

5) Jonathan Wood (2012): The Global Anti Fracking Movement. What it wants, how it operates and what’s next. Control Risks Group Limited.

6) Wirtschaftsverbands Erdöl- und Erdgasgewinnung e.V.: WEG kompakt Oktober 2014.

7) Deutschlands Zukunft gestalten. Koalitionsvertrag zwischen CDU, CSU und SPD. 18. Legislaturperiode.

8) Auf die genauen Inhalte des Fracking-Gesetzes kann an dieser Stelle nicht eingegangen werden.

Der Politikwissenschaftler Daniel Hiß leitet das Projekt »Umwelt- und Ressourcenschutz und Reform des Bundesberggesetzes« beim Deutschen Naturschutzring.

Technikkonflikte in der vernetzten Welt

Technikkonflikte in der vernetzten Welt

von Jürgen Scheffran

Angesichts der engen Verknüpfung mit menschlichen Handlungen und Interaktionen ist Technik in vielfältiger Weise in Konflikte involviert. Dies betrifft den Einsatz von Technik als Gewaltmittel, um den Ausgang von Konflikten absichtlich zu beeinflussen, Konflikte aufgrund nicht intendierter oder nicht erwünschter Folgen des Technikeinsatzes, Technikobjekte als Ziel von Konflikt- und Gewalthandlungen oder Konflikte um die Gestaltung von Technikentwicklung. Neben verschiedenen Formen von Technikkonflikten werden alternative Ansätze der Technikgestaltung diskutiert.

EU-Kommission gegen Google, NSA vs. Snowden, Atomstreit mit Iran, Kampf um bewaffnete Drohnen, Proteste gegen Fracking, Streit um die Vorratsdatenspeicherung, – dies sind nur einige Medienthemen der jüngeren Zeit, in denen technische Systeme Zündstoff für politische Konflikte lieferten. Obwohl Technik zunehmend mit gesellschaftlichen Entwicklungen verbunden ist und direkt oder indirekt in vielen Konflikten eine Rolle spielt, sind Technikkonflikte bislang jedoch kaum ein eigener Gegenstand der Forschung. Allenfalls erregten Konfliktanalysen für bestimmte Technologien Aufmerksamkeit, etwa bei der Atomenergie, Chemie- und Gentechnik, der Bioenergie und Agrartechnik oder bei Informationstechnologien.

In einem Sammelband zu Umwelt- und Technikkonflikten wird konstatiert, dass „die Einführung neuer Technologien und der gesellschaftlich-ökonomische Wachstumsprozess zu Konflikten führen, in deren Zentrum die Wahrnehmung, Bewertung, Prävention und Verteilung von Risiken stehen. In vielen Fällen verbinden sich diese Konflikte mit einem grundlegenden Dissens über den gesellschaftlichen und technologischen Entwicklungspfad.“ (Feindt/Saretzki 2010, S.9) Werden in den USA damit verbundene Aspekte vor allem im Kontext von »Science and Technology Studies« behandelt, ist in Deutschland die Thematik stark durch den Risikobegriff und die Debatte über die »Risikogesellschaft« geprägt, bei der „es oft mehr um makrogesellschaftliche Konstellationen als um Akteurkonstellationen und Konfliktstrategien auf der Mesoebene von Politikfeldern geht“ (Feindt/Saretzki 2010, S.10). Dies mag auch daran liegen, dass die Forschungsfelder der Technik- und der Konfliktforschung bislang nur wenig miteinander gemein hatten und der sozialwissenschaftlich geprägte Konfliktbegriff spezifische natur- und ingenieurwissenschaftliche Dimensionen der Technik nicht erfassen konnte.

Während bei den genannten Aspekten vor allem innergesellschaftliche Auseinandersetzungen im Vordergrund stehen, werden Technikkonflikte im Folgenden breiter gefasst, um die vielfältigen Konfliktdimensionen der Technik deutlicher zu machen. Konflikt wird hier verstanden als Austragung unvereinbarer Positionsdifferenzen zwischen Akteuren unter Einsatz widerstreitender Handlungsmittel. Um deutlich zu machen, wie Technik sich in diesem Konfliktbegriff wiederfindet, werden zunächst kurz einige grundlegende Überlegungen zum Technikbegriff angestellt, bevor verschiedene Aspekte von Technikkonflikten behandelt werden.

Der Technikbegriff im Kontext menschlichen Handelns

In der Wechselwirkung des Menschen mit seiner Umwelt ist Technik eng mit menschlichem Handeln verknüpft. Sie dient der Wirkungssteigerung des Handelns, als eine Verstärkung und Verlängerung des menschlichen Körpers in all seinen Dimensionen, von Hand und Fuß über das Gehirn und die Sinne bis zu Sprache, Kommunikation und anderen sozialen Interaktionen. Technik multipliziert die Wirkung des Handelns in doppelter Weise: auf der Verursacherseite bei den Fähigkeiten, neue Handlungspfade »in Gang zu setzen«, auf der Folgenseite bei den Bedürfnissen und Werten, die auf diesen Wegen erreicht werden. Auf dem gesamten Handlungspfad sollen technische Prozesse, Regeln und Gegenstände die eingesetzten Ressourcen und angestrebten Ziele in einen zweckmäßigen Zusammenhang bringen. Dabei muss die Technik „mit den jeweiligen körperlichen, seelischen und geistigen Bedürfnissen der Individuen abgestimmt werden“, damit die Menschen ihre Souveränität und Kompetenz bewahren (Ropohl 1985, S.13).

Wie die Wissenschaft auch, ist Technik ein Mittler zwischen Natur, Mensch und Gesellschaft, sie trennt und verbindet sie zugleich. Das Wissen über die Natur wird übersetzt in technisch konstruierte Gegenstände, die eingesetzt werden, um bestimmte Wirkungen zu erzielen. Aus kausalen »Wenn-dann«-Beobachtungen entsteht die Möglichkeit, das »Wenn« herbeizuführen, um das »Dann« zu konstruieren. Ob dies zweckmäßig ist, wird durch wissenschaftlich erfassbare Gesetzmäßigkeiten und individuelle Ziele ebenso bestimmt wie durch gesellschaftliche Strukturen und Machtverhältnisse, die die Verteilung von Werten, Kosten und Risiken der Folgen beeinflussen. Umgekehrt werden Produktionsbedingungen und Wertevorstellungen durch die Technikentwicklung transformiert.

Im Kontext des Konfliktbegriffs kann Technik über die Folgewirkungen Positionsdifferenzen beeinflussen, sofern konfliktrelevante Werte und Interessen von Akteuren betroffen sind. Technik dient zugleich als Handlungsmittel in Konflikten, um bestimmte eigene Handlungspfade zu eröffnen oder um das Handlungsspektrum anderer Akteure zu beeinflussen, und dadurch den Konfliktaustrag zu eigenen Gunsten zu verschieben. Dabei kann Technik selbst zum Konfliktgegenstand werden, wenn es darum geht, über die Richtung und Gestaltung technischer Entwicklung zu streiten, auf bestimmte Techniken Zugriff zu erhalten oder unerwünschte Wirkungen für betroffene Akteure auszuschließen. Die Vielfalt dieses Verständnisses von Technikkonflikten soll im Folgenden anhand wesentlicher Themenfelder verdeutlicht werden.

Rüstungstechnik, Gewaltkonflikte und vernetzter Krieg

Offenkundig ist die unmittelbare Wirkungssteigerung von Gewaltmitteln durch Technik in Kriegen und anderen Konflikten, die explizit auf Zerstörung ausgerichtet ist. Durch den Einsatz technisch gebündelter Naturkräfte soll das Kräfteverhältnis zum eigenen Vorteil verändert werden. Die materielle und energetische Verkörperung technischer Gewalt ist die Waffe, durch deren Beherrschung Macht ausgeübt wird. Wenn es gelingt, dadurch Zugriff auf weitere Gewaltmittel und Machtressourcen zu erlangen, kann dies eine Gewaltspirale fördern, die die technische Entwicklung in eine Eskalationsdynamik hineinzieht und eine Totalität des Krieges ermöglicht, bis hin zur Zerstörung des ganzen Planeten.

Eine Triebkraft der Rüstungsdynamik ist es, militärische Überlegenheit zu erzielen. Im Wettrüsten des Kalten Krieges war der rüstungstechnische Vorsprung meist nur von relativ kurzer Dauer. Das Militär machte sich die Ergebnisse wissenschaftlicher Forschung immer umfassender zu Nutzen, während sich wissenschaftliche Arbeiten gleichzeitig zu einem erheblichen Teil auf militärische Ziele bezogen – dies galt von der Grundlagenforschung bis hin zur anwendungsnahen Entwicklung (Altmann/Scheffran 1983, S.138). Mit dem Raketenabwehrprogramm der USA in den 1980er Jahren wurde der Versuch unternommen, die ganze Hochtechnologientwicklung militärischen Verwertungsinteressen zu unterwerfen, unter Ausnutzung der zivil-militärischen Doppelverwendbarkeit (Dual-use) auch des zivilen Technologiezweigs (Scheffran 1985). Nach Ende des Ost-West-Konflikts wurde aufgrund der Notwendigkeit von Kosteneinsparungen und geringerer öffentlicher Akzeptanz für den Militärsektor die Ambivalenz der Forschungsergebnisse systematisch genutzt (Liebert et al. 1994). Noch stärker als für die Kernenergie und die Weltraumtechnik, die beide eng verflochten sind mit der Entwicklung von Atomraketen, gilt dies für die Informationstechnologie.

In der komplexen Weltordnung der heutigen Zeit entstehen neue Muster von Gewalt und Krieg. Vermittelt durch Technik durchdringen sie alle Räume und Dimensionen der Gesellschaft, von kleinsten Räumen über unsere irdische Lebenswelt bis zum Weltraum. Die Vernetzung zwischen Technik, Gesellschaft und Krieg betrifft die Vorbereitung, Planung und Durchführung von Gewalteinsätzen unter Ausnutzung der fließenden Übergänge zwischen zivilen und militärischen Strukturen. Wissenschaft und Technik sind eng verwoben mit wirtschaftlichen und politischen Prozessen. Die Folgen von Krieg und Gewalt werden in marginalisierte Randzonen der Machtzentren abgedrängt oder manifestieren sich als strukturelle Gewalt. Der menschliche Körper ist über technische Systeme mit globalen Strukturen vernetzt, über alle Dimensionen hinweg. Dies betrifft zum einen die Verschmelzung von Mikro-, Nano- und Biotechnologien, die Macht- und Gewaltprojektionen in kleinsten Räumen erlaubt, zum anderen die globale Vernetzung aller Systeme durch moderne Transport-, Informations- und Kommunikationssysteme, technische Intelligenz, Drohnen, Robotik und Cyberspace. Satelliten, Anti-Satellitenwaffen, Raketenabwehr und Lasertechnologie erlauben Macht- und Gewaltprojektionen über den ganzen Planeten und in den erdnahen Weltraum.

Wirtschaftswachstum und globalisierte Konkurrenz

Der Multiplikator- und Vernetzungseffekt der Technik spielt auch in der auf Wachstum ausgerichteten kapitalistischen Ökonomie eine Rolle, die technische Produktionsmittel in Form von Kapital anhäuft. Hinsichtlich der Steigerung intendierter Wirkungen hat sich das baconsche Programm der wissenschaftsgeleiteten Technikentwicklung zunächst als wirtschaftliches Erfolgsmodell erwiesen und in Teilen der Welt die Mühsal der menschlichen Existenz erleichtert, was aber zunehmend auf Grenzen stößt. Dass heute trotz begrenzter Ressourcen rund zehnmal so viele Menschen auf der Erde existieren können wie vor der Industrialisierung, wurde durch verschiedene technische Quantensprünge erst möglich. Zugleich stellt sich die Frage, wie lange sich Wohlstand noch steigern lässt, ohne dass die Folgen der Technik dessen Grundlagen zerstören.

In der wirtschaftlichen Konkurrenz führen effektivere Produktionsverfahren zu Wettbewerbsvorteilen durch Profitsteigerung und letztlich zur Ausschaltung von bzw. Fusion mit Konkurrenten, um deren Kapazitäten einzubinden – ein Äquivalent zur Konzentration in der Gewaltspirale. Während die Mehrung von Einkommen und Profit als treibende Kraft für die Steigerung der technischen Produktivität und den erwarteten Wertezuwachs gilt, drückt sich im Preis das Verhältnis zwischen den eingesetzten Mitteln und Kosten der Produzenten im Herstellungsprozess und den erzielten Werten und der Nachfrage der Konsumenten im Verwertungsprozess aus. Beides wird durch technische Innovationen beeinflusst. Zu den Begleiterscheinungen einer auf Expansion ausgerichteten Wirtschaftsmaschinerie gehören vielfältige Zwänge, Unterdrückungs- und Ausbeutungsstrukturen, die Hunger, Armut, Arbeitslosigkeit und Kriminalität zur Folge haben und immer neue Konflikte in einer wirtschaftlichen Dauerkrise mit sich bringen.

Naturzerstörung und Klimawandel

Eine zentrale Rolle spielt Technik auch für den Konflikt zwischen Mensch und Natur, der über ökonomische und soziale Prozesse vermittelt wird. Dies betrifft zum einen die technischen Systemen zugrunde liegenden natürlichen Faktoren und Ressourcen (u.a. Materie, Energie, Information, Leben), zum anderen die Wirkung des Technikeinsatzes auf die Natur, die zur Zerstörung von Ökosystemen, Lebensräumen und Artenvielfalt führt und diese zu Konfliktfeldern macht (Hummel et al. 2002). Der von Malthus vor mehr als 200 Jahren prognostizierte baldige Zusammenbruch der menschlichen Population konnte mit neuen Erfindungen immer wieder verschoben werden, ungeachtet anderer Katastrophen wie den beiden Weltkriegen. Ging es bei der Industrialisierung darum, Naturressourcen in großem Maßstab in die Erzeugung von Produktions- und Destruktionsmitteln zu pumpen, so werden die Grenzen des expansiven und verschwenderischen Umgangs mit der Natur in Umwelt- und Ressourcenkonflikten sichtbar (Scheffran/Vogt 1998).

Neben dem Naturverbrauch auf der Verursacherseite tritt die destruktive Seite der Technik auch auf der Folgenseite immer deutlicher hervor. Dies wird sichtbar bei der fossilen Energieversorgung, die ein breites Feld für Technikkonflikte aller Art war und ist (IANUS 1996), so bei der Einbeziehung von Kohle, Erdöl und Erdgas – als Ressource wie als Konfliktgegenstand – in die Kriegführung im Ersten und Zweiten Weltkrieg, im Kalten Krieg sowie in diversen Kriegen in Nahost und in der Kaukasusregion. Unkonventionelle Methoden der Gewinnung fossiler Energieträger sind nicht nur mit steigenden Kosten, sondern auch mit Umweltfolgen verbunden, so bei der Gewinnung von Ölsänden, Schiefergas oder Erdgas durch Fracking, was ebenso zu Protesten führt wie Ölbohrungen zur See oder in der Arktis.

Am stärksten wird dies beim Klimawandel deutlich, der durch die Freisetzung fossiler Treibhausgasemissionen das gesamte Erdsystem zu destabilisieren droht und damit neue Sicherheitsrisiken und Konfliktfelder eröffnet (Scheffran/Battaglini 2011). Vermittelt über das globale Klimasystem wird der Mensch sich selbst zum Feind, ungeachtet aller Unterschiede auf der Verursacher- und Betroffenenseite in Nord und Süd, zwischen Arm und Reich. Mag der Klimawandel zunächst noch als unbeabsichtigte Nebenfolge des fossilen Entwicklungspfades der Menschheit gelten, so könnte der Versuch, mit Hilfe von Geoengineering im Anthropozän die Kontrolle über den Planeten zurückzugewinnen, zum Fiasko einer wider die Natur handelnden Technikgläubigkeit geraten. Welche Risiken und Konflikte eine solche Machtprobe für die menschlichen Gesellschaften in sich birgt, lässt sich nur erahnen (Maas/Scheffran 2012).

Technik in der Risikogesellschaft

Auch das Versagen von Technik birgt erhebliche Risiken und Konfliktpotentiale, insbesondere in großtechnischen Systemen, in denen sich kleine Fehler zu Katastrophen aufschaukeln können. Die Risikoforschung untersucht, wie in komplexen technischen Systemen eine Kombination verschiedener Ereignisse zum Verlust der eingeplanten Steuerungsmechanismen führt. Angestoßen wurde die Debatte durch spektakuläre Unfälle mit Risikotechnologien (Bhopal, Challenger, Tschernobyl), die zeigten, dass Großtechnologie (Chemie- und Atomtechnik, Bio- und Gentechnologie, Luft- und Raumfahrt, Rüstungstechnik) nicht vollständig beherrschbar ist und ein »Restrisiko« schafft, das mit Naturkatastrophen vergleichbar sein kann. Bei der Kernenergie treten Risiken über die gesamte nukleare Kette auf: von Uranminen über Unfälle und den Transport radioaktiver Materialen bis zur ungelösten Endlagerproblematik. Da bei komplexen Systemen nicht alle Eventualitäten vorherbestimmbar sind, genügt oft ein geringfügiges Ereignis, um eine Ereigniskette auszulösen, die bei eng gekoppelten Mensch-Maschine-Systemen als unvermeidbare „normale Katastrophe“ erscheint (Perrow 1984).

Ein spektakuläres Beispiel für eine Risikokaskade, in der Natur und Technik zusammen wirkten, war das Erdbeben in Japan vom 11. März 2011, das eine Kette von Ereignissen mit globaler Wirkung in Gang setzte. Die Tsunami-Welle zerstörte in Fukushima mehrere Reaktoren, deren radioaktives Inventar sich über die Atmosphäre und den Ozean nicht nur lokal, sondern auch global ausbreitete. Direkt oder indirekt davon betroffen waren das japanische Stromnetz, die Nuklearindustrie, Aktienmärkte, der Ölpreis und die Weltwirtschaft. Autohersteller und Elektronikfirmen drosselten weltweit die Produktion, weil wichtige Teile aus Japan nicht mehr geliefert wurden. Die Schockwellen der Nuklearkatastrophe lösten in Deutschland die Energiewende aus. Diese Katastrophe zeigt eindrücklich, wie ein Einzelereignis kaskadenartig verschiedene Prozessketten in Gang setzen und miteinander verknüpfen kann (Kominek/Scheffran 2011). Sie zeigt auch, wie die Risikohaftigkeit von Technik Widerstände und Proteste auslösen kann.

Neben Erdbeben oder technischen Unfällen können auch Klimawandel und Wetterextreme kritische Infrastrukturen und Versorgungsnetze treffen, die für die Aufrechterhaltung menschlicher Existenz wichtig sind. Hierzu gehören Systeme für die Versorgung mit Wasser, Nahrung und Energie, mit Gütern und Dienstleistungen, Systeme für die Bereitstellung von Kommunikations-, Gesundheits-, Transport- und Sicherheitsdienstleistungen sowie menschliche Siedlungen und politische Institutionen. Dabei ist nicht nur das Versagen von Teilsystemen von Bedeutung, sondern auch die Möglichkeit, dass sich das Versagen über Kopplungen ausbreiten und das gesamte System gefährden kann. So führten Wetterextreme in Deutschland, wie die Hitzewelle 2003, die Sturmflut 2013 oder das Elbehochwasser im selben Jahr, zu erheblichen Beeinträchtigungen des (Zug-) Verkehrs und der Energieversorgung.

Die Frage ist, ob Kettenreaktionen im Stromnetz großflächige Blackouts herbeiführen können, wovon praktisch alle anderen Versorgungssysteme betroffen sind. Bei einem größeren Stromausfall in Europa im November 2006 waren Teile von Deutschland, Frankreich, Belgien, Italien, Österreich und Spanien zeitweise von der Stromversorgung abgeschnitten. Im November 2005 ereignete sich nach heftigen Schneefällen in Nordrhein-Westfalen und Niedersachsen einer der größten Stromausfälle in der deutschen Geschichte.

Verwundbarkeit gegen Angriffe auf technische Systeme

Zur Risikogesellschaft gehört auch, dass mit der wachsenden Abhängigkeit von technischen Infrastrukturen auch ihre Verwundbarkeit gegenüber Angriffen zunimmt, um diese Strukturen zu zerstören oder für destruktive Zwecke zu instrumentalisieren. Wenn der Mensch Teil der Maschine wird, kann er sie willentlich in den Untergang steuern, indem die eingebauten Wirkmechanismen einem von den Konstrukteuren nicht geplanten Zweck zugeführt werden – eine andere Variante von Dual-use. Durch den »Missbrauch« wird aus der Möglichkeit einer nicht intendierten Nebenfolge die konkrete Gefahr, diese absichtlich auszunutzen. Passagierflugzeuge können, wie der 11. September 2001 zeigte, nicht nur Ziel von Gewalthandlungen sein, sondern auch selbst zur Waffe werden, ebenso wie Fahrzeuge, Schiffe, Reaktoren, Chemieindustrie, das Internet oder Stromnetze. Die von Allmachtsphantasien getriebene Wahnsinnstat wird nicht nur ergriffen, weil sie gewollt ist, sondern auch, weil sie durch den Verstärker- und Multiplikatoreffekt der Technik möglich wird, ja, nachgerade dazu verführt.

Die Technik gibt dem Individuum die Macht, sich wie die Spinne im Netz zu verhalten, das sich seine Beute aussuchen kann. Einzelne Personen verfügen durch das Internet über riesige Informationsmengen, die sie für beliebige, auch kriminelle Zwecke einsetzen können. Der Zugriff des Individuums auf diese enorm gesteigerte technische Macht wird symbolisiert durch den Hacker, der gezielt Knoten des globalen Netzes nicht nur ausschalten, sondern für destruktive Zwecke einsetzen kann. Das Netz wird so Ziel von Gewalthandlungen, alle daran angebunden Systeme werden zur potentiellen Waffe. Diese technisch gesteigerte Macht des Individuums ist kaum völlig kontrollierbar, solange Technik diese Möglichkeit bietet.

Technisierung und Kontrolle der Lebenswelt

Beschleunigt durch technologische Umwälzungen verläuft die gesellschaftliche Entwicklung mit rasanter Geschwindigkeit. Ging es bei der Ausweitung des menschlichen Einflussbereichs in Raum und Zeit zunächst um mechanische Werkzeuge, so kamen immer neue Formen der Energienutzung hinzu. Die Elektrifizierung und Computerisierung erlaubte es, Energie- und Informationsflüsse über wachsende Entfernungen in immer kleineren Zeiträumen auszutauschen. Dass eine E-mail in Sekundenbruchteilen den Planeten überquert und potentiell eine direkte Kommunikation mit allen anderen Menschen ermöglicht, gilt heute als selbstverständlich, wäre vor einer Generation aber noch als Science-Fiction abgetan worden. Alle erreichen zu können, bedeutet auch, von allen erreicht zu werden. Hier wird der Prozess der permanenten Grenzüberschreitung durch Technik fortgesetzt, die das menschliche Maß verlässt und die Überforderung verstärkt.

Technik bestimmt so die menschliche Lebenswelt und macht immer mehr Lebensfunktionen von technischen Systemen abhängig. Wie eingangs erwähnt, können diese an praktisch allen Schnittstellen des menschlichen Körpers und seiner Interaktionen mit der natürlichen und sozialen Umwelt ansetzen, um ihre Multiplikatorwirkung zu entfalten. Die Beherrschung komplexer technischer Systeme bedarf eines steigenden Lernprozesses der Anpassung. Wer glaubt, mit Hilfe der Technik seinen eigenen Einflussbereich ausweiten zu können, bewegt sich zunehmend in technisch konstruierten Welten, wird Teil einer Maschinerie und ist ihren Gesetzen und Zwängen unterworfen. Wer hier wen führt, der Mensch die Technik oder die Technik den Menschen, lässt sich kaum unterscheiden.

Dies gilt für Individuen ebenso wie für staatliche Organe. Mit vernetzter Technik wird der Einflussbereich des Staates auf alle gesellschaftlichen Bereiche ausgedehnt. Polizei, Justiz, Militär und Geheimdienste nutzen die neuen Machtmittel und lassen sich nur widerwillig dabei einschränken, wie beim NSA-Skandal ersichtlich. Bei der Steuerung sozialer und politischer Prozesse kann Technik bestehende Macht- und Herrschaftsstrukturen verstärken, aber auch überwinden helfen. Technik dient als gesellschaftliches Herrschaftsinstrument, das die Macht staatlicher Institutionen stärkt und die Bereitschaft zur Machtteilhabe einschränkt, oft mit dem Argument, Technik dürfe nicht in »falsche« Hände geraten. Im Wettlauf zwischen individueller und staatlicher Macht landen Innovationen letztlich auch bei der anderen Seite. Dies gilt auch für die Mittel der Überwachung und Steuerung. Wer glaubt, die Welt durch Spionagesoftware, Drohnen oder insektengleiche Mikroroboter sicherer zu machen, wird sich am Ende durch diese selbst bedroht sehen.

Vom Protest zur Technikgestaltung

Technik wird häufig auch selbst zum Konfliktgegenstand. Es gibt es eine lange Geschichte sozialer Bewegungen, die sich in unterschiedlichen Technikparadigmen mit den Folgen der Technik auseinandersetzten, von den Maschinenstürmern über die Arbeiterbewegung bis zur Studenten– und Umweltbewegung (Ohme-Reinicke 2014). Dabei geht es um den Streit, welche Richtung die technische Entwicklung nehmen oder nicht nehmen soll, um Interessensgegensätze und um den Umgang mit Risiken. Dabei spielen Protest, Widerstand und Whistleblowing eine wichtige Rolle: Sie können helfen, negative Entwicklungen an die Öffentlichkeit zu bringen. inakzeptable Folgen und Risiken zu vermeiden oder Win-Win-Lösungen zu stärken.

Entsprechende Auseinandersetzungen gibt es in nahezu allen Technikfeldern, auch in solchen, die lange Zeit auf breite Akzeptanz stießen, wie bei der Klimapolitik oder der Energiewende (Scheffran/Cannaday 2013). Trotz einer parteiübergreifenden Zustimmung für erneuerbare Energien gibt es lokale Widerstände gegen einzelne Komponenten des Energiesystems. Beim Bau großer Staudämme zur Energiegewinnung und Wasserregulierung ist dies schon lange ein Thema. In den letzten Jahren geriet aufgrund des hohen Flächenverbrauchs auch die Bioenergie zunehmend ins Spannungsfeld widerstreitender gesellschaftlicher Interessen in Bezug auf Naturschutz oder Lebensmittelanbau, was zur Entwicklung von Nachhaltigkeitskriterien für die Bioenergie führte (Scheffran 2009). Bei der Windenergie werden neben der„Verspargelung von Landschaft und Küsten“ auch ökologische Folgen thematisiert (Zoll et al. 2001). Die Solarenergie blieb bislang von solchen Debatten weitgehend verschont, ihre zukünftige großflächige Nutzung (etwa in Wüsten Nordafrikas) weckt aber kritische Fragen. Auch andere Komponenten des Energieumbaus erzeugen Widerstand, insbesondere Stromtrassen, die Nord- und Süddeutschland verbinden sollen, oder Pumpspeicherwerke.

Um mit solchen Fragen umzugehen, bedarf es geeigneter Entscheidungsprozesse im Lebenszyklus der Technikentwicklung, von der Grundlagenforschung über die Erprobung bis zu Einsatz, Recycling und Abfallverwertung. Es geht auch um Lern- und Aushandlungsprozesse, um Differenzen und Konflikte auf konstruktive Weise zu lösen und um kooperative und partizipative Strukturen zu schaffen (Böschen/Pfersdorf 2014). Verschiedene Konzepte können hier zusammenwirken: präventive Rüstungskontrolle und Zivilklauseln zur Eindämmung der militärischen Verwendung von Forschung und Technik; nachhaltige und effiziente Ressourcenutzung, um die Belastung für Mensch und Natur durch Technik auf der Verursacher- und Folgenseite zu verringern; vernetzter Frieden, um Technologien zu nutzen, die die soziale Kompetenz stärken und gemeinsames Handeln zur Problem- und Konfliktbewältigung ermöglichen; Partizipation der Bevölkerung an Entscheidungs- und Nutzungsprozessen, um demokratisch legitimierte Entscheidungen und einen Interessenausgleich zwischen gesellschaftlichen Gruppen und Stakeholdern zu ermöglichen; und politische Regulierungsmechanismen, die die Entwicklung einer verantwortlichen Technikfolgenabschätzung und Technikgestaltung erlauben.

Literatur

Jürgen Altmann und Jürgen Scheffran (1983): Ist militärische Überlegenheit erreichbar? – Die neuen Rüstungstechnologien. In: Hans-Peter Dürr, Hans-Peter Harjes, Matthias Kreck, Peter Starlinger (Hrsg.): Verantwortung für den Frieden – Naturwissenschaftler gegen Atomrüstung, Hamburg: Rowohlt, S.138-154.

Stefan Böschen und Simon Pfersdorf (2014): Partizipation von zivilgesellschaftlichen Organisationen in Innovationsentwicklung und Risikobewältigung. Forschungsjournal SB 4/2014, S.50-59.

Peter H. Feindt und Thomas Saretzki (Hrsg.) (2010): Umwelt- und Technikkonflikte. Wiesbaden: VS Verlag für Sozialwissenschaften.

Matthias Hummel, Jürgen Scheffran, Hans R. Simon (Hrsg.) (2002): Konfliktfeld Biodiversität. Münster: agenda.

IANUS (1996): Energiekonflikte – Kann die Menschheit das Energieproblem friedlich lösen? W&F-Dossier 22.

Jasmin Kominek und Jürgen Scheffran (2012): Cascading Processes and Path Dependency in Social Networks. In: Hans-Georg Soeffner (ed.): Transnationale Vergesellschaftungen – Verhandlungen des 35. Kongresses der Deutschen Gesellschaft für Soziologie in Frankfurt am Main 2010. Wiesbaden: VS Verlag für Sozialwissenschaften.

Wolfgang Liebert, Rainer Rilling, Jürgen Scheffran (Hrsg.) (1994): Die Janusköpfigkeit von Forschung und Technik. Marburg: BdWi-Verlag.

Achim Maas und Jürgen Scheffran (2012). Climate Conflicts 2.0? Climate Engineering as Challenge for International Peace and Security. Sicherheit & Frieden/Security & Peace, Special Issue, 30 (4/2012), S.193-200.

Annette Ohme-Reinicke (2014): Vom Maschinensturm zur Schlichtung? Zur Bedeutung von Technikparadigmen in der Konstitution sozialer Bewegungen. Themenschwerpunkt Technik und Protest, Forschungsjournal SB 4/2014, S.30-39.

Charles Perrow (1987): Normale Katastrophen: Die unvermeidbaren Risiken der Großtechnik. Frankfurt: Campus.

Günter Ropohl (1985): Die unvollkommene Technik. Frankfurt: Suhrkamp.

Jürgen Scheffran (1986): Der Streit um die Hochtechnologieförderung – Kriterien zur Bewertung. Blätter für deutsche und internationale Politik 2/1986, S.214-228.

Jürgen Scheffran und Wolfgang Vogt (Hrsg.) (1998): Kampf um die Natur – Umweltzerstörung und die Lösung ökologischer Konflikte. Darmstadt: Wissenschaftliche Buchgesellschaft.

Jürgen Scheffran (2005). Wissenschaft, Rüstungstechnik und totaler Krieg – Historische Einblicke in eine Wechselbeziehung. Wissenschaft und Frieden 1-2005, S.6-11.

Jürgen Scheffran (2010): Criteria for a Sustainable Bioenergy Infrastructure and Lifecycle. In: Peter N. Mascia, Jürgen Scheffran, Jack M. Widholm (eds.): Plant Biotechnology for Sustainable Production of Energy and Co-products. Heidelberg: Springer, S.409-443.

Jürgen Scheffran und Antonella Battaglini (2011): Climate and Conflicts – The security risks of global warming. Regional Environmental Change, Vol, 11 Issue 1, S.27-39.

Jürgen Scheffran und Thomas Cannaday (2013): Resistance Against Climate Change Policies – The Conflict Potential of Non-Fossil Energy Paths and Climate Engineering. In: Achim Maas et al. (eds.): Global Environmental Change: New Drivers for Resistance, Crime and Terrorism? Baden-Baden: Nomos.

Ralf Zoll (Hrsg.) (2001). Energiekonflikte – Problemübersicht und empirische Analysen zur Akzeptanz von Windkraftanlagen. Münster: LIT.

Jürgen Scheffran ist Professor am Institut für Geographie der Universität Hamburg, Leiter der Forschungsgruppe Klimawandel und Sicherheit im Klima-Exzellenzcluster und Mitglied der Redaktion von W&F.

Die Mega-Maschine

Die Mega-Maschine

Zur strukturellen Militanz kapitalistisch geformter Technik

von Wolfgang Neef

Technik war zu allen Zeiten ein in Materie umgesetztes soziales Konzept. Die Leitbilder »moderner« Naturwissenschaft und Technik und ihre Methoden abstrahieren von allen menschlichen und natürlichen Bedingungen, die nicht quantifizierbar sind, also von fast allen Eigenschaften lebendiger Wesen. Das haben sie mit dem Kapitalismus gemeinsam, der die Komplexität von Ökonomie auf das Wertgesetz von »Lohn, Preis und Profit« reduziert. Kombiniert in der »Industriellen Revolution«, entwickeln sie seitdem ein gewaltiges Potential zur Veränderung und Durchdringung natürlichen und menschlichen Lebens. Realisiert als »Mega-Maschine«, die ihr exponentielles Wachstum durch die Ausbeutung fossiler Energiequellen und stofflicher Ressourcen möglich gemacht hat, missachtet sie zunehmend alle gesellschaftlichen und natürlichen Grenzen und wirkt so zerstörerisch auf die sozialen und ökologischen Lebensgrundlagen.

Das folgende Zitat ist nicht dem Wörterbuch des Unmenschen, sondern einem Buch des US-Ingenieurs Robert Boguslaw von 1965 entnommen, das die Philosophie des Entwurfs von technischen Systemen im Zusammenhang mit dem sozialen Wandel behandelt:1 „Was wir brauchen, ist eine Bestandsaufnahme der Möglichkeiten, menschliches Verhalten zu kontrollieren, und eine Beschreibung der Instrumente, die uns helfen, diese Kontrolle zu ermöglichen. Wenn wir auf diese Weise ausreichende Mittel in die Hand bekommen, das Menschenmaterial sinnvoll zu verwenden, dass wir es also behandeln können, wie Teile aus Metall, Elektrizität oder chemische Reaktionen, ist es uns gelungen, es auf der gleichen Ebene wie jedes beliebige andere Material einzusetzen; erst dann können wir beginnen, uns mit unseren Problemen im Entwurf von Systemen auseinanderzusetzen.“

„Ihr mögt mit der Zeit alles entdecken, was es zu entdecken gibt, und euer Fortschritt wird doch nur ein Fortschreiten von der Menschheit weg sein. Die Kluft zwischen euch und ihr kann eines Tages so groß werden, dass euer Jubelschrei über irgendeine neue Errungenschaft von einem universalen Entsetzensschrei beantwortet werden könnte.“

Bert Brecht, »Leben des Galilei«

Diese Betrachtungsweise geht auf die von Francis Bacon begründeten Prinzipien moderner Wissenschaft und Technik zurück: Der Mensch soll die Natur nicht nur verstehen und erforschen, er soll sich ihrer »bemächtigen«, sie unterwerfen und mit harter Hand steuern – nur dann kann der Mensch, und zwar der Mann (die Frau ist für Bacon Teil der Natur), „sich auf die Natur stürzen, ihre Kastelle und Vorposten erstürmen und besetzen und die Grenzen des Reiches der Menschen so weit verlagern, wie es unserem allmächtigen Gott […] gefällt“.2 400 Jahre später formuliert der Biologe Hubert Markl angesichts der sich abzeichnenden Naturzerstörung durch menschliche Wissenschaft und Technik eine „Moral der Widernatürlichkeit“: die Übernahme der Kontrolle durch das „Management der Biosphäre“, der „künftigen Natur unter Menschenhand“.3 Nach dem Technik-Philosophen Günter Ropohl waltet hier eine „Metaphysik“ bzw. eine „Ideologie der Ingenieurwissenschaften“,4 die von der Realität der Technik mit ihren Widersprüchlichkeiten und Unzulänglichkeiten abstrahiert, sie zu einer „Realisation idealer Wesenseinheiten“ macht und letztlich zurückgeht auf die hypertrophe Vorstellung, der Mensch habe nun den „Plan Gottes“ und damit dessen Rolle übernommen.

Vom Kapital ist hier noch nicht die Rede. Es handelt sich um eine grundlegende Vorgehensweise, um die natur- und technikwissenschaftliche Basis des modernen Industriesystems. Sie abstrahiert von allen nicht quantifizierbaren Eigenschaften, die den Menschen (und die Natur) ausmachen: Der Naturwissenschaftler und Techniker müsse sich, so Galileo Galilei, bei seiner Arbeit ausschließlich nach messbaren quantitativen Größen richten „und dürfe sich nicht von Gefühlen, Emotionen, Träumen und eben von Geschmack, Gerüchen oder überhaupt von etwas irritieren lassen, was ein lebendes Wesen interessiert“.5

Genau diese Methode der Abstraktion kennzeichnet aber auch den Kapitalismus, der zunächst die Arbeit, dann aber immer mehr auch alle anderen Bereiche menschlichen Lebens dem Wertgesetz und dem Markt unterwerfen und den Menschen selbst auf den »homo oeconomicus« reduzieren will. Das intellektuell sehr anspruchslose Grundgesetz und Erfolgskriterium des Kapitalismus ist allein die Vermehrung von Geld im Zinseszins, also im exponentiellen Wachstumsmodus, dessen unbedingte Weiterführung »moderne« Politik zum alles überragenden Dogma erklärt hat. Alle anderen Bestimmungsgrößen und Folgen menschlichen Handelns in Produktion und Reproduktion sind nachrangig. Sie sind mit Marx „gleichgültig“: „Die von Lebensvorgängen bereinigte Welt der naturwissenschaftlich-technischen Maschinen ist wiederum die Welt, die die Logik des Kapitals als ideale Welt für ihren Ausbeutungsprozess anstrebt […] Einteilen nach quantitativen Größen, Wägen und Messen nach immer exakteren Maßen, die Abstraktion von individuellen Interessen und die Rechnungsführung des Kontors sind »der Geist« der neuen Wissenschaft und des Kapitals.“ 6 Technik wie Kapital können aber dieses exponentielle Wachstum nur realisieren, wenn sie zurückgreifen auf fossile Energien und scheinbar unendlich vorhandene stoffliche Rohstoff-Ressourcen und Senken für den anfallenden Müll – eine Illusion: „Jeder, der glaubt, das exponentielle Wachstum könnte in einer endlichen Welt immer so weitergehen, ist entwder ein Verrückter oder ein Ökonom“, sagt der Ökonom Kenneth Boulding.

Auch die sozialen Bedingungen werden mit Hilfe der Politik der Rendite untergeordnet: Die militärischen und »zivilen« Raubzüge zur Gewinnung von Rohstoffen auf der ganzen Welt führ(t)en zur Ausbeutung und Zerstörung ganzer Zivilisationen und Regionen und zur Versklavung ihrer Bevölkerungen; im Inneren der Industrienationen wurden (und werden nach wie vor) die Menschen an das Modell des entfremdeten Arbeitens und im weiteren Verlauf an das entfremdete Konsumieren angepasst. Dieser Prozess war schon im Übergang zum Kapitalismus gewalttätig und ist es auch heute. Ideologisch hilfreich war dabei die christliche Religion, die den Untertanengeist und die »Fabriktugenden« des unaufhörlichen Arbeitens zur Voraussetzung für das ewige Leben im Paradies erklärte.

Ziel ist die vollständige Unterwerfung der Menschen, der Politik und des gesamten Lebens unter die technischen und »ökonomischen« Paradigmen der industriellen Mega-Maschine. Bereits Marx erkannte diese doppelte Funktion und die damit verbundene Problematik der ständigen Steigerung der Produktivkräfte durch eine Technik, die die „Alleinherrschaft des Fabrik-Regimes“ immer wieder sicherstellt: „Die kapitalistische Produktion entwickelt daher nur die Technik und Kombination des gesellschaftlichen Produktionsprozesses, indem sie zugleich die Springquellen alles Reichtums untergräbt: die Erde und den Arbeiter.“ 7

Die »Effektivität« dieser Methoden moderner Naturwissenschaft und Technik und des mit ihnen in harmonischer Ehe verbundenen Kapitalismus scheint durch die Entwicklung der Technik auf der Basis fossiler Energiequellen und dadurch auch der »modernen« Zivilisation glänzend belegt. In ungeahntem Tempo haben sich die Lebensbedingungen der Menschen in den »Industrienationen« verändert und bezüglich der Befriedigung der Grundbedürfnisse zunächst auch verbessert. Die Überzeugung, es habe sich Bacons Hypothese bestätigt, dass technischer Fortschritt automatisch zu sozialem Fortschritt werde, ist heute unabhängig von der politischen Richtung Konsens – daran glaubten auch die Vertreter der sozialistischen Variante dieses »Mythos der Neuzeit«. So sollte eine Art von Paradies entstehen, das »Reich der Freiheit«, in dem die Menschen durch technische Mittel frei und unbehelligt von den unberechenbaren Naturgewalten, als Herren nun auch über die Natur, ihren Bedürfnissen nachgehen können.

Nach dem Ende des »Realen Sozialismus« wurde die kapitalistische »Globalisierung« des Weges der Industrienationen und ihre neoliberale Radikalisierung »alternativlos«: immer mehr Technik auf allen Gebieten menschlicher Betätigung, immer mehr Wachstum, Markt, Freihandel unter dem Primat der Rendite bzw. der Vermehrung von Geld. Streit kommt höchstens auf über die Frage, ob die keynesianische oder die neoliberale Variante des Kapitalismus die richtige sei.

Diese »Ökonomie« ist militant. Sie organisiert den Konkurrenzkampf auf allen Ebenen und zerstört dabei die Erfolgsfaktoren der natürlichen und humanen Entwicklung: Kooperation, Empathie und sozialen Zusammenhalt. Die Individuen untereinander, die Unternehmen, die bis an die Zähne bewaffneten Kampfeinheiten gleichen, die Staaten werden „marktkonform“ organisiert. Zur Sicherung bzw. Herstellung der »Wettbewerbsfähigkeit« werden inzwischen sogar die gegen den Kapitalismus mühsam erkämpften sozialen Errungenschaften der letzten hundert Jahre nach und nach geschreddert. Griechenland, Spanien, Portugal sind die aktuellen europäischen Beispiele dieser »ökonomisch« begründeten Menschenfeindlichkeit.

Sieht man sich die stofflichen und energetischen Voraussetzungen für diesen Weg an, so schien es bis Mitte des 20. Jahrhunderts wenig Grund zu geben, an dieser Erfolgsstory zu zweifeln, weil die ökologischen Grenzen des Planeten noch nicht erreicht waren. Zwar hatte der »technische Fortschritt« dazu geführt, dass in unzähligen Kriegen das industrialisierte Morden sich ebenso schnell steigerte wie der industrialisierte »Wohlstand« – beide Seiten des kapitalistisch geformten Industriesystems, die »zivile« wie die »militärische« (übrigens nahezu gleichgewichtig, was die investierte Wissenschafts- und Ingenieurkapazität betrifft) ließen den »Fortschritt« marschieren, wenn auch immer wieder, besonders nach den beiden Weltkriegen und nach Auschwitz, die Frage nach der Humanität dieses Weges und damit auch der Kapitalismus infrage gestellt wurde. Doch selbst die Millionen Opfer dieser Kriege und des »zivilen« Fortschritts (im Wesentlichen in bzw. aus den Kolonien der Industrienationen, heute den Ländern des Südens) konnten den festen Glauben an den schlussendlichen Erfolg nicht erschüttern.

Die grundsätzliche Aggressivität der so geformten Technik hat viele Facetten: Zuallererst zeigt sie sich in der Kriegstechnik, im Dienst des »Vaters aller Dinge«, am perversesten in der Entwicklung der Atombombe, die von der der »zivilen« Atomkraft nicht trennbar ist. Brian Easlea hat gezeigt, dass diese Aggressivität geschlechtsspezifisch ist und tief in der Mentalität der „Väter der Vernichtung“ 8 steckt. In zahlreichen Zeugnissen der Technikentwicklung findet sie sich bis in die Sprache hinein. Ernst Jünger macht in seinem Buch »Der Arbeiter«9 die Protagonisten der Industriegesellschaft zu „Soldaten der Technik“, zu „Trägern des kriegerischen Kampferlebnisses im industriellen Bereich“. Bernhard Kellermann, der zunächst an der Technischen Hochschule München studierte und dann Schriftsteller wurde, schreibt in seinem Erfolgsbuch »Der Tunnel« über die Hauptfigur, den Ingenieur Allen: „Die Augen dieses Mannes waren kühn und klar, stählern und blinkend. Er hatte während des gesamten Vortrages weder gelächelt noch einen Scherz gemacht.“

Auch wenn Ingenieure, wie bei Kellermann, den »Gegner« nicht nur in den Naturgewalten, sondern auch an der Börse ausmachen, weil die »Kaufleute« ihre Ideale einer perfekten Technik immer wieder der Rendite unterordnen, fügt sich der naturwissenschaftlich-technische Reduktionismus nahtlos in den des Kapitalismus, weil für beide „die Ausschaltung lebender Substanzen“ 10 und deren gesellschaftlicher Zusammenschlüsse Grundlage des Denksystems sind. Darum sind die zerstörerischen Folgen der resultierenden technischen Artefakte nicht auf den militärischen Bereich beschränkt, sondern prägen, wenn auch in unterschiedlichem Maß, die herrschenden »zivilen« Technologien. Seit dem Ende der Periode der durch starkes Wachstum geprägten Nachkriegszeit (etwa 1970), die – nicht zuletzt durch die »Systemkonkurrenz« des »realen Sozialismus« – eine Zeit des sozialen Ausgleichs zwischen Arbeit und Kapital ermöglichte, werden die Folgen nun immer deutlicher sichtbar.

Die ökologischen Grenzen des Planeten sind seit etwa Mitte der 1980er Jahre überschritten. Das bringt nicht nur das Klima aus dem Gleichgewicht, sondern droht durch die ständig steigende Übernutzung der gesamten Biokapazität der Erde unsere natürlichen Lebensgrundlagen zu vernichten. Alle naturwissenschaftlichen Studien belegen das, seitdem Meadows-Bericht »Grenzen des Wachstums« 1972 erschien, dessen Prognosen jüngst von einem australischen Team nachgerechnet und bestätigt wurden. Der jährliche Report des WWF zum »ökologischen Fußabdruck« der kapitalistischen Mega-Maschine dokumentiert, dass wir inzwischen zur Fortführung dieser Wirtschafts- und Lebensweise mehr als 1,5 Planeten benötigen.11

Gekoppelt mit sozialer Zerstörung, wird die Naturzerstörung an vielen Beispielen sichtbar und fühlbar – es seien hier nur einige von unzähligen genannt.

Durch die immer aggressivere Förderung von Rohstoffen jeder Art und die Abholzung der Regenwälder zwecks Anbau von Futter für die Fleischindustrie werden ganze Landschaften zerstört, Lebensräume für Menschen und Tiere, die nach kurzer Nutzung zu Mondlandschaften und Wüsten werden. Aber auch dort, wo Menschen aus ihren denaturierten Wohngebieten, wie den wachsenden Megastädten, in die Natur streben, um sich vom Stress der technisierten Lebensweise zu erholen, frisst sich die renditegetriebene Technik in eben diese Natur hinein, wie z.B. an den Küsten der Algarve und Andalusiens, und macht sie für eben diesen Zweck praktisch unbrauchbar. Denn diese Küsten bestehen nun fast nur noch aus Betonwüsten in Gestalt von Hotel- und Apartmentklötzen. Diese Technikwüsten werden dann bevölkert von Massen von Ferntouristen, die durch Massen von Flugzeugen dorthin transportiert werden und mit Massen von Mietautos herumfahren, für die z.B. die Insel Madeira wie ein Schweizer Käse mit Straßentunnel präpariert wurde.

In den Meeren treiben inzwischen ganze Kontinente von Plastikmüll in Gestalt kleinster Plastikteile, die zur Verrottung ca. 400 Jahre brauchen. Sie werden von den Tieren des Meeres aufgenommen, machen sie krank oder töten sie, und über diesen Umweg gelangen sie wieder in die menschliche Nahrung. Der Weg auf unsere Teller führt über immer größere Fangschiffe, die den Fischfang industrialisieren und dabei durch Schleppnetze und andere technische Vorrichtungen so viel Schaden anrichten, dass zunehmend fast alle Fischarten gefährdet sind (nach dem FSC-Siegel ist von den großen Meeresfischen nur noch das Vorkommen des Seelachses halbwegs intakt). Alle anderen Lebewesen im Meer, wie z.B. die Korallen und damit die Korallenriffe als Lebensraum, werden durch die Effekte der Klimakatastrophe mehr und mehr zerstört.

Der IT-Wahn führt dazu, dass ständig neue Geräte in den Markt gedrückt werden, das Aufkommen an IT-Geräten (meist reines Spielzeug) wächst nach wie vor mit zweistelligen jährlichen Raten. Der enorme Verbrauch an Energie, Wasser, »seltenen« Erden etc. für die Herstellung dieser Geräte und der Energieverbrauch des Internet (Server) steigen ebenso rapide; letzterer ist inzwischen höher als der des gesamten Flugverkehrs weltweit. Der »ökologische Rucksack«12 eines Smartphone beträgt pro Kilogramm rund 490 kg Naturverbrauch – so sieht die vollmundig angekündigte »Dematerialisierung« durch IT aus. Genauso schlimm ist die Wirkung der Wegwerf-Produktion dieser Geräte (Vodafone: „Jedes Jahr ein neues Handy“). Der Elektronikschrott landet zu Zweidritteln (Zahl für das ordentliche Deutschland) illegal in Afrika oder China und wird dort auf der Suche nach Wertstoffen von um ihre frühere Existenz gebrachten Menschen durch Verbrennen, Zerschlagen etc. »entsorgt«. Die Müllkippen in diesen Ländern sind inzwischen Basis eines neuen »Geschäftsfeldes« für finanziell clevere Afrikaner, die ihre Verwertung organisieren. Während so also das Land vergiftet und unbrauchbar gemacht wird für alle anderen Zwecke, feiert der Kapitalismus auf dem Müll eine makabre Party des »freien Unternehmertums«.

Auch im Alltag, meist kaum wahrgenommen, sorgt die Technik dafür, dass Menschen sich von ihr abhängig machen, ihre Selbstbestimmung verlieren, aber auch ihre Fähigkeiten, das Leben ohne Technik zu meistern. Nicolas Carr beschreibt in seinem Aufsatz »Die Herrschaft der Maschinen«,13 dass Piloten, die fast nur noch mit automatisierten Systemen fliegen und Gefahrensituationen lediglich am Simulator üben, in realen kritischen Situationen versagen, weil sie die Grundfunktionen des Flugzeugs mangels praktischer Erfahrung nicht mehr beherrschen. Ähnlich sein Beispiel der Inuit: Die Fähigkeiten, sich in einer Schnee- und Eiswüste zu orientieren, wurden von Generation zu Generation weitergegeben. Inzwischen verfügen die Inuit über GPS-Systeme – und verlieren eben diese Fähigkeiten. Bei Ausfall der Geräte sind jüngere Inuit nun orientierungslos. Die Konzerne planen, in unsere Alltagsgeräte Chips einzubauen, beispielsweise in den Kühlschrank, der uns das Fehlen von Produkten mitteilt und uns erinnert, sie wieder aufzufüllen. Das angeblich »intelligente« Haus, das selbständig z.B. für Schatten sorgt, das »Internet der Dinge« oder »Industrie 4.0« sind ein groß angelegtes Entmündigungsprogramm – Manfred Spitzer spricht von „digitaler Demenz“.14 Auf dem Land gibt es inzwischen kaum noch Möglichkeiten, sich zu versorgen, wenn man nicht mit dem Auto zu den Einkaufszentren fahren kann, weil fast die gesamte dezentrale technische Infrastruktur durch diese Großtechnologien ersetzt wurde. Die Eigenversorgung durch Anbau von Nahrungsmitteln stirbt aus – die Menschen können nur noch kaufen. „Ich fürchte den Tag, an dem die Technologie die wichtigsten Elemente menschlicher Verhaltensweisen strukturiert. Die Welt wird nur noch aus einer Generation von Idioten bestehen“, sagte dazu Albert Einstein.

Die Verlagerung der Textil- und Lederindustrie und anderer Industrien mit hoher Gesundheits- und Umweltbelastung in Länder wie Bangladesh zeigt durch die dort herrschenden menschenverachtenden Arbeits- und Lebensbedingungen am deutlichsten den aggressiven Charakter der Fertigungstechniken. In der Lederindustrie z.B. werden Chromverbindungen benutzt, die nicht nur die ArbeiterInnen massiv schädigen, die buchstäblich in der giftigen Brühe waten. Auch in den Lederwaren, die dann z.T. unter »großen« Marken nach Europa zum Verkauf kommen, findet sich immer häufiger das aggressive »Chrom 6«. Die Fabriken, in denen die TextilarbeiterInnen mehr als zwölf Stunden am Tag, oft an sieben Tagen in der Woche schuften, sind mit vergitterten Fenstern und nur einem Ausgang schon als Gefängnisse gebaut – sie werden zu Todesfallen, wenn sie zusammenbrechen oder brennen. Die Ingenieure, die solche Fabriken bauen, wissen ebenso wie die Ingenieure, die die Vergasungs- und Verbrennungsanlagen der Konzentrationslager bauten, was sie tun: Sie sparen Kosten und erhöhen die Rendite, als „erfinderische Zwerge, die für alles gemietet werden können“ (Brecht, Galilei).

Man kann also durchaus sagen, dass sich »die Menschheit« in einer Zeit, in der uns so viel Wissen wie nie zuvor zugänglich ist, besoffen von den »Erfolgen« der industriellen Revolution, in den Zustand der Idiotie hineingesteigert hat, den Einstein befürchtete. Elmar Altvater beschreibt in einem Aufsatz15 die „Steigerungsformen einer zerstörerischen Wirtschaftsweise: Wachstum, Globalisierung, Anthropozän“ in dieser Reihenfolge und zitiert Georges Monbiot, der sogar vom „Zeitalter der Idiotie“ spricht. Diese kann man auch darin sehen, dass die »Elite« der Industrienationen und mit ihr ein großer Teil der führenden Gestalten in den »Schwellenländern« als »follower« die Paradigmen des Kapitalismus derart verinnerlicht haben, dass sie tatsächlich glauben, die Gesetze der Thermodynamik seien veränderbar, die der Rendite und des Marktes aber nicht.16

Angesichts der giftigen Kombination von zerstörerischer Raubtechnik und aggressivem Kapitalismus17 und ihrer seit Mitte der 1980er Jahre sichtbaren globalen sozialen und ökologischen Auswirkungen, kann man noch weiter gehen und von einem Weg in die Barbarei oder bereits herrschender Barbarei sprechen. Noch am Ende der Blockkonfrontation zwischen »Ost« und «West« hatte man mit einer „Friedensdividende“ (Willy Brandt) gerechnet. Es war die große Hoffnung entstanden, das industrialisierte Morden im 20. Jahrhundert (von den Weltkriegen über Auschwitz bis zum Vietnam- und Irakkrieg) wäre beendet und das gewaltige Potential »moderner« Technik würde nunmehr durch eine große Transformation bzw. Konversion für eine friedliche Welt und ein gutes Leben für alle Erdbewohner eingesetzt. Stattdessen wurde das Ende des »Realen Sozialismus«, dessen Konzept der Naturbeherrschung durch Technik sich in nichts von dem des »Westens« unterschied, als Sieg des Kapitalismus und seiner »Überlegenheit« in Sachen Technik begriffen.

Das Ergebnis ist eine ständige und globale Zunahme von durch Technik effektivierter menschenfeindlicher Brutalität, aber auch die starke Zunahme krimineller Methoden. „Es hat sich eine legal operierende Wirtschaft herausgebildet, die sich aller Regulierung entzieht. Einige Ökonomen nennen sie »Schurkenwirtschaft«. Man feiert den Triumph des globalen Kapitalismus, an dem die Mafia und das internationale Verbrechen entscheidenden Anteil nehmen“.18 Die USA als »Mutterland des Kapitalismus«, führende Techniknation und selbsternannter Hort der Menschenrechte, lassen mit aktiver Beteiligung eines Präsidenten, der 2009 den Friedensnobelpreis erhielt, »Terroristen« durch automatisierte Mordinstrumente umbringen, bei deren Einsatz regelmäßig zahlreiche Unbeteiligte als »Kollateralschäden« sterben. Die US-Regierung lässt den Geheimdiensten freie Hand beim Bespitzeln der ganzen Welt mit Hilfe der IT-Technik und führt die Folter wieder ein. In weiteren 140 Ländern wird regelmäßig gefoltert.19 Fanatisierte Moslems bringen fast jeden Tag Dutzende von Menschen um; in Europa terrorisieren und töten Neonazis Migranten, Juden und Obdachlose. Fast eine Milliarde Menschen hat kein sauberes Trinkwasser zur Verfügung. Jean Ziegler, von 2000 bis 2008 Sonderbeauftragter der Vereinten Nationen für das Recht auf Nahrung, spricht von »Massenvernichtung« durch Hunger, verursacht durch industrialisierte Landwirtschaft und Nahrungsmittelkonzerne.20

Es scheint nicht gut auszusehen für die Zukunft unserer Kinder und Enkel.

Anmerkungen

1) Robert Boguslaw (1965): The New Utopians. A Study of Systems Design and Social Change. Englewood Cliffs/New Jersey: (Prentice Hall). Zitiert nach Mike Cooley (1982): Produkte für das Leben statt Waffen für den Tod. Reinbek: rororo.

2) Zitiert nach Brian Easley (1986): Väter der Vernichtung – Männlichkeit, Naturwissenschaftler und der nukleare Rüstungswettlauf. Reinbek: rororo, S.36.

3) Hubert Markl: Pflicht zur Widernatürlichkeit. SPIEGEL Nr. 48, 1995, S.206 ff.

4) Günter Ropohl (1998): Wie die Technik zur Vernunft kommt – Beiträge zum Paradigmenwechsel in den Technikwissenschaften. Amsterdam: Verlag Fakultas, S.10ff.

5) Otto Ullrich (1979): Weltniveau. In der Sackgasse des Industriesystems. Berlin: Rotbuch, S.47.

6) Ibid., S.47

7) Karl Max (1967): Das Kapital. (Ost-) Berlin: Dietz, S.528/29.

8) Brian Easley, op.cit.

9) Ernst Jünger (1932/2007). Der Arbeiter – Herrschaft und Gestalt. Stuttgart: Klett-Cotta.

10) E.F. Schumacher (1977): Die Rückkehr zum menschlichen Maß – Alternativen für Wirtschaft und Technik. Reinbek: Rowohlt, zitiert nach Otto Ullrich, op.cit.

11) Dennis Meadows (1972): Die Grenzen des Wachstums – Bericht des Club of Rome zur Lage der Menschheit. Stuttgart: Deutsche Verlags-Anstalt. Nachgerechnet von G. Turner und C. Alexander: Limits to Growth was right. New research shows that we’re nearing collapse. The Guardian, 2. Sept. 2014. Am eindrücklichsten sind die Diagnosen des WWF im jährlichen »Living Planet Report«. Mit Bezug auf die Klima-Katastrophe besonders eindrucksvoll zusammenfassend Naomi Klein (2015): Die Entscheidung – Kapitalismus vs. Klima. Frankfurt/M.: S. Fischer.

12) Ein Begriff, den Friedrich Schmidt-Bleek und das Wuppertal-Institut prägten. Die Zahl stammt aus Friedrich Schmidt-Bleek (2014): Grüne Lügen – Nichts für die Umwelt, alles fürs Geschäft – wie Politik und Wirtschaft die Welt zugrunde richten. München: Ludwig Buchverlag.

13) Nicolas Carr: Die Herrschaft der Maschinen. Blätter für deutsche und internationale Politik 2-2014, S.45 ff.

14) Manfred Spitzer (2012): Digitale Demenz – Wie wir uns und unsere Kinder um den Verstand bringen. München: Droemer.

15) Elmar Altvater: Wachstum, Globalisierung, Anthropozän. Emanzipation 1-2013, S.71 ff.

16) Vgl. dazu Wolfgang Neef: Die zweite Kristallschale. Forum Wissenschaft 4/2009.

17) Ernst Bloch spricht davon, dass diese Technik „in der Natur steht wie im Feindesland, und vom Landesinneren weiß sie nichts“. In: ders. (1985): Das Prinzip Hoffnung. Frankfurt am Main: Suhrkamp. „Marx’ Glaube ist merkwürdig irrational, dass diese durch und durch kapitalistisch geprägte Mega-Maschine sich im Kommunismus irgendwie in eine humane Form bringen ließe.“ Otto Ullrich, op.cit..

18) Roberto Scarpentino, Leitender Oberstaatsanwalt in Palermo, in einem Vortrag unter starkem Polizeischutz in Karlsruhe, veröffentlicht in der Frankfurter Rundschau, 8. Februar 2010.

19) Bericht von Amnesty International, Süddeutsche Zeitung, 13.5.2014.

20) Jean Ziegler (2012): Wir lassen sie verhungern – Die Massenvernichtung in der Dritten Welt. München: Bertelsmann.

Prof. Dr. Wolfgang Neef, arbeitete bis 2008 an der TU Berlin im Fachgebiet Technik, Gesellschaft, Ökologie und lehrt weiterhin zu diesem Thema für Studierende der Ingenieurwissenschaften an der TU Berlin und an der TU Hamburg-Harburg.

Soziale Verantwortung in Naturwissenschaften und Ingenieurswesen

Soziale Verantwortung in Naturwissenschaften und Ingenieurswesen

Preparing for Social Responsibility. Teaching ethics, peace and sustainability to students in science and engineering, 13.-15. Oktober 2010, Delft (NL)

von Regina Hagen

Knapp 50 TeilnehmerInnen aus acht europäischen Ländern und den Vereinigten Staaten gingen im Oktober 2010 an der Technischen Universität Delft (Niederlande) der Frage nach, wie in der universitären Lehre den Studierenden, die naturwissenschaftliche und Ingenieurs-Studiengängen belegen, ihre künftige soziale Verantwortung im Berufsleben nahe gebracht werden kann. Für etliche TeilnehmerInnen war dies nach Kopenhagen/DK 2005 und Hamburg 2008 der dritte Workshop zu diesem Thema. Initiiert wurde die Workshop-Serie auf Grund eines Aufrufs der World Conference on Science der UNESCO, die 1999 in Budapest stattgefunden hatte.

Der Workshop in Delft gliederte sich in drei Themenstränge:

Warum sind soziale Verantwortung und Frieden an naturwissenschaftlichen und Ingenieurs-Fachbereichen ein Thema?

Wie kann in Universitätsstrukturen, die häufig eher schwerfällig sind, Lehre zur sozialen Verantwortung verankert werden?

Wie kann die Zusammenarbeit mit externen Partnern organisiert oder gestärkt werden?

Zum Einstieg wurde das Thema etwas breiter und doch sehr konkret angegangen. Nur ein Beispiel von vielen: IBM brachte einen RFID – ein Gerät zur Funk-Frequenz-Identifizierung – auf den Markt, der den KäuferInnen eine Wahl lässt: Sie können nach dem Kauf die Antenne des RFID, der an der Ware angebracht ist, intakt lassen und in dem Geschäft bei künftigen Käufen Rabatte erhalten, oder sie brechen die Antenne ab und bewahren ihre Anonymität.

Dann stellten Hochschullehrer von vier Universitäten Lehrprogramme vor, die speziell für Studierende der Naturwissenschaften und des Ingenieurswesens angeboten werden und sich mit Nachhaltigkeit, Frieden, Verantwortung und Philosophie befassen. Das radikalste Konzept entwickelte die Leuphana-Universität Lüneburg. Im so genannten Leuphana-Semester belegen die Bachelor-Studierenden sämtlicher Studiengänge im ersten Semester ausschließlich fachübergreifende Vorlesungen und Seminare. Zum Semesterende organisieren sie im Rahmen des Moduls »Verantwortung der Wissenschaft« dann eine öffentliche, akademische Konferenz.

Abgeschlossen wurde der erste Workshop-Tag mit kleinen Arbeitsgruppen zu Themen wie Planspiele (role plays) in der Lehre, die Ausarbeitung von Vorlesungen, Fallstudien, Semesterplänen und ganzen Curricula zu sozialer Verantwortung bis hin zur Einführung solcher Lehrinhalte an der Universität.

Ein besonderes Merkmal des Workshops war die gleichberechtigte Einbindung von Studierendengruppen. Studierende von Sneep (Student Network for Ethics in Economics and Practice) in München und Blue Engineer (ein Studierendenprojekt an der Technischen Universität Berlin) boten Arbeitsgruppen an, organisierten und moderierten Rollenspiele und zeigten auf, wie viel Spaß es machen kann, mit Hilfe von Fragen zu lernen.

Am zweiten Tag wurden zunächst die Themen in Parallelsitzungen vertieft. Nachmittags waren mehrere Planspiele im Angebot und die TeilnehmerInnen schlüpften selbst in unterschiedliche Rollen und diskutierten anschließend, wie sich diese Methode in die Lehre integrieren lässt.

Am letzten Tag wurden zunächst die Ergebnisse, offenen Fragen und Vorschläge der acht Arbeitsgruppen vom Vortag vorgestellt und diskutiert. Dann wendete sich der Workshop den externen Akteuren und Partnern zu – beispielsweise Wissenschaftsvereinigungen und Ingenieursverbände –, die in die Lehre zur sozialen Verantwortung eingebunden werden können. Dabei stellte sich heraus, dass die Studierenden möglichst früh im Studium damit konfrontiert werden müssen, dass sie in ihrem Berufsleben eine große soziale Verantwortung tragen und dieser gerecht werden müssen. Genau so wichtig ist es aber, dieses Wissen regelmäßig zu aufzufrischen und zu vertiefen bzw. Naturwissenschaftler und Ingenieure immer wieder an ihre Berufsverantwortung zu erinnern. Daraus ergibt sich, dass sowohl Hochschullehrer als auch Berufsverbände, von denen auch einige in Delft vertreten waren, von einer engeren Zusammenarbeit zu diesem Thema profitieren können.

Schließlich vereinbarten die TeilnehmerInnen, die Zusammenarbeit fortzusetzen, 2012 an der Technischen Universität Darmstadt den nächsten Workshop durchzuführen und bis dahin bestimmte Fragen weiter zu bearbeiten. Ein gemeinsamer Antrag beim COST-Programm (European Cooperation in Science and Technology), Beiträge für eine Sonderausgabe der Zeitschrift »Science and Engineering Ethics« sowie die Strukturierung und Ausweitung des Angebots von Lehrmaterialien auf der Website des Workshops wurden ebenfalls diskutiert. Zur Vorbereitung des COST-Antrags und des Darmstädter Workshops 2012 findet in der ersten Hälfte des Jahres 2011 in Kopenhagen an der Aalborg-Universität ein kleineres Treffen statt.

Der Workshop in Delft wurde in Kooperation des niederländischen »3-TU Centre for ethics and technology«, dem Fachbereich Philosophie der Technischen Universität Delft, der Universität von Aalborg, der Technischen Universität Darmstadt, dem Carl Friedrich von Weizsäcker-Zentrum für Naturwissenschaft und Friedensforschung (ZNF) der Universität Hamburg, dem International Network of Engineers and Scientists for Global Responsibility (INES) sowie der Working Group on Ethics in Engineering Education der European Society for Engineering Education (SEFI) statt.

Informationen zum Workshop, die Vortragsunterlagen, Links zu den zwei ersten Workshops, eine Literaturliste und Kontaktdetails finden sich auf http:// preparing4socialresponsibility.net.

Regina Hagen

Zivilklausel international

Zivilklausel international

Militarisierung der Hochschulen verhindern

von Dietrich Schulze

Die Verknüpfung von zivilen und militärischen Zwecken (»dual use«) in Forschung und Lehre wird an deutschen Hochschulen immer üblicher. Dagegen rührt sich allerdings zunehmend Widerstand. Die Forderung nach einer ausschließlichen Zivilorientierung (Zivilklausel) wird lauter. In W&F 3-2010 wurde bereits ein Überblick über bestehende Zivilklauseln und die Praxis damit gegeben. Im nachfolgenden Artikel beschreibt der Autor eine neu entstandene Dynamik gegen die Militarisierung der Hochschulen, die mit der Bildung einer neuartigen Organisationsstruktur in der Wissenschaftslandschaft, mit dem Karlsruhe Institute of Technology, zu tun hat.

Die im November 2010 auf dem Lissabonner Gipfeltreffen verabschiedete NATO-Strategie1 sieht statt der Verschrottung von Atomwaffen deren Beibehaltung auf unabsehbare Zeit vor. Vom Abzug der US-Atomwaffen aus Deutschland ist dort keine Rede. Überdies hält das Bündnis ein umfassendes Raketenabwehrsystem vor der Haustür der ehemaligen anderen Supermacht für notwendig. Dies ist brandgefährlich und verschlingt Milliarden. Die Kosten sind es auch, die immer stärker »dual use« in den Mittelpunkt rücken.

In dieser Situation melden sich herausragende Persönlichkeiten der Friedenswissenschaft zu Wort. Anfang 2011 werden sie mit einem Internationalen Appell an die Öffentlichkeit gehen, mit dem sie die Hochschulverantwortlichen auffordern, auf universitäre Forschung und Lehre für militärische Zwecke zu verzichten. Sie wollen die wachsende Militarisierung an den Hochschulen stoppen; für sie ist es genuine Aufgabe der Universitäten, Frieden und Verständigung zu fördern.

Vor dem Hintergrund der deutschen Geschichte und zweier von deutschem Boden ausgegangener Weltkriege kommt der hiesigen Friedensbewegung eine besondere Verantwortung zu. Gerade die historischen Schlussfolgerungen haben mit diesem Internationalen Appell zu tun, wie hier nachgezeichnet werden soll. Dabei entbehrt die geschichtliche Entwicklung nicht einer gewissen Ironie. Es kann nämlich aufgezeigt werden, wie aus einem Paragrafen als Türöffner für die zivile Kernenergienutzung eine Gestaltungsform für die Friedensbindung aller Hochschulen wurde.

Zivilklausel Kernforschungszentren

Im Jahr 2007 begann der Zusammenschluss der Universität (TH) Karlsruhe mit dem Forschungszentrum Karlsruhe zum Karlsruhe Institute of Technology (KIT). Aus diesem Anlass wurde von Beschäftigten, Gremien und Gewerkschaftern des Forschungszentrums, das aus der 1956 gegründeten Gesellschaft für Kernforschung hervor gegangen war und bis 1995 Kernforschungszentrum hieß, die Übertragung der Zivilklausel des Forschungszentrums auf das gesamte KIT gefordert. Die Zivilklausel im Gesellschaftsvertrag der von Bund und Land geförderten Einrichtung lautet: „Die Gesellschaft verfolgt nur friedliche Zwecke.“ Der Eintritt der Bundesrepublik in die zivile Nutzung einer Technologie, die mit dem Kompetenzerwerb für die Herstellung der ultimativen Massenvernichtungswaffe verbunden ist, war nur mittels einer völkerrechtlich verbindlichen Verzichtserklärung möglich. Die Satzungsbestimmung legte fest, dass unter dem Dach der Institution jegliche – auch nichtkerntechnische – Forschung für militärische Zwecke untersagt ist. Für die Universität Karlsruhe gilt eine solche Beschränkung nicht, obwohl es dafür gute Gründe gibt, die Anfang der 1990er Jahre nach aufgelöster Blockkonfrontation an mehreren Universitäten artikuliert wurden.

Was sollte nun geschehen? Die vollständige finanziell-organisatorische Verschmelzung nach Landesgesetz für die öffentlich-rechtliche Körperschaft KIT ab 2011 erfordert eine einheitliche Satzungsregelung: Entweder wird die Zivilklausel für den Universitätsteil (KIT Campus Süd) eingeführt und damit die Uni zivilisiert, oder sie wird für den Teil des Forschungszentrums (KIT Campus Nord) abgeschafft und das Zentrum damit entgegen dem beschriebenen Gründungskonsens für militärische Forschung geöffnet. Dazwischen kann es keine tragfähige Lösung geben. Seit Mitte 2008 gibt es darüber eine öffentliche Auseinandersetzung, die für das KIT bisher zwar noch zu keinem befriedigenden Ergebnis geführt, aber inzwischen eine bundesweite und internationale Debatte über die Friedensbindung der Universitäten angestoßen hat.

Friedensbindung und Verfassung

Die Landesregierung Baden-Württemberg, vertreten durch Wissenschaftsminister Frankenberg, war von vornherein gegen jegliche Zivilklausel. Begründung: Die angeblich grundgesetzlich garantierte Freiheit von Wissenschaft und Forschung für militärische Zwecke dürfe nicht eingeschränkt werden. Anfang 2009 wurde diese Behauptung von Erhard Denninger in einem verfassungsrechtlichen Gutachten der Hans-Böckler-Stiftung widerlegt. Die Zivilklausel für Hochschulen ist nicht nur zulässig, sie steht in völliger Übereinstimmung mit der Verfassung. Denninger spricht mit Blick auf die Entstehungsgeschichte des Grundgesetzes von der „Friedensfinalität“ unserer Verfassung.2

Der Partner Bundesregierung hatte offenbar Bedenken gegen die vollständige Abschaffung der bewährten Klausel, setzte die Beibehaltung beschränkt auf Großforschungsaufgaben durch, ließ aber Militärforschung für den Universitätsteil offen. Diese schizophrene Regelung, die keinen Bestand haben kann, wurde Mitte 2009 schließlich gegen vielfältige Proteste per Landesgesetz beschlossen. Worin bestand der Protest?

Nach Vorarbeiten der örtlichen ver.di-Gewerkschaftsgruppe wurde in Zusammenarbeit mit der aktiven »Gewerkschaftlichen Studierendengruppe« im Januar 2009 eine bundesweit bisher einmalige Urabstimmung unter den Studierenden der Universität Karlsruhe durchgesetzt. Das Ergebnis war überraschend eindeutig. Eine Zweidrittelmehrheit votierte für eine einheitliche Zivilklausel: „Das KIT verfolgt nur friedliche Zwecke.“

Kein lebloser Paragraf

Die Zivilklausel des Forschungszentrums ist kein lebloser Paragraf, sie war heftig umkämpft und ist im Bewusstsein der Beschäftigten eine gefestigte Position gegen jegliche Beteiligung an Forschung für militärische Zwecke. Mindestens dreimal im Verlaufe der Geschichte sollte die Zivilklausel unterlaufen bzw. aufgeweicht werden:

1986 warb das Bundesforschungsministerium um Teilnahme an Reagans SDI-Programm (Laserwaffen gegen Atomraketen). Über 1.000 Beschäftigte im Kernforschungszentrum Karlsruhe und in den anderen deutschen Großforschungseinrichtungen unterzeichneten daraufhin die Selbstverpflichtung, sich einer Teilnahme an der SDI-Forschung zu verweigern.

1993 beantragte die Unionsfraktion im Forschungsausschuss als Bundestagsbeschluss: „Die faktische Trennung zwischen ziviler und militärischer Forschung ist zu überdenken (Stichwort »dual use«).“

2002 wollten Senat und Leitung der Helmholtz-Gemeinschaft unter Verweis auf den 11. September 2001 wehrtechnische Forschung einfädeln, u.a. Abwehrforschung gegen Chemiewaffenangriffe.

Alle Versuche wurden von einem aktiven und energischen Betriebsrat3 mit Unterstützung der demokratischen Wissenschaftsgremien zurückgewiesen. Vertreter des Betriebsrats konnten in den der Urabstimmung vorausgehenden Diskussionen im Studierendenparlament vermitteln, welchen Wert die Klausel und welche Bedeutung eine wachsame Betriebsöffentlichkeit besitzt.

Kurz vor der geschilderten Urabstimmung gelang es der inzwischen gebildeten Initiative gegen Militärforschung an Universitäten,4 in der Studierende, Beschäftigte, Gewerkschaften und Friedensgruppen mitarbeiten, aufzudecken, dass an der Universität Karlsruhe tatsächlich Militärforschung betrieben wird.5 Bei der Urabstimmung jedenfalls war klar, dass mit einer Zivilklausel nicht offene Türen eingerannt werden, sondern eine bewusste, von der Landesregierung nicht gewollte Friedensbindung entstehen würde. Kaum überraschend: Landesregierung und Universitätsspitze ignorierten das Votum und verweigerten jeglichen Dialog darüber.

Nach dem ermutigenden demokratischen Impuls der Studierenden entfaltete die Initiative eine umfangreiche Öffentlichkeitsarbeit, sogar auf internationaler Ebene. So wurde im Mai 2009 im Rahmen der Konferenz zum nuklearen Nichtverbreitungsvertrag (NVV) in New York der INES-Appell6 für eine ungeteilte KIT-Zivilklausel veröffentlicht, der sich gegen Kern- und Waffenforschung unter einem Dach wendet. Erstunterzeichner waren u.a. der Bürgermeister von Hiroshima, Jack Steinberger (USA, Physiknobelpreis) und Alyn Ware (Neuseeland, Alternativer Friedensnobelpreis).

KIT meets MIT

Die von der Initiative seit Mitte 2008 propagierte und publizierte Forderung nach der Zivilklausel zog immer weitere Kreise. Aufgrund einer Podiumsdiskussion mit der ver.di-Landesbezirksvorsitzenden Leni Breymaier und Friedenswissenschaftlern im Februar 2009 wurden langjährige Rüstungsforschungszusammenhänge der Universität Karlsruhe aufgedeckt und die Gegenwehr gegen Rüstungsforschung an der Universität Tübingen Anfang der 1990er Jahre mit der Forderung nach einer Zivilklausel in Erinnerung gerufen. Hierbei war und ist die enge Zusammenarbeit mit Lothar Letsche von der GEW-Landesfachgruppe Hochschule und Forschung und die tatkräftige Unterstützung des ver.di-Bezirks und -Landesbezirks von großer Bedeutung. Mit einer Serie von Anfragen im Bundestag durch die Fraktion DIE LINKE und im Landtag durch die Faktionen SPD und Bündnis 90/GRÜNE wurde Aufklärung und Unterstützung zuteil.

Die Internationalisierung der Initiative setzte sich im Dezember 2009 mit einem bemerkenswerten Gastvortrag im voll besetzten Streikhörsaal der Universität fort. Auf Einladung der Initiative und der bildungsstreikenden Studierenden sprach Subrata Ghoshroy vom Massachusetts Institute of Technology (MIT) – ausgerechnet von dem offen propagierten, privat- und rüstungsfinanzierten KIT-Vorbild aus den Vereinigten Staaten. Und es sprach kein MIT-Bewunderer, sondern ein Friedenswissenschaftler und Whistleblower, der aus der Laserwaffenforschung ausgestiegen war und am Beispiel des MIT vor den verheerenden Folgen militarisierter Wissenschaften warnte und die Notwendigkeit der Zivilorientierung mit eindrucksvollen Fakten untermauerte.

Vorbilder Tübingen und Konstanz

Ebenfalls im Dezember 2009 hatte der Senat der Universität Tübingen auf Initiative der streikenden Studierenden eine Zivilklausel als Präambel zur Grundordnung beschlossen. Das war überraschend und ermutigend, weil das der Senat zwei Jahrzehnte zuvor gegen den Willen der Landesregierung noch nicht gewagt hatte. Dem Druck hatte sich damals in Baden-Württemberg nur die Universität Konstanz widersetzt. Deren Großer Senat beschloss 1991 auf Antrag der Studierendenvertretung eine Zivilklausel, die mit Hilfe der GEW regelrecht »ausgegraben« und vom U-AStA im April 2010 in einer Friedensparty als gültige, vorbildliche Friedensbindung einer Universität gefeiert wurde.

Den Tübinger Beschluss nahm die Initiative zum Anlass, die Universität Karlsruhe in einem weiteren Offenen Brief aufzufordern, diesem Beispiel zu folgen und die Zivilklausel ebenfalls in der Grundordnung zu verankern. Das ist rechtlich problemlos möglich. Im Rahmen des KIT-Gesetzes nach Landesrecht gibt es weiterhin eine Grundsatzung des Universitätsteils, die gerade in Arbeit ist.

Der INES-Appell für eine KIT-Zivilklausel und der Vortrag von Subrata Ghoshroy haben dazu geführt, dass die Idee einer in den Statuten verankerten Friedensbindung nach dem Modell der Zivilklausel auch international immer mehr Anklang findet. Der über die KIT-Problematik hinausführende Internationale Appell gegen Forschung und Lehre für militärische Zwecke und für Zivilklauseln an den Hochschulen wurde im Rahmen eines Treffens von Nichtregierungsvertretern bei der NVV-Überprüfungskonferenz 2010 in New York vorgestellt und stieß auf einhellige Unterstützung. Weitere Erstunterzeichner konnten im August 2010 bei den Feierlichkeiten zum Jahrestag des Atombombenabwurfs in Hiroshima geworben werden. Damit wird eine neue Dimension eröffnet, die globale Verantwortung der Wissenschaften in das öffentliche Bewusstsein zu rücken.

Ironie der Geschichte

Die herrschende deutsche Politik der 1960er Jahre betrachtete die Beschränkung auf die zivile Nutzung der Kernenergie als notwendiges Übel, das bei nächster Gelegenheit beiseite geräumt werden sollte. Adenauer und Strauß wollten die deutsche Atombombe. Der Einstieg in den Kompetenzerwerb für Kernwaffenzwecke wurde mit der zivilen Bindung nicht behindert. Und für »zuverlässiges« Führungspersonal wurde gesorgt. Im Fall Karlsruhe waren das für die wissenschaftliche Leitung der Gesellschaft für Kernforschung zwei Rüstungswissenschaftler aus der NS-Zeit (einer davon, Dr. Walther Schnurr,7 war Hitlers Sprengstoff-Experte und half in den 1950er Jahren dem argentinischen Diktator Peron beim Atombombenbau) und für die administrative Leitung zwei NS-Juristen (einer davon, Dr. Rudolf Greifeld,8 war im besetzten Frankreich in der Wehrmachtverwaltung Groß-Paris u.a. für Drancy zuständig, das Durchgangslager zur Hölle Auschwitz, Anfang der 1970er Jahre wegen antisemitischer Äußerungen in den vorzeitigen Ruhestand versetzt).

Es kam anders: Die innenpolitische Gegenwehr, die sich z. B. 1957 im Göttinger Appell manifestierte, und die Furcht in den Nachbarländern vor einer neuen deutschen Machtentfaltung war zu groß. Neue Aufgabenfelder, anderes Führungspersonal und der jahrzehntelange unermüdliche Kampf um friedliche Orientierung und betriebliche Demokratie im (Kern-) Forschungszentrum haben aus dem Paragrafen »Zivilklausel« einen ansehnlichen Exportartikel gemacht.

Kerntechnische Kompetenz und Killer-Roboter

Betreffend KIT gibt es allerdings keinerlei Gründe, sich zurückzulehnen. Im Gegenteil: Der Widerstand der Landesregierung und neuerdings auch der Bundesregierung gegen eine einheitliche KIT-Zivilklausel hält an. Gegen das selbst verordnete KIT-Trennungsgebot – Großforschung & Kernforschung hier, Universitätsforschung da – wurde mit der Gründung eines Kerntechnik-Instituts im Universitätsteil gleich zu Beginn verstoßen. Die beiden einzigen Hochschul-Befürworter für den Ausstieg aus dem Kernenergie-Ausstieg sind KIT-Präsident Prof. Hippler und der Präsident der TU München, Prof. Herrmann (die TU München betreibt den Forschungsreaktor FRMII mit Waffenuran). Ein Schelm, wer dabei an den kerntechnischen Kompetenzerhalt für weitergehende Zwecke denkt. Zur Beruhigung kann die eingangs zitierte neue NATO-Strategie wohl kaum beitragen. Und die Bundesregierung9 besteht auf der »nuklearen Teilhabe«, was auch immer das morgen bedeuten mag, wenn der deutsche Machtanteil im Kriegsbündnis NATO weiter zunimmt.

Was die konventionelle Rüstung angeht, beschreitet das KIT auch merkwürdige Pfade. Für das von Rheinmetall Defence angeführte europäische Rüstungsprojekt »unbemannte kognitive Fahrzeuge« (»Killer-Roboter«, Stichwort: „Drohnen für unsere Streitkräfte zu Lande, zu Wasser und in der Luft“) wurde ein 10 Mio. Euro teures, angeblich rein ziviles KIT-Forschungsprojekt aus der Taufe gehoben, gesteuert von zwei Projektleitern, die seit Jahren direkt in der Rüstungsforschung tätig sind.10 Der High-Tech-Drohnenkrieg11 der Zukunft wird in zivil-militärisch-industriellen Hochschulforschungskomplexen wie KIT Karlsruhe, CoTeSys München und Science Park Augsburg vorbereitet. Wenn, ja wenn die Studierenden und Beschäftigten mit Unterstützung der Öffentlichkeit diesem Kurs nichts entgegensetzen.

Gestaltungsaufgabe Frieden

Krieg und Militarisierung abzulehnen ist der erste notwendige Schritt. Die ebenso notwendige, aber schwerere Aufgabe ist es, den Frieden zu gestalten und dafür geeignete Formen zu finden. Die Zivilklausel hat sich als eine solche Gestaltungsform mit hohem Mobilisierungspotential herausgebildet.

Auf einem bundesweiten Vernetzungstreffen beim AStA der Universität Kassel wurde im Oktober 2010 das »Bündnis Zivilklausel« gegründet. Für 27.-29. Mai 2011 wird von mehreren Organisationen und Gremien12 zu einem großen Friedenskongress »Nein zur Militarisierung von Forschung und Lehre – Ja zur Zivilklausel« mit internationaler Beteiligung eingeladen. In Gewerkschaftsbeschlüssen13 wird die Aufnahme der Klausel in die Landeshochschulgesetze gefordert.

Der angekündigte Internationale Appell gegen Forschung und Lehre für militärische Zwecke und für Zivilklauseln an den Hochschulen ist bis jetzt (Stand November 2010) neben dem Bürgermeister von Hiroshima von den Nobelpreisträger/innen Paul Crutzen, Mairead Corrigan Maguire, Harry Kroto und Jack Steinberger sowie von Daniel Ellsberg (USA, »Pentagon Papers«) und dem langjährigen früheren Direktor des Max-Planck-Instituts für Meteorologie Hartmut Grassl unterzeichnet worden.

Die Zivilklausel verpflichtet die Hochschulleitungen und schützt die Mitarbeiterinnen und Mitarbeiter, ist aber kein Ersatz für das Gewissen und schon gar nicht für Wachsamkeit. Die konsequenteste Form des Widerstands, die massenhaft erklärte Selbstverpflichtung, jegliche Kriegsbeteiligung in Lehre und Forschung abzulehnen, kann durch diese Kampagne befördert werden.

Zweifellos ist die Bewegung gegen die Militarisierung des Bildungsbereichs von großer gesellschaftlicher Tragweite. Die Fortschritte sind ermutigend, müssen aber verstärkt werden. Ansporn können die Proteste gegen »Stuttgart 21« und die Castor-Transporte sein. Dass die Verhältnisse nicht so bleiben, wie sie sind, und sich rasch ändern können, dafür sei an die Proteste gegen den Vietnamkrieg und die Atomraketen-Stationierung erinnert.

Anmerkungen

1) Das neue Strategische Konzept der NATO kann von www.nato.int/cps/en/natolive/events_66529.htm abgerufen werden.

2) Erhard Denninger: Gutachten im Auftrag der Hans-Böckler-Stiftung zur Zulässigkeit der Zivilklausel, März 2009.

3) Betriebsrat Forschungszentrum Karlsruhe: Dokumentation »HGF-Tradition Zivilforschung – Nein zu ‚dual use’«, Juni 2002; http://hikwww1.fzk.de/br/content/pdf/HGF-Zivil-140602.pdf.

4) Webdokumentation »Zivilklausel oder Militärforschung«; www.stattweb.de/files/DokuKITcivil.pdf.

5) Dietrich Schulze: Hochschulen und Militärforschung. Friedenswerkstätten oder zivilmilitärische Forschungskomplexe, in: W&F 3-2009.

6) International Network of Engineers and Scientists for Global Responsibility (INES) Campaign 2009, »Abandonment of Military Research & Civil Clause«; www.inesglobal.com/abandonment-of-military-research.phtml.

7) Gordon Edwards: Canada’s Nuclear Industry and the Myth of the Peaceful Atom, Chapter 6, Canada and the Nuclear Arms Race, 1983. Bürgerinitiative Umweltschutz Hamm e.V.: Nukleare »Rattenlinie«, THTR Rundbrief Nr.112, April 2007.

8) Serge Klarsfeld, Deutsche Dokumente 1941-1944. Die Endlösung der Judenfrage in Frankreich, 1977, S.13. Ärgernis am ILL Grenoble – 350 französische Wissenschaftler fordern die Abberufung von R. Greifeld, Frankfurter Allgemeine Zeitung, 26.11.1975.

9) André Scheer, Kanzleramt will Atomwaffen behalten – Wikileaks dokumentiert, junge Welt 01.12.2010.

10) Dietrich Schulze, Neues vom Karlsruhe Institute of Technology (KIT), unsere zeit, 08.01.2010.

11) Michael Haid: Ferngesteuerte Killer, junge Welt, 12.11.2010. P.W. Singer: Der ferngesteuerte Krieg, Spektrum der Wissenschaften 26.11.2010; www.spektrum.de/artikel/1050008&_z=798888. Loring Wirbel: Kriegsführung mit Drohnen, W&F 3-2010.

12) ver.di, GEW, NaturwissenschaftlerInnen-Initiative »Verantwortung für Frieden und Zukunftsfähigkeit«, International Association of Lawyers Against Nuclear Arms (IALANA), Bund demokratischer Wissenschaftlerinnen und Wissenschaftler (BdWi) und AStA der TU Braunschweig.

13) Beschlüsse der Delegiertenkonferenz ver.di Mittelbaden-Nordschwarzwald vom 23.10.2010; http://stattweb.de/files/civil/ Doku20101023.pdf.

Dr.-Ing. Dietrich Schulze ist Beiratsmitglied der NaturwissenschaftlerInnen-Initiative »Verantwortung für Frieden und Zukunftsfähigkeit«. Er war von 1966-2005 wissenschaftlicher Mitarbeiter und von 1984-2005 Betriebsratsvorsitzender des Forschungszentrums Karlsruhe.

Forschen – erkennen – handeln

Forschen – erkennen – handeln

23.-25. Oktober 2009 – Berlin

von Barbara Dietrich

Im Oktober 2009 feierte die Vereinigung deutscher Wissenschaftler (VDW) in Berlin ihr 50jähriges Bestehen. Im Jahre 1959 von Carl-Friedrich von Weizsäcker und den Nobelpreisträgern Max Born, Otto Hahn, Werner Heisenberg und Max von der Laue gegründet, war sie geleitet von der Überlegung, dass eine permanente kritische Reflexion der Forschenden über die Auswirkungen ihrer Arbeit auf die Gesellschaft notwendig sei und verantwortlicher öffentlicher Diskussion bedürfe.

An den folgenden Tagen hatte die VDW in Kooperation mit der Deutschen Physikalischen Gesellschaft (DPG) zum Kongress »Forschen – erkennen – handeln: Verantwortung von Wissenschaft und Forschung in einer globalisierten Welt« eingeladen. Zunächst konzentriert sich dieser Bericht auf das Thema, das allen Referaten – programmgemäß – inhärent war: die Verantwortung der Wissenschaftler/innen in Forschung und Lehre – derzeit und zukünftig.

Es bestand Konsens darüber, dass die Zurückhaltung der (Natur)wissenschaften gegenüber Gesellschaft, Öffentlichkeit und politischen Handlungsoptionen – nach dem 2. Weltkrieg eine Reaktion auf die NS-Zeit – endgültig aufgegeben werden müsse. Da Wissenschaftler/innen in der Lage seien, die Folgen ihrer Arbeit vorausschauend einzuschätzen, seien sie schon mit Rücksicht auf die nachfolgenden Generationen verpflichtet, über z.B. existenzbedrohende technologische Möglichkeiten oder vermutete bzw. absehbare Gefahren, die sie im Kontext ihrer Forschungen erkennen, zu reflektieren, öffentlich aufzuklären, Alternativen zu entwickeln und zu deren politischer Implementierung beizutragen. Exemplarisch wurde mehrmals auf die »Göttinger Erklärung« im Jahre 1957 Bezug genommen, mit der 18 Atomforscher, unter ihnen die o.g. Gründungsmitglieder der VDW, in die damals aktuelle Diskussion eingegriffen und öffentlich vor einer atomaren Bewaffnung der Bundeswehr gewarnt hatten – bekanntlich mit Erfolg.

Die Wahrnehmung der Verantwortung für zukünftige Entwicklungen sei allerdings, so mehrere Referenten, nur möglich, wenn die Kooperation der verschiedenen Wissenschaftsdisziplinen untereinander zunähme: nur dann könnten die heutigen Probleme in ihrer Mehrdimensionalität erfasst und adäquat bearbeitet werden. Jene sei zudem als eine ethische Aufgabe zu begreifen, die in jeder Wissenschaftsdisziplin relevant sei und jeweils der Implementierung bedürfe.

Die Verpflichtung der Wissenschaftler/innen, öffentliche Aufklärung und kritischen Diskurs zu initiieren, dürfe sich nicht nur auf die externe Öffentlichkeit beziehen, sondern müsse ebenso im Rahmen der Lehre gelten. Die Weitergabe von Fachwissen verstehe sich von selbst, darüber hinaus gelte es aber, mit den Studierenden Kriterien zu entwickeln, die es ihnen ermöglichten, Fachwissen und Forschungsergebnisse kritisch zu überprüfen, zu problematisieren und gegebenenfalls zu verwerfen. Soziale Gerechtigkeit, friedliches Zusammenleben, Umweltverträglichkeit, Endlichkeit der natürlichen Ressourcen könnten solche Kriterien sein.

Fachliche Schwerpunkte des überaus umfangreichen Programms waren Aspekte der Globalisierung und des Klimawechsels sowie Chancen und Probleme der nuklearen Abrüstung. Unmöglich, einen Überblick über die von meist renommierten Wissenschaftlern/innen vorgetragenen Fachreferate (www.vdw.de) zu geben. Deshalb werden hier einige signifikante Überlegungen aus den jeweiligen Schwerpunkten vorgestellt. Verschiedene Referenten warnten davor, dem Fetisch »Wachstum« absoluten Vorrang vor z.B. umweltbezogenen und sozialen Aspekten der Marktwirtschaft einzuräumen: Wachstum im Kontext der Globalisierung impliziere unbegrenzte Ausbeutung in einer Welt begrenzter Ressourcen und habe u.a. wachsende Armut, übermäßige Belastung der Umwelt und langfristig Gefährdung der Lebensgrundlagen für die nachfolgenden Generationen zur Folge (Buchmann, Neef, Schneider). In der internationalen Forschung gebe es zwei Communities: die eine, die der Wahrheitsfindung verpflichtet sei, und die andere, die auf kurzfristige ökonomische Verwertbarkeit abziele, dem im Zuge der Globalisierung vorherrschenden Trend folgend. Die zunehmende Privatisierung der Forschung bringe es mit sich, dass die Ausrichtung an der kurzfristigen ökonomischen Verwertbarkeit – den Interessen der jeweiligen Auftraggeber folgend – die Oberhand gewinne. Auch die Denkhorizonte der Politiker/innen seien kurzfristig, nämlich an den 4-jährigen Legislaturperioden ausgerichtet. Wissenschaftler und Forscher/innen müssten demgegenüber in ihrer Arbeit und in der öffentlichen Diskussion um Zukunftsperspektiven neu und langfristig denken, auf Begrenzung des Wachstums zugunsten der Erhaltung der Umwelt und des Vorrangs des Gemeinwohls hinwirken, diese als fundamentale Zielvorgaben bewusst und bekannt machen. China und Korea, die jeweils ein Konjunkturprogramm zur Ökologisierung ihrer Wirtschaft eingesetzt haben, seien insoweit Vorbilder (v. Weizsäcker).

Der Markt sei globalisiert, die Rechtsregeln seien dagegen nationale geblieben, was zur Folge habe, dass Recht und Demokratie auf der Strecke blieben. Es gelte, den Markt, insbesondere die Internationalen Finanzmärkte international geltenden Rechtsregeln zu unterwerfen – eine Forderung, die von angelsächsischer Seite bisher abgelehnt worden sei, die aber weiter verfolgt werden müsse, weil Demokratie und Freiheit des Schutzes gegenüber uneingeschränkten Kräften des Marktes/der Finanzmärkte bedürften (Kreibich, v. Weizsäcker).

Zur Frage der nuklearen Abrüstung wurde in Barack Obamas Vision einer atomwaffenfreien Welt eine neue Chance gesehen. Sie müsse genutzt werden angesichts der Tatsache, dass weltweit mehr als 20.000 Nuklearwaffen existierten, von denen 480 in Europa stationiert seien, dass die USA und Russland etwa 1.000 einsatzbereite und zum Ersteinsatz geeignete nukleare Gefechtsköpfe besäßen, dass möglicherweise auch kleinere, nicht vom nuklearen Schirm der USA geschützte Staaten den Besitz von Atomwaffen anstrebten und dass schließlich der Nuklearterrorismus eine akute Gefahr darstelle. Der Atomteststoppvertrag müsse dringend von den USA ratifiziert werden, wozu Obama bisher 7 Stimmen aus dem republikanischen Senatslager fehlten. Auch müsse der START I-Folgevertrag verabschiedet werden, der vorsehe, dass die Zahl der Atomsprengköpfe der USA und Russlands jeweils auf 1.500 bis 1.675 reduziert werden. Und schließlich solle die Produktion von hoch angereichertem waffenfähigen Uran (HEU) und von Plutonium verboten und die Menge spaltbaren Materials sowie die Zahl der Standorte, an denen es gefunden werden kann, reduziert werden. Obama bedürfe der Unterstützung durch die Zivilgesellschaft, deshalb sei es Aufgabe der Wissenschaftler/innen, der Öffentlichkeit die mit Nuklearwaffen verbundene tödliche Gefahr – derzeit weitgehend vergessen – erneut bewusst zu machen (v. Hippel, Kalinowsky).

Anhand mehrerer Beispiele (Südafrika, Libyen, Nordkorea, Iran, Irak) werde deutlich, dass die Kontrollmaßnahmen auf der Grundlage des Atomsperrvertrages (NPT) im Hinblick auf nukleare Aktivitäten nicht effektiv seien, wiewohl durch das Zusatzprotokoll 1997 die Informationspflichten der zu kontrollierenden Staaten erweitert, der IAEO der kurzfristige Zugang zu entsprechenden Anlagen gestattet und neue Informationstechniken, z.B. Satellitenaufnahmen, für zulässig erklärt worden waren. In der internationalen Forschung werde deshalb die Arbeit an der Entwicklung neuer Techniken und Instrumente für die Entdeckung nicht gemeldeter nuklearer Aktivitäten, Anlagen und Materialien intensiv fortgeführt. Gleichzeitig gewinne die Zivilgesellschaft durch verstärkten Einsatz ihrer bisherigen und neuer Kontrollmöglichkeiten an Bedeutung. Und schließlich gebe es in vielen Ländern – ähnlich wie auch in Deutschland – Kampagnen, die mit Nachdruck die vollständige Abschaffung aller Atomwaffen forderten (Kalinowsky).

Sehr interessant und zukunftsweisend war die Vorstellung der Nuklearforensik, einer Forschungsdisziplin, die seit Beginn der 1990er Jahre im Institut für Transurane (ITU) in Karlsruhe in Zusammenarbeit mit anderen internationalen Forschungsinstituten entwickelt wird. Komplementär zu den Verifikationstechniken im Rahmen des NPT entwickeln Nuklearforensiker u.a. Methoden, die es ermöglichen, gefundenes und eventuell waffenfähiges Nuklearmaterial, das verschwunden war oder gestohlen oder illegal gehandelt wurde, als solches zu identifizieren und anhand bestimmter Eigenschaften spezifischen Produktionsverfahren und Herkunftsregionen/orten zuzuordnen. Diese Disziplin ist essentiell für die Bekämpfung des nuklearen Terrorismus und des internationalen Atomschmuggels (Mayer).

Der anthropogene Klimawechsel als Folge der Erderwärmung wurde allseits als eine große drohende Gefahr für das Leben auf der Erde hervorgehoben (Graßl, Buchmann, Umbach). „Wer hat, dem wird gegeben; wer nichts hat, dem wird genommen“ – so beschrieb ein Referent das Muster derzeitiger Niederschläge, wie es z.B. in der zunehmend austrocknenden Mittelmeerregion beobachtet werde. Die augenblickliche Verlangsamung der Klimaerwärmung sei nur ein Scheinerfolg, da sie der Wirtschaftskrise geschuldet sei (Graßl). Ansonsten gehe der Klimaschutz langsamer voran als vorgesehen und notwendig. Der Vizepräsident der DPG, Umbach, erntete allerdings lebhaften Widerspruch, als er unter Bezugnahme auf ein Gutachten seiner Organisation forderte, die Kernkraftwerke länger laufen zu lassen als es der rotgrüne Koalitionsvertrag vorsah: Nur wenn sie nicht bis 2020 abgeschaltet würden, könne das Ziel der jetzigen Regierung, die Treibhausemissionen bis dahin um 40% zu reduzieren, annähernd erreicht werden.

Abschließend sei noch auf einen krassen Gegensatz hingewiesen, der mehrfach thematisiert wurde: im Jahr 2008 beliefen sich die Rüstungsausgaben weltweit auf 1,4 Billionen $. Demgegenüber gab es im Jahr 2009 weltweit 1,2 Billionen hungernde Menschen. Zahlen, die Empörung hervorrufen, umso mehr, wenn man sich die Wirklichkeit, die sie ausdrücken, vor Augen führt.

Barbara Dietrich

Wissenschaftler

Wissenschaftler

Verantwortung und der Krieg

von Dave Webb

Am 11. September 1939, kurz nach dem Ausbruch des Zweiten Weltkrieges, erschien im »Time Magazine« ein Beitrag mit dem Titel »Wissenschaft und Krieg«. Der Artikel brachte die Ansicht zum Ausdruck, dass Wissenschaftler nicht dafür verantwortlich gemacht werden können, wie ihre Entdeckungen von „Männern mit schlechtem Ruf“ verwandt und missbraucht werden zur „Unterwerfung und Ermordung von Menschen“. Auch wenn es zutrifft, dass WissenschaftlerInnen oft nicht wissen können, wie ihre Erfindungen in der Zukunft genutzt werden, so sind es doch gewöhnlich Wissenschaftler und Ingenieure, die sich darüber Gedanken machen, welchen Verwendungen die Entdeckungen zugeführt werden können, und die sie weiterentwickeln zu Waffensystemen.

Der Beitrag fährt damit fort, wie Lord Rutherford während des Ersten Weltkrieges vermied, an Verfahren der U-Boot-Entdeckung für das Militär zu arbeiten, indem er erzählte, dass es kurz vor dem Durchbruch bei der Atomspaltung sei und dass „der Nachweis atomarer Zertrümmerung von weit größerer Bedeutung als der Krieg selbst“ sei. Im Beitrag findet sich dazu interessanterweise der Kommentar: „Wie sich herausstellte, was es das nicht.“ Den Herausgebern des »Time Magazine« war zu jener Zeit der berühmte Brief an Präsident Roosevelt, unterschrieben von Einstein und datiert auf den 2. August 1939, ohne Zweifel noch nicht bekannt. In diesem Brief wurde der Präsident davor gewarnt, dass Nazi-Deutschland an der Nuklearspaltung forsche, mit dem Ziel eine Atombombe herzustellen. Dieser Brief führte zum US-geführten »Manhattan-Projekt«, um noch vor Hitler Nuklearwaffen bauen zu können.

Es gab keine Zweifel am Grund und am möglichen Ergebnis dieses Projektes. Dazu wurden die fähigsten Wissenschaftler der USA und Europas rekrutiert, um unter der Kontrolle des »U.S. Army Corps of Engineers« und der wissenschaftlichen Leitung des Physikers J. Robert Oppenheimer tätig zu werden. Ihre Arbeit fand unter äußerster Geheimhaltung in Los Alamos statt – in einem eigens errichteten Ort in der Wüste New Mexicos. Die Beteiligten waren davon überzeugt, dass es lebenswichtig sei, die Atombombe vor Deutschland zu entwickeln, da sich niemand einen unangefochtenen Atomwaffenbesitz seitens der Nazis vorstellen mochte. Trotzdem verweigerten einige WissenschaftlerInnen die Mitarbeit. Die österreichische Physikerin Lise Meitner beispielsweise, die eine zentrale Rolle bei der Entdeckung der Atomspaltung gespielt und die im Reaktionsprozess frei werdende Energie berechnet hatte, schlug die Einladung zur Mitwirkung aus: „Ich will mit der Bombe nichts zu tun haben“ (Sime 1996).

Die meisten der angesprochenen Wissenschaftler stimmten einer Beteiligung jedoch zu und – wie es oft der Fall in der Wissenschaft und bei Entwicklungsproblemen ist – die Schwierigkeit der Problemlösung und die aufgeworfenen intellektuellen Herausforderungen erhielten bei den Beteiligten höchste Priorität. Die möglichen Nachwirkungen schienen nicht von vielen bedacht worden zu sein.

Mit der Niederlage Hitlers und der Entdeckung, dass es kein ernsthaftes Programm zur Entwicklung der Atomwaffe in Deutschland gegeben hatte, entschied die politische und militärische Führung, das Projekt fortzusetzen. Bis auf einen setzten alle Wissenschaftler ihre Arbeit am »Manhattan-Projekt« fort. Nur Joseph Rotblat verließ zu diesem Zeitpunkt das Projekt, weil der ursprüngliche Grund für seine Existenz nicht mehr gegeben war. Ein neuer Grund zur Fortführung wurde genannt – die Beendigung des Krieges gegen Japan so schnell wie möglich. Die Arbeit wurde fortgeführt und führte zur Zerstörung der Städte Hiroshima und Nagasaki, der Tötung bzw. schweren Verwundung von Hunderttausenden von Menschen und lang anhaltenden Verletzungen. Zugleich wurde ein nuklearer Waffenwettlauf in Gang gesetzt, dessen Drohung globaler Vernichtung bis heute existiert.

Einige der Wissenschaftler haben später ihre fortgesetzte Beteiligung bereut und die Frage, ob das Richtige getan wurde, ist immer noch Gegenstand von Diskussionen. Einige glaubten – möglicherweise naiv -, dass die Entwicklung von Atomwaffen den Krieg obsolet macht, weil ihr Gebrauch zu schrecklich sei – so wie Alfred Nobel gehofft hatte, die Erfindung des Dynamits im Jahr 1867 würde ähnlich wirken. Aber sie haben das militärische und politische Verlangen nach Überlegenheit und Macht entweder nicht verstanden oder ignoriert.

Die Rolle der Wissenschaft und des Wissenschaftlers im Krieg hat seit 1945 an Bedeutung zugenommen – nicht nur bei der Entwicklung von Waffentechnologien, einschließlich derjenigen der Massenvernichtung, sondern auch bei der Berechnung möglicher »Verlustraten« und der Formulierung militärischer und politischer Strategien durch Methoden wie der Spieltheorie. Als Folge hat militärische Finanzierung großen Einfluss bekommen auf die Richtung technologischen Wandels und auf die Perspektiven und Methoden der Wissenschaft. Brian Martin (1983) nimmt an, dass das große Ausmaß an militärischer Wissenschaftsförderung erhebliche Auswirkungen auf die Ausrichtung technologischer Innovation hat. Er behauptet, dass die hohe Präsenz von Themen wie Nuklearphysik, Gentechnologie und Plasmaphysik wenigstens zum Teil durch deren potentielle Bedeutung für die Kriegsführung zu erklären ist und dass der Maßstab für die Bedeutung einer Wissenschaft inzwischen mehr darin liegt, ob mit ihr die Natur manipuliert und kontrolliert werden kann, als dass diese verstanden wird. Für Martin ist Wissenschaft nicht nur eine Dienerin, sondern direkt Teil des Kriegssystems wie andere Staatsbürokratien auch. WissenschaftlerInnen sind stärker von den Entwicklungen und den finanziellen Ressourcen der Staaten abhängig geworden; daher orientieren sie sich stärker an dessen Bedarfen und sind nicht mehr unabhängig von ihm.

Aus dieser Perspektive kann die Herausbildung einer Antikriegswissenschaft nur als Teil eines umfassenden Vorhabens der Transformation eines auf Krieg basierenden Systems in eine Ordnung stattfinden, deren soziale Institutionen Kriegführung nicht zulassen. Allerdings ist eine solche gesellschaftliche Transformation extrem schwierig zu erreichen und ein langfristiger Prozess, so dass die Frage möglicherweise darin besteht, welche Hilfestellung und Beratung für WissenschaftlerInnen möglich sind, um die Fallstricke zu erkennen, die möglicherweise auftreten, und welche Leitlinien für die Entscheidungsfindung hinsichtlich des Ob und Wie der Weiterführung ihrer Forschung existieren.

Die ethischen Fragen, mit denen WissenschaftlerInnen konfrontiert sind, beschäftigen die in Großbritannien ansässigen »Scientists for Global Responsibility« (SGR) seit längerer Zeit. SGR ist eine unabhängige Organisation mit 1.000 Mitgliedern aus den Natur- und Sozialwissenschaften, Ingenieure, IT-Fachleuten und ArchitektInnen, die sich für ethisch vertretbare Wissenschaft und Technologie einsetzt – basierend auf den Prinzipien der Offenheit und Verantwortung, des Friedens und der sozialen Gerechtigkeit sowie der Umweltverträglichkeit.

Ethik in der Wissenschaft

Im Jahr 2000 befragte SGR Naturwissenschaftler und Ingenieure nach ihren Erfahrungen mit ethischen Dilemmata bei der Arbeit. 43 WissenschaftlerInnen füllten einen Fragebogen aus und 21 beteiligten sich an einem Interview. Als Probleme wurden u.a. benannt:

Nutzung der Arbeit führt zu steigenden sozialen bzw. Umweltbelastungen,

Missbrauch der Arbeit durch die Industrie,

Missbrauch der Arbeit durch das Militär,

Unterdrückung oder Manipulation der Arbeitsergebnisse,

Mitwirkung an Tierversuchen.

Die Ergebnisse dieser Studie und eine Diskussion der dort angesprochenen Probleme wurden in dem Bericht »An Ethical Career in Science and Technology?« (hrsg. von Stuart Parkinson und Vanessa Spedding) veröffentlicht. Im Vorwort wird Michael Atiyah zitiert, ein Ausnahme-Mathematiker des 20. Jahrhunderts, der 1997 in einer Schrödinger-Vorlesung sagte: „Wenn Sie etwas erschaffen, sollten Sie auch an die Folgen denken. Das sollte für die wissenschaftliche Forschung genau so gelten wie für's Kinderkriegen.“

Ein Schwerpunkt der Studie beschäftigt sich mit der Verantwortung der WissenschaftlerInnen für die Folgen ihrer Arbeit. Da PolitikerInnen oder BürgerInnen in der Regel sehr viel weniger von technischen Problemen verstehen, ist es wichtig, dass die Wissenschaftler nicht nur Wissen haben, sondern auch ein gutes Gespür für ihre Verantwortung. Oft können Wissenschaftler mit ihrem technischen Sachverstand dafür sorgen, dass unerwünschte Nebenfolgen neuer Entwicklungen erkannt werden, und sie können vor künftigen Gefahren warnen. Außerdem gehören die meisten Wissenschaftler internationalen Verbänden an, für die natürliche und politische Grenzen keine Rolle spielen. Das ist eine gute Voraussetzung, um die Dinge global zu betrachten und die Interessen der Menschheit und der Umwelt im Blick zu behalten.

Seit der Veröffentlichung von »An Ethical Career in Science and Technology?« sind zehn Jahre vergangen und es wäre interessant, heute eine ähnliche Studie durchzuführen und herauszufinden, ob sich die Probleme gewandelt haben oder noch dringlicher und wichtiger geworden sind. Inzwischen wurden an den Universitäten Ethikkommissionen etabliert und die meisten Studierenden der Natur- und Ingenieurswissenschaften müssen bei ihren Promotions- und anderen Projekten deren Regeln einhalten. Dennoch: Die Ethikkommissionen sind zwar in ein dichtes Bürokratie- und Verwaltungsgeflecht eingebettet, interessieren sich aber nur dafür, wie Forschung stattfindet, nicht warum, und sie kümmern sich normalerweise nicht um die möglichen Auswirkungen der Forschungsarbeiten. Folglich lernen die Studierenden, wo sie in den Genehmigungsformularen zur Forschungsethik die Häkchen setzen und wie sie Untersuchungen und Interviews korrekt durchführen müssen, sie werden aber nicht immer ermutigt, darüber nachzudenken, wohin die Ergebnisse ihrer Arbeit führen können. So wird zum Beispiel die Entwicklung neuer Massenvernichtungswaffen nicht kommentiert, solange die Untersuchungen richtig konzeptualisiert und durchgeführt werden. Die von ihnen entwickelten Produkte und Prozesse tragen vielleicht dazu bei, natürliche Ressourcen oder Gemeinschaften auszubeuten oder zu vernichten; auf den Ethikformularen sind für diesen Fall aber keine Kästchen vorgesehen. Diese Aspekte der Forschung werden nicht ernsthaft diskutiert, und das ist für Nachwuchswissenschaftler und -ingenieure, die ihre Fähigkeiten im Rahmen einer Karriere für Projekte einsetzen wollen, in denen sie gut sind und die sie interessieren, nicht hilfreich. Die Konzerne und Regierungen reden ihnen ein, dass die zuständigen Gremien die Einhaltung ethischer Standards und verantwortliches Handeln überwachen – dass die schwierigen moralischen Fragen bei diesen Gremien gut aufgehoben sind. Es gibt aber berechtige Gründe zum Zweifel. Denn wie können Forschende sicher sein, dass ihre Entdeckungen nicht in einer Weise benutzt werden, die sie nicht wünschen?

Die Dual-Use Problematik

Malcolm Dando (2009) hat kürzlich auf das Problem eines möglichen »dual use« von Forschungsergebnissen hingewiesen, bei dem eine bestimmte Entdeckung zu Anwendungen führt, die entweder gesellschaftlich nützlichen oder schädlichen Zwecken dienen. Als Beispiel nennt er den US-Wissenschaftler Arthur Galston, der in den 1940er Jahren entdeckt hat, dass der Einsatz bestimmter synthetischer Chemikalien den Entwicklungsprozess von Pflanzen beschleunigt, bei höheren Dosierungen diese jedoch ihre Blätter abwerfen. Gut zwanzig Jahre später musste er erkennen, dass dieses Wissen bei den umfangreichen Entlaubungsoperationen in Vietnam eine grundlegende Rolle spielte. Er selbst wandte sich entschieden gegen diese Verwendung seiner Forschungsresultate.

Dando verweist auch auf die Idee der Herausbildung einer »Kultur der Verantwortlichkeit« und auf den freiwilligen »Responsible Conduct of Research« (RCR) des U.S. Office of Research Integrity, in dem die eher traditionellen Verantwortlichkeiten von Forschenden angesprochen werden, wie die Frage von Interessenskonflikten, die Einbeziehung von Menschen in die Forschung und Fehlverhalten. Er schlussfolgert jedoch, dass weder der RCR noch die U.S. National Academies of Science mit ihrer Publikation »On Being a Scientist: A Guide to Responsible Conduct in Research« besonderes Augenmerk „auf die Möglichkeit der Nutzung wissenschaftlicher Forschung für unheilvolle Ziele bzw. Möglichkeiten entsprechender Risikosensibilisierung“ legen.

Die Welt steht vor gewaltigen Problemen. Der anthropogene Klimawandel und die nukleare Weiterverbreitung sind enorme Herausforderungen; unsere Handlungen und politischen Entscheidungen der nächsten Jahre entscheiden vielleicht über das Überleben unseres Planeten. Das Artensterben vollzieht sich momentan etwa 1.000 Mal schneller als normal, jedes Jahr werden etwa 300.000 Menschen in Kriegen getötet, jährlich sterben eine Million Menschen im Straßenverkehr und über eine Milliarde Menschen leben in absoluter Armut. Wissenschaftler und Ingenieure können bei der Bewältigung dieser Probleme helfen, sie ignorieren – oder sie verstärken.

Ein Ethik-Code für WissenschaftlerInnen

Als Antwort auf Bedenken hinsichtlich der Anwendungen und Auswirkungen von Forschung sowie der potentiellen Gefahren bei der Entwicklung moderner Waffen hat eine Gruppe von WissenschaftlerInnen aus dem schwedischen Uppsala einen »Ethik-Code für WissenschaftlerInnen« (Gustaffson u.a. 1984) entwickelt. In der Einleitung heißt es, dass „er für den einzelnen Wissenschaftler gedacht ist. Denn es ist vor allem die Aufgabe des Forschers bzw. der Forscherin selbst, die Auswirkungen seiner/ihrer Forschungen einzuschätzen. Eine solche Bewertung ist immer schwer vorzunehmen und wird nicht bis ins Letzte möglich sein; WissenschaftlerInnen haben gewöhnlich auch nicht die Kontrolle über ihre Forschungsergebnisse, deren Anwendung oder gar – wie in vielen Fällen – die Planung der eigenen Arbeit. Dennoch darf dies den einzelnen Forscher nicht davon abhalten, einen ernsthaften Versuch zu unternehmen, kontinuierlich die möglichen Auswirkungen seiner/ihrer Forschung zu bewerten, diese Urteile bekannt zu machen und sich von solcher Forschung zurückzuziehen, die er/sie für unethisch hält.“

In dieser Hinsicht erklärt der Code insbesondere folgende Aspekte für handlungsrelevant:

Forschung soll so ausgerichtet sein, dass ihre Anwendungen und anderen Auswirkungen keinen relevanten ökologischen Schaden anrichten.

Forschung soll so ausgerichtet sein, dass es ihre Konsequenzen für gegenwärtige und zukünftige Generationen nicht schwieriger machen, eine gesicherte Existenz zu führen. Daher sollten sich Forschungsanstrengungen nicht darauf richten, Anwendungen oder Fähigkeiten zu entwickeln, die im Krieg oder zur Unterdrückung eingesetzt werden. Außerdem soll Forschung nicht so ausgerichtet sein, dass ihre Auswirkungen mit grundlegenden Menschenrechten, wie sie in internationalen Abkommen zu bürgerlichen, politischen, ökonomischen, sozialen und kulturellen Rechten zum Ausdruck kommen, in Konflikt geraten.

Der/die WissenschaftlerIn hat eine besondere Verantwortung, die Auswirkungen der eigenen Forschung sorgsam abzuschätzen und diese Bewertung publik zu machen.

WissenschaftlerInnen, die zum Schluss kommen, dass die Forschung, die sie machen oder an der sie beteiligt sind, gegen den Code verstoßen, sollen diese Arbeit nicht fortsetzen und öffentlich die Gründe für ihr Urteil kenntlich machen. Solche Bewertungen sollen sowohl die Eintrittswahrscheinlichkeit als auch die Schwere der negativen Auswirkungen berücksichtigen.

Vergleichbare Überlegungen finden sich auch im Buch von Robert Hinde und Joseph Rotblat mit dem Titel »War no More« (2003): „In einer Zeit, in der wissenschaftlicher Fortschritt zur Entwicklung von Waffen bisher unbekannter Zerstörungskraft führen kann, obliegt es den Forschenden, sich ihrer sozialen Verantwortung bewusst zu sein und nicht wissentlich Forschungen durchzuführen, die der Gesellschaft Schaden zufügen können.“

Allerdings macht es die Richtung, die die Forschungsförderung genommen hat, den WissenschaftlerInnen zunehmend schwer, Arbeitsfelder zu meiden, in denen zukünftig Probleme auftreten können. Im Jahr 2005 veröffentlichten die SGR »Soldiers in the Laboratory«, einen detaillierten Bericht über das Ausmaß der Beteiligung des Militärs an Forschung und Entwicklung, der die Größe seiner Lobby-Netzwerke und die damit verbundenen ethischen und politischen Aspekte deutlich machte.

Der Bericht legte auch offen, dass Großbritannien der weltweit zweitgrößte Förderer militärisch ausgerichteter Forschung ist. Im Haushaltsjahr 2003/04 kamen 30% des gesamten öffentlichen Budgets für Forschung und Entwicklung vom Verteidigungsministerium, das auch 40% des in diesem Bereich eingesetzten Personals beschäftigte. Der Bericht schlug vor, Ethik zu einer zentralen Kompetenz der akademischen Ausbildung, aber auch in der breiteren Öffentlichkeit zu machen, um so zu verantwortlichem und ethischem Handeln zu ermutigen. Allerdings verwies das Dokument auch darauf, dass die Verantwortung für die Entwicklung ethisch vertretbarer Wissenschaft und Technologie bei der Gesellschaft als Ganzer liege und daher eine weit größere öffentliche Beteiligung an Entscheidungsprozessen wünschenswert sei. Zudem müssten das Ausmaß der Wissenschaftsförderung durch Interessengruppen einer öffentlichen Überprüfung zugänglich sein und die Universitäten beauftragt werden, detailliert ihre Geldquellen offen zu legen.

Da die Kommerzialisierung und Politisierung von Wissenschaft und Technologie sowie der Einfluss des militärisch-industriell-akademischen Komplexes wächst, sind WissenschaftlerInnen und Ingenieure immer mehr mit dem ethischen Dilemma konfrontiert, dass ihnen die zukünftige Entwicklung ihrer Forschungen aus der Hand genommen wird und für etwas eingesetzt wird, das sie nicht akzeptieren. Forschungsergebnisse können vom Auftraggeber verfälscht oder der Geheimhaltung unterworfen werden, um damit kommerzielle Ziele oder politische Vorteile zu erreichen. WissenschaftlerInnen, die mit solchen Dingen zu tun haben, verfügen gegenwärtig über wenig oder keine Fähigkeiten damit umzugehen. Die SGR-Schrift »Ethical Career in Science and Technology« enthält folgende Hinweise für Studierende der Naturwissenschaften:

Informiere Dich über die sozialen und ökologischen Aspekte Deiner Disziplin.

Entwickle »transferierbare Fähigkeiten«.

Sammle auf freiwilliger Basis oder im Urlaub Erfahrungen jenseits von Wissenschaft und Technologie.

Hole Dir Unterstützung und Rat von den SGR oder von anderswo.

Regierungen und internationale Unternehmen werden nur selten für ihre Sünden zur Verantwortung gezogen; und selbst in den Fällen, in denen Kritik formuliert wird, gibt es wenige Beispiele, wo auch ernsthaft eingegriffen wurde. Daher ist es so besonders wichtig, dass NaturwissenschaftlerInnen und IngenieurInnen sorgsam die ethischen Implikationen ihrer Arbeit berücksichtigen. Wenn sie es nicht machen, wer dann?

Literatur

Dando,M. (2009): Bringing a »culture of responsibility« to life scientists, The Bulletin of Atomic Scientists 18 December 2009.

Gustafsson, B., Ryden, L., Tibell, G. & Wallenstein, P. (1984): Focus on: The Uppsala Code of Ethics for Scientists, Journal of Peace Research Vol. 21, No 4, S.311-316.

Hind, R. & Rotlblat, J. (2003): War no More – Eliminating Conflict in the Nuclear Age. Pluto Press, London.

Langley, C., Parkinson, S. & Webber, P. (2005): Soldiers in the Laboratory. Scientists for Global Responsibility, UK. http://www.sgr.org.uk/pubdescs/SITL.html

Langley, C. Parkinson, S. & Webber, P. (2007): More Soldiers in the Laboratory. Scientists for Global Responsibility, UK. http://www.sgr.org.uk/pubdescs/MSITL.html

Langley, C., Parkinson, S. & Webber, P. (2008): Behind Closed Doors. Scientists for Global Responsibility, UK. http://www.sgr.org.uk/pubdescs/BCD.html

Langley, C. & Parkinson, S. (2009): Science and the Corporate Agenda. Scientists for Global Responsibility, UK. http://www.sgr.org.uk/pubdescs/SATCA.html

Martin, Brian (1983): Science and war, in: Arthur Birch (ed): Science Research in Australia: Who Benefits? Canberra: Centre for Continuing Education at Australian National University, S.101-108.

Parkinson, S. & Spedding, V. (eds) (2001): An Ethical Career in Science and Technology. Scientists for Global Responsibility, UK. http://www.sgr.org.uk/ethics.html

Sime, R.L. (1996): Lise Meitner: A Life in Physics, California Studies in the History of Science, Volume 13, (Ed) J.I. Heilbron, University of California Press, London.

Time (1939): Science and War, Time Magazine, September 11, 1939 – abrufbar unter http://www.time.com/time/magazine/article/0,9171,711767-1,00.html

Dave Webb ist Professor am »Praxis Centre« der Leeds Metropolitan University und hat zahlreiche Beiträge zu den Themen Krieg und Frieden verfasst.

Gedanken zur Entwicklung eines Forschungsprogramms

Gedanken zur Entwicklung eines Forschungsprogramms

von Elizabeth Dauphinee

Mein Doktorand und ich sitzen in meinem Büro und trinken schwarzen Tee, während die Morgensonne durch die Jalousie dringt. So haben wir bereits mehrere Tage verbracht. Wir diskutieren einen Vortrag, an dem wir für eine Konferenz im April an der Universität von Illinois arbeiten, zu der wir eingeladen wurden.

Unser Ziel ist es, die aktuelle Beziehung zwischen dem türkischen Staat und seiner alevitischen Bevölkerung zu untersuchen und die historischen und politischen Bedingungen zu verstehen, die zu staatlich unterstützter Gewalt gegen die Aleviten geführt haben. Bislang haben wir versucht, mehr über die diskursiven Mechanismen in Erfahrung zu bringen, durch die der Staat versucht, die ihn konstituierenden Bevölkerungsgruppen fassen zu können.1 Wir theoretisieren diesen Zusammenhang mit Hilfe eines biopolitischen Ansatzes, weil dies das Thema der Konferenz in Illinois ist und weil ich als Expertin zum Thema Biopolitik gelte. Allerdings bin ich keine Türkeiexpertin und ich weiß so gut wie nichts über die Aleviten und das Alevitentum. Ich hätte mich auch nicht mit der Türkei beschäftigt, wenn ich nicht die Betreuung eines Doktoranden aus Istanbul mit Interesse an Fragen von Nationalismus und Identität übertragen bekommen hätte. In diesem Sinne war es also Zufall.

Schon im Normalfall sehe ich mich gerne als kaum meines akademischen Postens würdig, aber je mehr ich über die Aleviten lese, desto verwirrter werde ich. Die Aleviten, soweit ich das verstanden habe, verweigern sich den Kategorien, die gewöhnlich zur Klassifizierung »nationaler Minderheiten« verwandt werden. Sie sind weder eine ethnische noch sprachliche Gruppe, da viele von ihnen TürkInnen sind. Genau genommen sind sie auch keine religiöse Minderheit, weil viele Aleviten sich als Muslime verstehen – und auch von anderen so gesehen werden. Obwohl viele von ihnen historisch zur politischen Linken gehören2, können sie auch nicht als politische Minderheit angesehen werden.

Mein Doktorand besorgt mir Aufsätze und Bücher zur Lektüre und je mehr ich lese, desto mehr bin ich davon überzeugt, dass ein Problem hinsichtlich der staatlichen Fähigkeit existiert, mit dieser Bevölkerungsgruppe zu interagieren, weil diese nicht in die Kategorien passt, die normalerweise mit der Identität nationaler Minderheiten assoziiert werden. Das ist kein besonders neuer Gedanke, aber ich bin überheblich genug anzunehmen, dass, wenn ich nach Monaten des Lesens und Diskutierens beim Tee Trinken die Aleviten nicht verstehen kann, die Türkei es auch nicht vermag.

Unsere wichtigste Kritik am türkischen Staat richtet sich also auf seine wiederholten Versuche, die Aleviten und das Alevitentum fassbar zu machen. Aber auch wenn ich die Versuche des türkischen Staats kritisiere, die Aleviten zu kategorisieren, so bin ich mir bewusst, dass ich ebenso versuche, die Aleviten für mich selbst fassbar zu machen, damit ich die Forschung durchführen und so schreiben kann, wie es im Kontext meiner Disziplin sinnvoll ist. Und daher bleibt Gewalt auch dann Gewalt, wenn sie in diesem Zusammenhang relativ ist.3

Die Standortgebundenheit der Forschenden

In der Disziplin der Internationalen Beziehungen gibt es ein zunehmendes Bewusstsein darüber, dass die Art und Weise, wie WissenschaftlerInnen sich entscheiden über ihren Gegenstand zu schreiben, von großer Bedeutung dafür ist, wie dieses Thema rezipiert und entfaltet wird. Das hat nicht nur mit Bedenken hinsichtlich politischer Entscheidungen zu tun, sondern auch mit dem Stellenwert der Sozialwissenschaften bei der Produktion dessen, was in der Universität und darüber hinaus als Wissen gilt.4 Mit anderen Worten:

Wie wir uns selbst in unsere Forschung einschreiben, wirkt sich auf das Ergebnis der Forschung aus, und die Beziehung zwischen den Sozialwissenschaften und den Welten, die sie beanspruchen zu deuten, ist niemals neutral – niemals ohne politisches oder ethisches Bekenntnis. Schon R.B.J. Walker hat vor 15 Jahren darauf verwiesen, dass jeder Ansatz der Untersuchung internationaler Politik eine ethische Orientierung hat – unabhängig davon, ob dies explizit in der Literatur ausgewiesen ist.5 Eine solche explizite Sichtbarmachung ist jedoch von entscheidender Bedeutung für die kontinuierliche Entwicklung reflexiver Forschung über Konflikte und Kriege.

Nach dem Tee wendet sich mein Doktorand der Interpretation einer Dokumentation über die Zerstörung der türkischen Provinz Dersim während der Rebellion von Dersim (1937-38) zu.6 Er möchte mir helfen zu verstehen, wie die KurdInnen und AlevitInnen in Dersim als Problem für den nach Homogenität trachtenden türkischen Nationalstaat identifiziert wurden. Studierende betreten und verlassen die Halle, während wir vor meinem Computer sitzen. Mein Doktorand übersetzt die Dokumentation in Echtzeit. Ich bewundere ihn dafür, denn es ist keine leichte Aufgabe und Englisch ist seine dritte oder vierte Sprache. Gelegentlich bittet er mich, die Aufnahme anzuhalten, damit er den Kontext und die Geschichte der Rebellion, wie sie die Dokumentation darstellt, genauer erläutern kann. Er macht das sorgfältig und methodisch. Auf meinem Bildschirm erinnern sich alte Männer mit feuchten Augen an die Massaker, deren Zeugen sie als kleine Jungen geworden waren. Historiker und Professoren angesehener Universitäten in Ankara und Istanbul diskutieren die Entwicklung des türkischen Nationalismus in den 1920er und 1930er Jahren und den verheerenden Einfluss der Politik der Staatsbildung auf die kurdischen und alevitischen Bevölkerungen. Mein Doktorand übersetzt: Dokumente, die die langjährigen Regierungspläne zur Pazifizierung Dersims bezeugen, werden zum Vorschein gebracht. Von der Politik der zwangsweisen Deportation und Assimilation, bis hin zur Hinrichtung und Inhaftierung kurdischer Intellektueller und dem Verbot der kurdischen Sprache – alles wird mit sorgfältiger Präzision ausführlich beschrieben. Mein Doktorand übersetzt bemerkenswert flüssig. Vierzig Minuten verstreichen. Die Dokumentation wendet sich der Geschichte von Seyit Riza zu, einem prominenten geistigen und politischen kurdisch-alevitischen Führer in Dersim. Ein düsteres Schwarz-Weiß-Porträt von Riza wird gezeigt, der der Dokumentation zufolge den Kontakt zum britischen Außenminister Anthony Eden suchte, um die Notlage der KurdInnen und AlevitInnen in Dersim in Europa bekannt zu machen. Seyit Riza wurde im September 1937 von der türkischen Armee festgenommen. Zeugen sagten aus, das er lediglich darum bat, früher als sein Sohn gehängt zu werden, aber sie hängten seinen Sohn in seiner Sichtweite auf. Plötzlich hält mein Doktorand mit der Übersetzung inne. Die Dokumentation fährt in türkischer Sprache fort. Die Momente verrinnen. Ich sehe auf und sehe ihn an. Seine Augen sind voller Tränen. Er schluckt und kämpft mit sich selbst. Ich habe das Gefühl, etwas tun zu müssen. Ich will aufstehen und meine Arme um ihn legen, aber ich bin paralysiert. Die Universität, das habe ich gelernt, ist kein Ort für so etwas. Noch lange danach habe ich darüber nachgedacht, dass ich in meiner kurzen Karriere die Konventionen sozialwissenschaftlichen Schreibens angegriffen habe, und doch nicht fähig bin, die Regeln, die meine beruflichen Beziehungen ordnen, zu verletzen, wenn es darauf ankommt.

Leidenschaft und Beziehungen

Virginia Dominguez vertritt die Position, dass „es wichtig ist, dass wir der Frage der An- bzw. Abwesenheit von Leidenschaft und Zuneigung in unserer Wissenschaft Bedeutung zumessen – und zwar in allen Phasen der Produktion unserer wissenschaftlichen Arbeit. Wenn es die nicht gibt, müssen wir uns nach den Gründen fragen und überlegen, was wir tun können. Wenn sie da sind, sind wir gegenüber unseren LeserInnen in der Schuld, diese zu zeigen, damit sie deren Bedeutung für unsere Forschungen ermessen können.“ 7 Das heißt nicht, dass das Vorhandensein von Leidenschaft in unserem Forschen dieses gegen Kritik immunisieren würde; es ist auch nicht so, dass es gewaltlos wäre gegenüber dem, was es zu verstehen behauptet. Aber es geht darum zu sagen, wie und warum wir dazu angeregt wurden das zu schreiben, was wir schreiben – darum, uns dem Urteil anderer nicht nur hinsichtlich des Inhalts unserer Wissenschaft zu stellen, sondern auch mit Blick auf die politischen, ethischen und persönlichen Bindungen, die unser Denken beleben. Zugleich gibt es nichts inhärent Reflexives bezüglich unserer Versuche, uns selbst in unsere Arbeiten einzuschreiben, es sei denn, wir stellen genau jene Interessen in Frage, die die Relationalitäten betreffen.8 Unsere Forschung und unser Schreiben werden immer und zwingend durch Interaktionen mit anderen und unsere Bemühungen um andere sowie durch deren Anregungen bestimmt. Unser Denken ist immer bedingt durch andere, mit denen wir die intellektuelle und die persönliche Sphäre teilen; das ist notwendig so. Es kann kein Versuch gelingen, in der Forschung und im Schreiben vollständige Autonomie zu praktizieren. Allerdings kann nicht einmal meine Offenbarung, dass meine Forschung und mein Schreiben von den Beziehungen zu anderen abhängen, diese Verhältnisse oder ihren Einfluss auf mich jemals erschöpfend darstellen.9 Judith Butler räsoniert, dass die Notwendigkeit, die Art und Weise in Frage zu stellen, mit der wir selbst zu unseren »Wahrheiten« kommen, von dem „Wunsch andere anzuerkennen oder von jemand anderem anerkannt zu werden“ 10 herrührt. Aber selbst diese Enthüllung verrät genau so wenig eine »Wahrheit« wie menschliche Nacktheit. In diesem Sinne besteht die einzige »Wahrheit«, die formuliert werden kann, darin, dass unsere Ansichten – und damit unsere Versuche sowohl uns selbst als auch unseren Untersuchungsgegenstand sichtbar zu machen – immer nur partiell und situativ sind. So merkt Wanda Vrasti an: „Die soziale Welt ist kein Labor, über das man berichten kann, ohne Teil von ihm zu werden.“ 11

WissenschaftlerInnen – und insbesondere jene, die zu Fragen von Konflikt und Krieg arbeiten – können nicht beanspruchen, eine abstrakte und objektive Position gegenüber ihrem Forschungsgegenstand einzunehmen. Wir beteiligen uns. Manchmal machen wir das unbeabsichtigt, also sogar ohne es zu wollen. Und indem wir das machen, sind wir verpflichtet uns Rechenschaft abzulegen. Die Gründe, aus denen wir mit dem Forschen und Publizieren beginnen (zum Beispiel weil wir eingeladen wurden, einen Vortrag an der University of Illinois zu halten), sind gewöhnlich nicht die, nach denen wir unsere Arbeit weiterentwickeln (zum Beispiel ist mein Doktorand am Alevitentum interessiert), und sie sind auch nicht die Gründe, wie wir mit der Arbeit fortfahren (zum Beispiel beeinflusste mein Doktorand meine Überlegungen, ohne dass ich das beabsichtigt hatte).

Reflektion der Motive

Clifford Geertz hat im Jahr 1988 in einem Beitrag geschrieben, dass in der Ethnologie „explizite Darstellungen der Gegenwart des Autors – wie andere Peinlichkeiten – in Vorworte, Anmerkungen oder Anhänge verbannt werden.“ 12 In den Forschungen zur internationalen Politik ist das noch besonders stark. Obwohl zunehmend anerkannt wird, dass es keine neutrale Forschung gibt, bekennen wir uns weder zu unserer Leidenschaft zu bzw. unsere Verwicklung in unseren Untersuchungsgegenstand noch zu denjenigen, die uns helfen, unsere Überlegungen weiter zu entwickeln und uns zu orientieren. Wir sprechen nicht über unsere Motive. Gewöhnlich werden wir nicht dazu ermutigt, sie anzuzweifeln. Dabei sind doch wichtige Teile unserer Motivation immer durch Persönliches bestimmt. Ob wir diese persönlichen Aspekte anerkennen oder nicht, sie beeinflussen notwendig und signifikant Tenor, Form und Inhalt unseres Schreibens. Das Persönliche treibt unsere Forschungen auf eine Art an, um deren Verständnis wir noch kämpfen müssen und die wir noch selten zugeben. Hier geht es um die Beziehung zwischen Leidenschaft und Wissenschaft, zwischen Zuwendung und Schreiben.13 Was regt unsere Passion für unsere Forschung an? Ebenso wichtig: Was wird aus uns, wenn wir uns nicht auf unsere Arbeit einlassen und sie lieben jenseits der beruflichen Auszeichnungen, die uns erwarten? Das ist weniger eine Frage der »Liebe zur eigenen Arbeit«, als vielmehr danach, wie Leidenschaft uns so motiviert und verändert, dass unsere Arbeit, die wir in unseren Disziplinen und beruflichen Kontexten leisten, ausgerechnet dadurch bestimmt wird, dass wir täglich leidenschaftlich die Leidenschaft verleugnen.

Hier folge ich Roxanne Doty, die schreibt, ohne das Persönliche „mögen wir mit unserem Fachwissen als AutorInnen den LeserInnen Illusionen von Wahrheit vermitteln, aber oft sind wir die scheußlichen Wesen, die hinter der Berufskleidung verschwinden, die Dummköpfe im fluoreszierenden Schein unserer Paradigmen und Theorien, die gefräßig unsere Gedanken konsumieren, aus unseren Worten die Seele hinausdrängen und unsere Stimme von allen Spuren der Humanität reinigen.“ 14 Um es klar zu sagen: Doty geht es nicht darum, die »Seele« oder »Humanität« auf eine besondere Art zu re-präsentieren, sondern darauf hinzuweisen, dass wir ihre Bedeutung für unser Berufsleben »ent-präsentieren« und verleugnen, weil wir das Persönliche vom Beruflichen – und mit wenigen Ausnahmen: das Berufliche vom Politischen – abgetrennt haben.

Forschung zu Gewalt und Krieg ist allgegenwärtig. Sie ist auch eine der ethisch gefährlichsten Felder der Forschung und des Publizierens, weil die Gewalt des Forschenden im Verlaufe der Forschung niemals so sichtbar oder verwerflich ist wie die Gewalt, die den Untersuchungsgegenstand bildet – wie etwa die türkische Pazifizierung und Assimilation der Bevölkerung von Dersim in den Jahren 1937-1938. David Campbell hat dies in seinem Buch »National Deconstruction« deutlich gemacht. Für ihn haben die wissenschaftlichen Interventionen zum »Problem« Bosnien dazu beigetragen, ein spezifisches Wissen darüber zu erschaffen, was in Bosnien geschehen ist, nämlich eine Lesart, der zufolge Krieg und Gewalt als das natürliche Ergebnis spezifischer Formen von Identität erscheinen.15 Nichts davon war aber natürlich oder zwingend, sondern statt dessen ein Ergebnis der Art und Weise, wie Identitäten verstanden und legitimiert werden. Das ist nicht nur problematisch hinsichtlich der Legitimierung von Gewalt in der »realen« Welt, sondern auch hinsichtlich der Art, in der wir forschen und für welche Zwecke wir das tun. Wenn wir nicht offen bezüglich unserer Anliegen und Interessen in diesen und folgenden Momenten sind, dann verbergen wir die Aspekte, die zu einem besseren Verständnis unserer Forschung und seines Nutzens beitragen, vor unseren LeserInnen.

Was ist das Wesen unserer Beziehungen zu den Gegenständen unserer Forschung? Wie entwickeln wir Fragen zu Krieg und Gewalt und wie wirken sie auf uns zurück? Wie beeinflusst diese Wechselwirkung die Welten, die unsere Forschung aufzudecken beansprucht? Haben wir eine ethische Verpflichtung mehr zu tun als einfach nur über die Welt zu berichten, die wir glauben (lediglich) zu beobachten? Haben wir eine ethische Verpflichtung, Krieg und andere Formen unterdrückender Gewalt abzulehnen? Ich meine, die Antwort ist Ja.16

Und ich bin überzeugt, dass es mindestens genauso wichtig ist, über die Motive nachzudenken, die in einem ersten Zugriff auf den Gegenstand selbst den Rahmen für die Forschung abgeben. Es ist also nicht einfach nur die Frage, ob Wissenschaft genau oder valide ist, sondern ebenso warum und wie die Forschung auf eine bestimmte Weise angelegt wurde. Das ist – und sollte es auch ausdrücklich bleiben – Teil unserer üblichen Bewertungen jeder sozialwissenschaftlichen Forschung. Es ist auch die Frage danach, wie wir uns entscheiden, auf die Beiträge anderer, denen wir begegnen, zu reagieren; ob wir uns entscheiden, ihre Bekenntnisse anzuerkennen, abzutun oder zu loben und auf welche Art dies geschieht.

Anmerkungen

1) Vgl. beispielsweise Michel Foucault (1997): Society Must Be Defended: Lectures at the College de France. New York: Picador; Michael Dillon & Julian Reid (2009): The Liberal Way of War: Killing to Make Life Live. New York: Routledge; Elizabeth Dauphinee & Cristina Masters (2006): The Logics of Biopower and the War on Terror: Living, Dying, Surviving. New York: Palgrave.

2) Vgl. beispielsweise Ozlem Goner (2005): The Transformation of the Alevi Collective Identity, Cultural Dynamics 17:2, S.107-134; Tahire Erman & Emrah Goker (2000): Alevi Politics in Contemporary Turkey, Middle Eastern Studies 36:4, S.99-118; David Shankland (2003): The Alevis in Turkey: The Emergence of a Secular Islamic Tradition. New York: Routledge.

3) John Caputo (1997) schreibt, dass „es keine echte Gewaltlosigkeit gibt, sondern nur Abstufungen und Haushaltungen der Gewalt, von denen einige ergiebiger sind als andere“, in: Deconstruction in a Nutshell: A Conversation with Jacques Derrida. New York: Fordham University Press, S.47.

4) Vgl. beispielsweise J. Marshall Beier (2005): International Relations in Uncommon Places: Indigeneity, Cosmology, and the Limits of International Theory. New York: Palgrave Macmillan; Elizabeth Dauphinee (2007): The Ethics of Researching War: Looking for Bosnia. Manchester: Manchester University Press.

5) RBJ Walker (1993): Inside/Outside: Political Theory as International Relations. Cambridge University Press.

6) Alle hier genannten Angaben zur Pazifizierung von Dersim entstammen: 38: Dersim Katliami Belgeseli, Producer/Director: Çayan Demirel (2006).

7) Virginia R. Dominguez (2000): For A Politics of Love and Rescue, Cultural Anthropology Vol. 15, No. 3, S.361-393 (388).

8) Wanda Vrasti verweist mit Blick auf die Ethnographie auf einen ähnlichen Aspekt, vgl.: The Strange Case of Ethnography and International Relations, Millennium: Journal of International Studies, 37:2, 286.

9) Judith Butler (2005): Giving an Account of Oneself. New York: Fordham University Press. Hier geht es um viel mehr als um die Beziehung, die mit dem System des Zitierens und Referenzierens verbunden ist. Es geht um die Frage, wie unser Denken durch unsere persönlichen Interaktionen mit anderen beeinflusst wird.

10) Butler, op. cit., 24.

11) Vgl. Fußnote 8, S.287.

12) Clifford Geertz (1988): Works and Lives: The Anthropologist as Author. Stanford: Stanford University Press, S.16.

13) Es ist darauf hinzuweisen, dass Liebe nicht die einzige Antriebskraft ist. Wissenschaft ist auch durch Geringschätzung, Spott oder sogar Hass motiviert. Häufig finden sich diese Leidenschaften in ein- und demselben Text.

14) Roxanne Lynn Doty (2004): Maladies of Our Souls: Identity and Voice in the Writing of Academic International Relations, Cambridge Review of International Affairs Vol. 17, No. 2, S.377-392 (378).

15) David Campbell (1998): National Deconstruction: Violence, Identity, and Justice in Bosnia. Minneapolis: University of Minnesota Press.

16) Vgl. Elizabeth Dauphinee (2008): War Crimes and the Ruin of Law, Millennium: Journal of International Studies 37:1, S.49-67.

Dr. Elizabeth Dauphinee lehrt am Department of Political Science an der York University. In ihren Forschungen befasst sie sich vor allem mit Fragen der Ethik in der Internationalen Politik. Ausgehend von der Ethik Emmanuel Levinas' fragt sie nach dem Stellenwert von Liebe, Vergebung und Reue im Zusammenhang mit Konflikten und Postkonflikt-Situationen.

»Operations other than War«

»Operations other than War«

Die Politik akademischer Gelehrsamkeit im 21. Jahrhundert

von David Nugent

Im Jahr 2008 kündigte US-Verteidigungsminister Robert M. Gates die »Minerva Forschungsinitiative« an. Im Rahmen der dafür bereit gestellten 50 Millionen US-Dollar sollen aus sozialwissenschaftlicher Perspektive vier Themen bzw. Regionen besonders beforscht werden: China, der Irak, der Islam, der Terrorismus. Ein fünftes Feld ist thematisch offen. Ziel des Projektes ist aus Sicht des Verteidigungsministeriums die Verbesserung und Verstetigung der Beziehungen mit Universitäten, um von einer langfristigen Kooperation profitieren zu können.

Zu den vielen schweren Bedenken, die das Minerva-Projekt hervorgerufen hat, gehört die nach der Beeinträchtigung der Autonomie und Unparteilichkeit der akademischen Sphäre – und nach den Bedingungen, die eine solche Unabhängigkeit entweder befördern oder einschränken.1 Gemeinhin besteht die Tendenz, Anstrengungen des Militärs, akademisches Wissen zu beeinflussen, als bedrohlich für das Zustandekommen einer kompromisslos unabhängigen Forschung zu bewerten. Es ist ähnlich naheliegend, das akademische Feld als einen »abgetrennten Bereich« anzusehen, in dem die ForscherInnen die Freiheit haben, kritische Positionen zum Militär zu entwickeln – unbeeinflusst von dessen Anliegen und Vorstellungen. Solche akkuraten Trennungen werden der Komplexität der Beziehungen zwischen diesen beiden institutionellen Sphären jedoch nicht gerecht. Bereits ein kursorischer Überblick der Geschichte der Beziehungen zwischen Militär und Hochschulen verdeutlicht dies.

Raum und Region

Eine Möglichkeit, die wechselhaften Beziehungen zwischen beiden Sphären zu vermessen, besteht bezüglich der periodischen Krisen der kapitalistischen Akkumulation und der Auswirkung dieser Krisen auf die Strategien imperialer Wirtschaft. Ein solcher Ansatz wäre gerade jetzt besonders passend, wo eine ökonomische Krise, die seit einer Dekade Fahrt aufgenommen hat (vgl. Arrighi 1994), mit verheerender Kraft zugeschlagen hat. Aber dies ist nicht die erste ökonomische Krise, die eine Verschiebung in den Beziehungen zwischen Militär und Wissenschaft hervorgerufen hat. Es gab eine frühere Periode der Krise – aber auch der Erholung und Handhabung, die eine erste bedeutende Intervention des Militärs in den Sozialwissenschaften in Gang gesetzt hat. Die Depression der 1930er Jahre und der ihr folgende Weltkrieg brachte militärische Anliegen direkt in die Universitäten – und andersherum. Es war das »Regionen«-Konzept, das die unverfälschte und unvoreingenommene Sozialwissenschaft in den Nachkriegsjahrzehnten dominierte und schließlich in den Mittelpunkt der poststrukturellen Kritik an der Rigidität des Kalten Krieges geriet. Dieses Konzept stellte die Brücke zwischen militärischen Interessen und akademischen Vorstellungen und Tätigkeiten dar und bestand in wenig mehr als der Reflektion militärischer Zweckmäßigkeiten. Es entstand unmittelbar aus den Erfahrungen des Zweiten Weltkrieges: Als den USA ein Sieg denkbar schien, wurde den Militärstrategen bewusst, dass sie für den Frieden, der dem Krieg folgen würde, völlig unvorbereitet waren. Sie stellten fest, dass sie auf die Verwaltung der umfangreichen Gebiete, die sie rund um den Globus bald von den Achsen-Mächten übernehmen würden, nicht vorbereitet waren.

Mit dem Ziel, sich auf die Regierung dieser weit verstreuten Territorien vorzubereiten, stellte die US-Armee rasch ein Team angesehener Sozialwissenschafter aller wichtigen Disziplinen zusammen. Ihre Aufgabe bestand in der Entwicklung eines standardisierten Curriculums, das die Streitkräfte nutzen konnten, um ihr Personal für die Einrichtung einer Militärverwaltung an beliebigen Stellen der Erde vorzubereiten. So wurde das »Regionen«-Konzept für das Militär dienlich gemacht.2 Unter dem Dach des »Foreign Area and Language«-Programms schulten interdisziplinär zusammengesetzte Teams von Sozialwissenschaftlern an 55 Universitäten im ganzen Land tausende Offiziere in der Kunst der Militärregierung (vgl. Nugent 2008).

Nach dem Krieg sah man das »Regionen«-Konzept auch als nützlich an, um die ursprünglichen Militärverwaltungen auf die Friedenssituation umzustellen. Bekanntermaßen gaben die US-Regierungen und die großen Stiftungen in den ersten Jahrzehnten des Kalten Krieges enorme Geldsummen für den Aufbau umfangreicher sozialwissenschaftlicher Infrastruktur aus. An angesehenen Universitäten wurden prominente Forschungszentren etabliert, und mit neuen und reorganisierten Förderstrukturen (National Science Foundation/NSF, Social Science Research Council/SSRC, American Civil Liberties Union/ACLU, usw.) und mit noch nie dagewesenen Geldmitteln für die Ausbildung von Hochschulabsolventen wurde eine Infrastruktur etabliert, die sicherstellte, dass die Analyse der Welt durch die »Regionen«-Linse vorgenommen wurde. So wie einige Tausend Offiziere darin trainiert wurden, die in Kriegszeiten übliche Variante der Regionalstudien umzusetzen, so wurden nun Tausende Zivilisten (Sozialwissenschaftler) in deren Wiederholung in Friedenszeiten ausgebildet. Hierzu gehörten auch einige der einflussreichsten Forscher jener Zeit (vgl. Szanton 2004; Wallerstein 1997).

Der Rückblick auf diesen historischen Verlauf dient nicht der Benennung der Schwächen der Regionalstudien. Vielmehr geht es darum deutlich zu machen, wie schwierig es ist, klare Grenzen zwischen militärischen und akademischen Interessen zu ziehen. Während dieser ganzen Periode war die »relative Autonomie« von Organisationen wie der NSF oder des SSRC erheblichen Einschränkungen unterworfen durch die Tatsache, dass das »Regionen«-Konzept seine Wurzeln in den Erfordernissen des Militärs hatte und schließlich entmilitarisiert wurde, um dem Interesse an einer Stabilität im Kalten Krieg gerecht zu werden. So waren in der längsten Zeit des Kalten Krieges die geopolitischen Ansichten des US-Militärs auch konstitutiv für die konzeptionellen Ansätze, die in den Sozialwissenschaften zur Erklärung und zum Verstehen der Welt verwandt wurden.

Während die dem »Regionen«-Konzept inhärenten Annahmen sicherlich zur Beschränkung der Forschungsparameter beitrugen, war es jedoch nicht der Ansatz der »Area-Studies« als solches, der kritisches Forschen verhinderte. Tatsächlich sind viele der ForscherInnen, die in diesem Feld ausgebildet wurden, zu ausgesprochenen KritikerInnen der Dimension »Raum« geworden und haben sich auch kritisch zu den Strukturen von Regierung und Militärapparat geäußert, aus denen dieses Konzept hervorging. Tatsächlich war es das ungewöhnlich repressive politische Klima dieser Epoche, das die größte Bedrohung der akademischen Freiheit darstellte. Ironischerweise wurde das Bedrohungsgefühl, das das Land im Zuge des Mc Carthyismus erfasste, stärker von zivilen als von militärischen Institutionen befördert – durch den US-Kongress, die exekutiven und judikativen Teile der Regierung sowie den privaten Sektor.

Auch war es nicht der Zusammenbruch des »Area Studies«-Netzwerkes, der irgendwie die Forschenden zu radikaler Kritik in den 1960er Jahren ermutigte. Vielmehr fand die Einbeziehung einer relevanten Anzahl von Jugendlichen aus der Mittelschicht in die politischen Auseinandersetzungen um den Vietnam-Krieg seinen Niederschlag in beträchtlichem Ausmaß auch in der Radikalisierung der Sozialwissenschaften.

Operationen jenseits des Krieges

Das US-Militär hat sich seit dem Zweiten Weltkrieg erheblich verändert. Dies gilt auch für das Imperium, das die USA zu führen versuchen. Was können wir aus der Vergangenheit hinsichtlich der Dilemmata lernen, die durch das jüngste Angebot des Verteidigungsministeriums zur Forschungsförderung entstanden sind? Seit der Auflösung der Sowjetunion hat das US-Militär eine neue Rolle in der Weltpolitik übernommen. Während es auch weiterhin in großem Ausmaß schikaniert und gewaltsam auftritt, ist es zugleich an einer großen Bandbreite von scheinbar nicht-militärischen Aktivitäten beteiligt (vgl. Lutz 2004). Unter der Bezeichnung »Operations Other than War« (OOTW) reichen diese von Evakuierungsoperationen und Katastrophenhilfe über die Sanierung der Umwelt bis hin zur Wahlbeobachtung. Ebenfalls zu nennen ist der Schutz gefährdeter Bevölkerungsgruppen vor Nahrungsmittelknappheit und Seuchen, die Absicherung ziviler Autoritäten und Regierungsinstitutionen und die Förderung des Friedens. Zu den OOTW gehört auch der Bau von Straßen und Sanitärsystemen sowie das Anlegen von Brunnen für die Gewinnung von Trinkwasser und Bewässerung (Vgl. J-7 Joint Staff n.d.; ACT 1995).

Viele dieser »nicht-traditionellen« Aktivitäten des Militärs sind fast identisch mit denen, die in den letzten Jahrzehnten in erheblichem Umfang zum Handlungsfeld der großen Stiftungen und der US-Regierung gehört haben. Es ist interessant festzustellen, dass dies gerade jene Aktivitäten und Probleme sind, zu deren Erforschung SozialwissenschaftlerInnen von einer Vielzahl nicht-militärischer Forschungsförderer aufgefordert werden, und zwar sowohl innerhalb wie außerhalb der Regierungsstrukturen. Seit dem Ende des Kalten Krieges – und insbesondere nach 9/11 – gibt es eine starke Konvergenz in den strategischen Ansätzen der Regierung, der Stiftungen und des Militärs. Bei Themen wie »Schurkenstaaten«, Rechtsgrundsätze, die Zivilgesellschaft oder nachhaltige Entwicklung lassen die Förderer jeglicher Größe und Ausrichtung eine starke Orientierung auf Fragen der »Sicherheit« erkennen.

Tatsächlich erstaunt bei einer Durchsicht der Beschreibung des »Minerva-Projekts« nicht, wie fremd die Forschungsthemen sind, die das Militär vorantreiben möchte (autoritäre Regime, religiöser – besonders islamischer – Fundamentalismus, terroristische Organisationen), sondern wie vertraut sie sind. In ihrer Mehrzahl sind sie kaum von denen zu unterscheiden, denen sich auch nicht-militärische Forschungsförderer widmen.

Trotz gewisser Ähnlichkeiten – insbesondere ein verbreiteter Argwohn bezüglich politischer Meinungsverschiedenheiten gegenüber massiven US-Interventionen – unterscheiden sich die Bedingungen des heutigen Verhältnisses zwischen Militär und akademischem Feld in erheblicher Weise von denen der Zeit nach dem Zweiten Weltkrieg. Die 1950er Jahre waren eine Phase der Erholung von einer globalen Wirtschaftskrise, in der eine erhebliche Ausweitung der Sozialwissenschaften möglich war. Heute befinden wir uns jedoch in einer Periode ernsthafter ökonomischer und politischer Einschränkungen. Viele Wissenschaftler haben daher angemerkt, dass es in den letzten beiden Jahrzehnten zu einer weitreichenden Umorganisation der Universität gekommen ist.

Der Umbau der Universitäten

Bis vor kurzem war ein großer Teil dieser Reorganisation eine Funktion der wachsenden Einflussnahme des Privatsektors auf die Forschung. Neuerdings hat allerdings ein Trend, der sich seit den 1980er Jahren entwickelt hat, mit Wucht durchgeschlagen. In den letzten Jahren ist die finanzielle Unterstützung für universitäre Forschung und Ausbildung – insbesondere in den Sozial- und Geisteswissenschaften – erheblich geschrumpft. Die Haushaltsmittel für die NSF, das National Institute of Health (NIH) und die National Endowment for the Humanities (NEH) wurden drastisch gekürzt – auf Initiative von zivilen, nicht von militärischen Entscheidungsträgern. Selbst die prestige-trächtigsten und wohlhabendsten öffentlichen und privaten Universitäten mussten sich einschränken und ihre Budgets beschneiden.

Einige Fakultäten waren gezwungen, Abteilungen zu fusionieren oder sogar ganz zu schließen. Einstellungsstopps und Gehaltskürzungen sind üblich. Arbeitsverdichtungen verschiedener Art sind allgegenwärtig. Das gesamte akademische Personal ist einem bedeutenden Prozess der Restrukturierung ausgesetzt. Gleichzeitig werden die Anforderungen an Forschung und Publikationen für diejenigen angehoben, die sich um unbefristete Stellen bemühen.3

In dem Maße, in dem die Anforderungen an Lehre und universitäre Dienstleistung steigen und die Mittel für die Forschung ein geschränkt werden, hängt das berufliche Überleben von der Fähigkeit ab, Geldmittel für Forschung und Publikationen einzuwerben. In dieser Situation richten Akademiker ihre Aufmerksamkeit auch auf nicht-traditionelle Finanzierungsmöglichkeiten, wie etwa das Verteidigungsministerium. Sie suchen auch die Zusammenarbeit mit Forschenden, die in den Feldern arbeiten, die den Großteil der zurückgehenden Ressourcen vereinnahmen. Dieser Prozess ist bereits in zahlreichen Disziplinen sichtbar.

Daraus ergibt sich keineswegs, dass das »Minerva-Projekt« ohne Risiken für die Sozialwissenschaften ist. Vielmehr ist darauf zu verweisen, dass die Gefahren nicht daher rühren, dass es aus dem Verteidigungsministerium stammt. Wie wir gesehen haben, gibt es eine lange und ehrwürdige Tradition der Kooperation und der gegenseitigen Unterstützung zwischen Militärplanern und Akademikern, die es besonders schwer macht, zwischen wissenschaftlichen und soldatischen Angelegenheiten zu unterscheiden. Die Bedrohung durch das »Minerva-Projekt« ist nicht unähnlich derjenigen, wie sie von allen Programmen – militärisch wie zivil gleichermaßen – ausgeht, die OOTW fördern. Erstens gibt es die Gefahr, dass Forscher die Unterstützung annehmen, ohne ein gründliches Verständnis dafür zu haben, warum sie angeboten wird und wie die Forschungsergebnisse verwendet werden. (…) Zweitens gibt es das Risiko, dass wir es unterlassen, die angebotenen Ressourcen zu nutzen, um eine scharfe Kritik an den Machtstrukturen zu entwickeln, aus denen diese Programme hervorgegangen sind – eine Aufgabe, bei der sich zahlreiche Wissenschaftler, die in Regionalstudien ausgebildet sind, auszeichnen. Schließlich – und am bedeutendsten – die Gefahr, dass Forschende mit Rücksicht auf all die Förderung darauf verzichten, streitlustig zu sein und darauf zu bestehen, die Bedingungen zu bestimmen, zu denen wir Unterstützung akzeptieren oder auch nicht. Die »American Anthropological Association« hat einen bescheidenen, aber wichtigen Schritt in diese Richtung unternommen, indem sie darauf bestand, dass ein unabhängiges Gremium wissenschaftlicher ExpertInnen – in diesem Fall die NSF – die Bewertung der im Rahmen des »Minerva-Programms« eingereichten Forschungsanträge vornimmt. Aber es kann viel, viel mehr getan werden. Die Art der Probleme, die wir erforschen, und wann und wo wir dies tun, sind Angelegenheiten, über die die Forschenden entscheiden sollten. Nur so werden wir die Beziehungen zwischen der Wissenschaft und den Förderern verändern.

Literatur

ACT (Center for Advanced Command Concepts and Technology) (1995): Operations Other than War (OOTW): The Technological Dimension. Washington, D.C.: National Defense University Press.

Arrighi, Giovanni (1994): The Long Twentieth Century: Money, Power and the Origins of our Times. New York: Verso.

J-7 Joint Staff (n.d.): Military Operations Other than War. Joint Doctrine. Joint Force Employment (J-7 Operational Plans and Interoperability Directorate). Washington, D.C.

Lutz, Catherine (2004): Militarization, in: David Nugent & Joan Vincent (eds.): A Companion to the Anthropology of Politics, Malden, MA and Oxford, UK: Blackwell, S.318-331.

Nugent, David (2008): Social Science Knowledge and Military Intelligence: Global Conflict, Territorial Control and the Birth of Area Studies, Anuário Antropológico 2006: 33-64 (Rio de Janeiro: Tempo Brasileiro).

Nugent, David (2002): Introduction, in: ders. (ed.): Locating Capitalism in Time and Space: Global Restructurings, Politics and Identity, Stanford: Stanford University Press, S.1-59.

Szanton, David (2004): Introduction: The Origin, Nature and Challenge of Area Studies in the United States, in: David Szanton (ed.): The Politics of Knowledge. Area Studies and the Disciplines, Berkeley: University of California Press, S.1-33.

Wallerstein, Immanuel (1997): The Unintended Consequences of Cold War Area Studies, in: Noam Chomsky et al. (eds.): The Cold War and the University. Toward an Intellectual History of the Postwar Years, NY: Free Press, S.195-231.

Anmerkungen

1) Ich danke Chris Krupa für seine Anmerkungen zu einer früheren Fassung dieses Beitrages.

2) In keiner Weise war das Militär allerdings Erfinder des »Regionen«Konzepts, präferierte es allerdings gegenüber anderen Ansätzen der Befassung mit soziokulturellen Phänomenen. Vor dem Zweiten Weltkrieg spielten »Räume« eine sehr untergeordnete Rolle in den Sozialwissenschaften (vgl. Nugent 2008).

3) Als Ausdruck von »Fairness« haben sozialwissenschaftliche Fakultäten an mehreren größeren Universitäten kürzlich entschieden, bei den Anforderungen für unbefristete Stellen Transparenz herzustellen; fortan seien drei Buchpublikationen erforderlich.

David Nugent ist Professor an der Emory University in Atlanta, USA, wo er das Latin American and Caribbean Studies Program leitet.