W&F 2023/3

Ist die Künstliche Intelligenz gefährlich?

von Karl Hans Bläsius und Jörg Siekmann

Sehr überraschend meldeten sich im Mai führende Wissenschaftler*innen und Unternehmer*innen im Bereich der Künstlichen Intelligenz zu Wort: Sie sprachen die Warnung aus, die Menschheit könne durch künftige KI-Entwicklungen bedroht sein. Doch welche friedenspolitischen Gefahren drohen genau und wie kann mit ihnen umgegangen werden?

Die Künstliche Intelligenz (KI) ist eine wissenschaftliche Disziplin, die eine Technologie ermöglicht, die das Leben auf dieser Erde noch einmal grundsätzlich verändern wird. Obwohl die meisten KI-Anwendungen aus unserer Sicht positiv zu bewerten sind und zu einer Verbesserung der menschlichen Lebensqualität geführt haben und weiterhin führen werden, gibt es kritische Anwendungen, die man kennen sollte, um diese Risiken möglichst gering zu halten. Am 30.5.2023 wurde ein sogenanntes »Ein-Satz-Statement« veröffentlicht, in dem vor dem Aussterben der Menschheit durch die KI gewarnt wird. Nachfolgend wird auf dieses Statement eingegangen und auf konkrete Risiken mit möglicherweise gravierenden Folgen hingewiesen.

Das Ein-Satz-Statement

Das Statement lautet: „Das Risiko des Aussterbens durch KI zu verringern, sollte neben anderen Risiken von gesellschaftlichem Ausmaß wie Pandemien und Atomkrieg eine globale Priorität haben.“ (safe.ai 2023)

Unterzeichner*innen sind u.a. die Unternehmenschefs von Google DeepMind und OpenAI, viele weitere Verantwortliche von großen IT- bzw. KI-Unternehmen sowie sehr renommierte KI-Wissenschaftler wie Stuart Russell und Peter Norvig, die Autoren des seit vielen Jahren weltweit wichtigsten KI-Lehrbuches (Russell und Norvig 2012). Die Unterzeichner*innen fordern eindringlich Regulierungen für Anwendungen der KI.

In den Medien wurde dieser Aufruf wenig beachtet, teilweise auch kritisiert. Kritisiert wurde vor allem, dass die Unterzeichner*innen Aufmerksamkeit nur auf sich und ihre Produkte lenken wollten und dass sie selbst Einfluss auf mögliche Regulierungen nehmen möchten. Kritische Kommentare gingen dagegen kaum auf die eigentlichen Risiken ein.

Andererseits sind die Gefahren der KI durchaus schon bekannt, es gibt weltweit, insbesondere auch in der EU, Initiativen zu Regulationsmaßnahmen und die großen KI-Forschungsinstitute haben mittlerweile eigene Ethikabteilungen eingerichtet, unter anderem auch das »Deutsche Forschungszentrum für Künstliche Intelligenz«.

Welche Risiken konkret?

Der »eine Satz« des Statements besagt natürlich nicht, um welche Art von Risiken es sich handelt. Das möchten wir im Folgenden mit dem Blick auf sechs Felder konkretisieren: (1) Autonome Waffensysteme, (2) Unkalkulierbare Wechselwirkungen zwischen KI und Atomwaffen, (3) Revolution der Kriegsführung durch KI, (4) Mit Hilfe von KI entwickelte Bio- und Chemiewaffen, (5) Informationsdominanz und Manipulation, (6) Superintelligenz.

(1) Autonome Waffensysteme

Der jetzige Konfrontationskurs zwischen dem Westen und Russland und der Konfrontationskurs zwischen den USA und China befeuern einen weiteren Rüstungswettlauf, vor allem in Schlüsseltechnologien wie der KI, denn keine Nation möchte riskieren hier hinterherzuhinken. Es ist zu erwarten, dass es schon bald für viele Waffenarten automatische oder autonome Systeme geben wird, wie unter anderem Roboter, Fahrzeuge, Flugobjekte, Schiffe und U-Boote, wo Menschen durch KI-Komponenten ersetzt werden. Es werden auch neuartige Waffensysteme hinzukommen, wie z.B. Minidrohnen, die mit automatischer Bilderkennung und Gesichtserkennung automatisch einen Weg zu einem Ziel suchen und dieses dann angreifen. Bei diesen Entwicklungen geht es primär um Software und in diesem Bereich sind Rüstungskontrolle und Abrüstung kaum möglich, denn Software kann einfach verschlüsselt über das Internet verbreitet werden (vgl. Grünwald und Kehl 2020; Lahl 2021).

Man mag dies zwar als gefährlich, aber letztendlich als die »normale« Weiterentwicklung von Kriegsgerät ansehen, wie es immer mit dem Aufkommen neuer Technologien verbunden war. Das ist bei den folgenden Punkten jedoch nicht so.

(2) Unkalkulierbare Wechselwirkungen zwischen KI und Atomwaffen

Die Weiterentwicklung von Waffensystemen mit höherer Treffsicherheit und immer kürzeren Flugzeiten (Hyperschallraketen) wird Techniken der KI erforderlich machen, um in Frühwarnsystemen für nukleare Bedrohungen Entscheidungen für gewisse Teilaufgaben automatisch zu treffen. Es gibt bereits Forderungen, autonome KI-Systeme zu entwickeln, die vollautomatisch eine Alarmmeldung bewerten und gegebenenfalls einen nuklearen Gegenschlag auslösen, da für menschliche Entscheidungen unter diesen Szenarien weiterentwickelter Waffensysteme keine Zeit mehr bleibt. Zwischen KI-Entwicklungen und Atomwaffen kann es auch weitere unkalkulierbare Wechselwirkungen geben (vgl. dazu Timm, Siekmann und Bläsius 2020).

(3) Revolution der Kriegsführung durch KI

In Militärkreisen wird KI nach Schießpulver und Atomwaffen als weitere Revolution der Kriegsführung angesehen, denn auf allen Ebenen der Kriegsführung, wie Informationsgewinn, Einsatzplanung und vernetzte Gefechtsdurchführung können bisherige kognitive und reaktive Grenzen eines Menschen durch KI überwunden werden (siehe z.B. Lahl und Varwick 2022, S. 130-136).

(4) Mit Hilfe von KI entwickelte Bio- und Chemiewaffen

In den letzten Jahren sind einige spektakuläre Erfolge der KI im Bereich der Biotechnologie bekannt geworden: Zum Beispiel wurden Experimente durchgeführt, um zu prüfen, ob mit Hilfe von KI sehr wirksame Chemie- und Biowaffen hergestellt werden könnten, die globale Epidemien und ähnlich verheerende Auswirkungen haben (vgl. Urbina et al 2023).

(5) Informationsdominanz und Manipulation

Mit Hilfe von KI-Systemen oder durch diese könnte eine Informationsdominanz erreicht werden, wobei es nicht mehr um Wahrheit, sondern um Einflussnahme, Manipulation und Macht geht. Hierbei könnten auch automatisch generierte Falschnachrichten, von der KI erzeugte »Deepfakes«, Chatbots und andere technische Möglichkeiten eine wesentliche Rolle spielen. Diese Tendenzen könnten unsere Freiheit erheblich gefährden, Konflikte schüren und Gesellschaftssysteme instabil machen.

(6) Superintelligenz

Aufgrund der Leistungsfähigkeit heutiger KI-Systeme gibt es neuere Warnungen zu den Gefahren einer »Superintelligenz« (vgl. Bostrum 2014, Russell 2020, Shanahan 2021): Wissenschaftler*innen, die bisher davon ausgingen, dass erst zum Ende dieses Jahrhunderts eine Situation erreicht werden könnte, in der künstliche Systeme in allen Bereichen Menschen deutlich überlegen sind, äußern jetzt die Befürchtung, dass dies vielleicht schon in den nächsten Jahrzehnten zu erwarten sei (Hendrycks 2023). Die Folgen für die Menschheit sind zwar völlig unkalkulierbar, allerdings erscheint uns dies im Vergleich zu den obigen Punkten zum heutigen Zeitpunkt zwar diskussionswürdig, aber doch zu spekulativ.

Wieviel Zeit bleibt?

Die Herausforderung bei Warnungen vor der KI liegt anders als beispielsweise im Bereich der Gefahrenbewertung des Klimawandels in der gänzlich anderen Ausgangssituation:

  • Es sind kaum Vorhersagen möglich, was passieren kann und wie die möglichen Auswirkungen sind.
  • Entsprechende Ereignisse werden eher plötzlich eintreten. Gravierende Folgen könnten dann innerhalb von wenigen Wochen oder Monaten eintreten, ohne eine Möglichkeit diese noch aufzuhalten.
  • In den oben genannten Fällen (Atomwaffen, Biowaffen, Superintelligenz) könnten die Folgen die gesamte Menschheit oder zumindest einen großen Teil davon betreffen.
  • Diese gravierenden Folgen können unumkehrbar bereits in den nächsten Jahren oder Jahrzehnten auftreten.
  • Die Möglichkeit entsprechende Ereignisse abzuwarten und erst dann zu handeln, um die Risiken zu reduzieren, wird es eventuell nicht mehr geben.

Ähnlich wie beim Klimawandel gilt auch hier: solange es keine wirksamen Maßnahmen gibt, um die Risiken einzudämmen, werden die Risiken weiterhin massiv steigen.

Wie können die Risiken reduziert werden?

Die hier dargestellten Risiken können vermutlich nur reduziert werden, wenn es ein gutes Verhältnis zwischen allen Nationen gibt. Bei guten internationalen Beziehungen werden sich Prioritäten für KI-Entwicklungen verschieben und damit werden die Risiken reduziert. Eine Verbesserung internationaler Beziehungen kann auf allen Ebenen erfolgen, z.B. kulturell, sportlich, wissenschaftlich und wirtschaftlich. Auch sportlicher und kultureller Austausch verbessern das Vertrauen zwischen Völkern. Sportler*innen und Musiker*innen aus allen Nationen sollten wieder überall zugelassen werden. Städtepartnerschaften sollten erhalten oder ausgebaut werden. Wissenschaftliche, technologische und wirtschaftlichen Zusammenarbeit sollten nicht reduziert, sondern wiederhergestellt und verbessert werden.

Die Regulierung von KI bedarf auch eines gemeinsamen Verständnisses kollektiver Sicherheit in einem weiten Sicherheitsverständnis. Die Selbstproblematisierung der Notwendigkeit dazu durch führende Akteure der KI-Entwicklung ist ein erster Schritt. Weltweit geltende und politisch getroffene Vereinbarungen bezüglich der Risiken der KI zu schaffen wäre aber die wichtigste Maßnahme und die UN wären die richtige Organisation, um Transparenz und Regulierung herzustellen. Vermutlich müssten verschiedene Regulierungen in den unterschiedlichen UN-Foren für die von uns benannten Felder separat geschaffen werden, um deren sektorspezifische Legitimität zu nutzen. Die Zeit drängt.

Literatur

Bostrum, N. (2014): Superintelligenz – Szenarien einer kommenden Revolution. Frankfurt a.M.: Suhrkamp Verlag.

Grünwald, R.; Kehl, Ch. (2020): Autonome Waffensysteme – Endbericht zum TA-Projekt. Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag, Arbeitsbericht Nr. 187.

Hendrycks, D. (2023): AI Safety Newsletter #9, Center for AI Safety, 6.6.2023.

Lahl, K. (2021): Autonome Waffensysteme als Stresstest für internationale Sicherheitspolitik. Politikum, Heft 1, Seite 46-53.

Lahl, K.; Varwick, J. (2022): Sicherheitspolitik verstehen – Handlungsfelder, Kontroversen und Lösungsansätze. Frankfurt: Wochenschau Verlag.

Russell, S. (2020): Human Compatible – Künstliche Intelligenz und wie der Mensch die Kontrolle über superintelligente Maschinen behält. Frechen: Mitp Verlag.

Russell, S.; Norvig, P. (2012): Künstliche Intelligenz – ein moderner Ansatz. 3. Auflage. München: Pearson Studium.

Safe.ai (2023): Statement on AI Risk, URL: safe.ai/statement-on-ai-risk.

Shanahan, Murray (2021): Die technologische Singulariät. Berlin: Matthes & Seitz.

Timm, I. J.; Siekmann, J.; Bläsius, K. H. (2020): KI in militärischen Frühwarn- und Entscheidungssystemen. URL: fwes.info/fwes-ki-20-1.pdf.

Urbina, F.; Lentzos, F.; Invernizzi, C., Ekins, S. (2022): Dual use of artificial-intelligence-powered drug discovery. Nature Machine Intelligence 4, S. 189-191.

Karl Hans Bläsius hat Themen der KI in Forschung und Lehre an der Hochschule Trier vertreten und ist Initiator von atomkrieg-aus-versehen.de
Jörg Siekmann wurde 1983 auf die erste deutsche Professur für Informatik und Künstliche Intelligenz an der Technischen Universität Kaiserslautern berufen. Er war maßgeblich beteiligt am Aufbau der KI-Forschung in Deutschland, ist Gründer und erster Sprecher der KI-Fachgruppe in der Deutschen Gesellschaft für Informatik (GI). Von 1991 bis 2006 war er Direktor des 1989 von ihm mitgegründeten Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI). Er wurde 2019 von der GI zu einem der zehn einflussreichsten KI-Forscher gewählt.

erschienen in: Wissenschaft & Frieden 2023/3 Gesellschaft in Konflikt, Seite 28–29