Ist die Künstliche Intelligenz gefährlich?

Ist die Künstliche Intelligenz gefährlich?

von Karl Hans Bläsius und Jörg Siekmann

Sehr überraschend meldeten sich im Mai führende Wissenschaftler*innen und Unternehmer*innen im Bereich der Künstlichen Intelligenz zu Wort: Sie sprachen die Warnung aus, die Menschheit könne durch künftige KI-Entwicklungen bedroht sein. Doch welche friedenspolitischen Gefahren drohen genau und wie kann mit ihnen umgegangen werden?

Die Künstliche Intelligenz (KI) ist eine wissenschaftliche Disziplin, die eine Technologie ermöglicht, die das Leben auf dieser Erde noch einmal grundsätzlich verändern wird. Obwohl die meisten KI-Anwendungen aus unserer Sicht positiv zu bewerten sind und zu einer Verbesserung der menschlichen Lebensqualität geführt haben und weiterhin führen werden, gibt es kritische Anwendungen, die man kennen sollte, um diese Risiken möglichst gering zu halten. Am 30.5.2023 wurde ein sogenanntes »Ein-Satz-Statement« veröffentlicht, in dem vor dem Aussterben der Menschheit durch die KI gewarnt wird. Nachfolgend wird auf dieses Statement eingegangen und auf konkrete Risiken mit möglicherweise gravierenden Folgen hingewiesen.

Das Ein-Satz-Statement

Das Statement lautet: „Das Risiko des Aussterbens durch KI zu verringern, sollte neben anderen Risiken von gesellschaftlichem Ausmaß wie Pandemien und Atomkrieg eine globale Priorität haben.“ (safe.ai 2023)

Unterzeichner*innen sind u.a. die Unternehmenschefs von Google DeepMind und OpenAI, viele weitere Verantwortliche von großen IT- bzw. KI-Unternehmen sowie sehr renommierte KI-Wissenschaftler wie Stuart Russell und Peter Norvig, die Autoren des seit vielen Jahren weltweit wichtigsten KI-Lehrbuches (Russell und Norvig 2012). Die Unterzeichner*innen fordern eindringlich Regulierungen für Anwendungen der KI.

In den Medien wurde dieser Aufruf wenig beachtet, teilweise auch kritisiert. Kritisiert wurde vor allem, dass die Unterzeichner*innen Aufmerksamkeit nur auf sich und ihre Produkte lenken wollten und dass sie selbst Einfluss auf mögliche Regulierungen nehmen möchten. Kritische Kommentare gingen dagegen kaum auf die eigentlichen Risiken ein.

Andererseits sind die Gefahren der KI durchaus schon bekannt, es gibt weltweit, insbesondere auch in der EU, Initiativen zu Regulationsmaßnahmen und die großen KI-Forschungsinstitute haben mittlerweile eigene Ethikabteilungen eingerichtet, unter anderem auch das »Deutsche Forschungszentrum für Künstliche Intelligenz«.

Welche Risiken konkret?

Der »eine Satz« des Statements besagt natürlich nicht, um welche Art von Risiken es sich handelt. Das möchten wir im Folgenden mit dem Blick auf sechs Felder konkretisieren: (1) Autonome Waffensysteme, (2) Unkalkulierbare Wechselwirkungen zwischen KI und Atomwaffen, (3) Revolution der Kriegsführung durch KI, (4) Mit Hilfe von KI entwickelte Bio- und Chemiewaffen, (5) Informationsdominanz und Manipulation, (6) Superintelligenz.

(1) Autonome Waffensysteme

Der jetzige Konfrontationskurs zwischen dem Westen und Russland und der Konfrontationskurs zwischen den USA und China befeuern einen weiteren Rüstungswettlauf, vor allem in Schlüsseltechnologien wie der KI, denn keine Nation möchte riskieren hier hinterherzuhinken. Es ist zu erwarten, dass es schon bald für viele Waffenarten automatische oder autonome Systeme geben wird, wie unter anderem Roboter, Fahrzeuge, Flugobjekte, Schiffe und U-Boote, wo Menschen durch KI-Komponenten ersetzt werden. Es werden auch neuartige Waffensysteme hinzukommen, wie z.B. Minidrohnen, die mit automatischer Bilderkennung und Gesichtserkennung automatisch einen Weg zu einem Ziel suchen und dieses dann angreifen. Bei diesen Entwicklungen geht es primär um Software und in diesem Bereich sind Rüstungskontrolle und Abrüstung kaum möglich, denn Software kann einfach verschlüsselt über das Internet verbreitet werden (vgl. Grünwald und Kehl 2020; Lahl 2021).

Man mag dies zwar als gefährlich, aber letztendlich als die »normale« Weiterentwicklung von Kriegsgerät ansehen, wie es immer mit dem Aufkommen neuer Technologien verbunden war. Das ist bei den folgenden Punkten jedoch nicht so.

(2) Unkalkulierbare Wechselwirkungen zwischen KI und Atomwaffen

Die Weiterentwicklung von Waffensystemen mit höherer Treffsicherheit und immer kürzeren Flugzeiten (Hyperschallraketen) wird Techniken der KI erforderlich machen, um in Frühwarnsystemen für nukleare Bedrohungen Entscheidungen für gewisse Teilaufgaben automatisch zu treffen. Es gibt bereits Forderungen, autonome KI-Systeme zu entwickeln, die vollautomatisch eine Alarmmeldung bewerten und gegebenenfalls einen nuklearen Gegenschlag auslösen, da für menschliche Entscheidungen unter diesen Szenarien weiterentwickelter Waffensysteme keine Zeit mehr bleibt. Zwischen KI-Entwicklungen und Atomwaffen kann es auch weitere unkalkulierbare Wechselwirkungen geben (vgl. dazu Timm, Siekmann und Bläsius 2020).

(3) Revolution der Kriegsführung durch KI

In Militärkreisen wird KI nach Schießpulver und Atomwaffen als weitere Revolution der Kriegsführung angesehen, denn auf allen Ebenen der Kriegsführung, wie Informationsgewinn, Einsatzplanung und vernetzte Gefechtsdurchführung können bisherige kognitive und reaktive Grenzen eines Menschen durch KI überwunden werden (siehe z.B. Lahl und Varwick 2022, S. 130-136).

(4) Mit Hilfe von KI entwickelte Bio- und Chemiewaffen

In den letzten Jahren sind einige spektakuläre Erfolge der KI im Bereich der Biotechnologie bekannt geworden: Zum Beispiel wurden Experimente durchgeführt, um zu prüfen, ob mit Hilfe von KI sehr wirksame Chemie- und Biowaffen hergestellt werden könnten, die globale Epidemien und ähnlich verheerende Auswirkungen haben (vgl. Urbina et al 2023).

(5) Informationsdominanz und Manipulation

Mit Hilfe von KI-Systemen oder durch diese könnte eine Informationsdominanz erreicht werden, wobei es nicht mehr um Wahrheit, sondern um Einflussnahme, Manipulation und Macht geht. Hierbei könnten auch automatisch generierte Falschnachrichten, von der KI erzeugte »Deepfakes«, Chatbots und andere technische Möglichkeiten eine wesentliche Rolle spielen. Diese Tendenzen könnten unsere Freiheit erheblich gefährden, Konflikte schüren und Gesellschaftssysteme instabil machen.

(6) Superintelligenz

Aufgrund der Leistungsfähigkeit heutiger KI-Systeme gibt es neuere Warnungen zu den Gefahren einer »Superintelligenz« (vgl. Bostrum 2014, Russell 2020, Shanahan 2021): Wissenschaftler*innen, die bisher davon ausgingen, dass erst zum Ende dieses Jahrhunderts eine Situation erreicht werden könnte, in der künstliche Systeme in allen Bereichen Menschen deutlich überlegen sind, äußern jetzt die Befürchtung, dass dies vielleicht schon in den nächsten Jahrzehnten zu erwarten sei (Hendrycks 2023). Die Folgen für die Menschheit sind zwar völlig unkalkulierbar, allerdings erscheint uns dies im Vergleich zu den obigen Punkten zum heutigen Zeitpunkt zwar diskussionswürdig, aber doch zu spekulativ.

Wieviel Zeit bleibt?

Die Herausforderung bei Warnungen vor der KI liegt anders als beispielsweise im Bereich der Gefahrenbewertung des Klimawandels in der gänzlich anderen Ausgangssituation:

  • Es sind kaum Vorhersagen möglich, was passieren kann und wie die möglichen Auswirkungen sind.
  • Entsprechende Ereignisse werden eher plötzlich eintreten. Gravierende Folgen könnten dann innerhalb von wenigen Wochen oder Monaten eintreten, ohne eine Möglichkeit diese noch aufzuhalten.
  • In den oben genannten Fällen (Atomwaffen, Biowaffen, Superintelligenz) könnten die Folgen die gesamte Menschheit oder zumindest einen großen Teil davon betreffen.
  • Diese gravierenden Folgen können unumkehrbar bereits in den nächsten Jahren oder Jahrzehnten auftreten.
  • Die Möglichkeit entsprechende Ereignisse abzuwarten und erst dann zu handeln, um die Risiken zu reduzieren, wird es eventuell nicht mehr geben.

Ähnlich wie beim Klimawandel gilt auch hier: solange es keine wirksamen Maßnahmen gibt, um die Risiken einzudämmen, werden die Risiken weiterhin massiv steigen.

Wie können die Risiken reduziert werden?

Die hier dargestellten Risiken können vermutlich nur reduziert werden, wenn es ein gutes Verhältnis zwischen allen Nationen gibt. Bei guten internationalen Beziehungen werden sich Prioritäten für KI-Entwicklungen verschieben und damit werden die Risiken reduziert. Eine Verbesserung internationaler Beziehungen kann auf allen Ebenen erfolgen, z.B. kulturell, sportlich, wissenschaftlich und wirtschaftlich. Auch sportlicher und kultureller Austausch verbessern das Vertrauen zwischen Völkern. Sportler*innen und Musiker*innen aus allen Nationen sollten wieder überall zugelassen werden. Städtepartnerschaften sollten erhalten oder ausgebaut werden. Wissenschaftliche, technologische und wirtschaftlichen Zusammenarbeit sollten nicht reduziert, sondern wiederhergestellt und verbessert werden.

Die Regulierung von KI bedarf auch eines gemeinsamen Verständnisses kollektiver Sicherheit in einem weiten Sicherheitsverständnis. Die Selbstproblematisierung der Notwendigkeit dazu durch führende Akteure der KI-Entwicklung ist ein erster Schritt. Weltweit geltende und politisch getroffene Vereinbarungen bezüglich der Risiken der KI zu schaffen wäre aber die wichtigste Maßnahme und die UN wären die richtige Organisation, um Transparenz und Regulierung herzustellen. Vermutlich müssten verschiedene Regulierungen in den unterschiedlichen UN-Foren für die von uns benannten Felder separat geschaffen werden, um deren sektorspezifische Legitimität zu nutzen. Die Zeit drängt.

Literatur

Bostrum, N. (2014): Superintelligenz – Szenarien einer kommenden Revolution. Frankfurt a.M.: Suhrkamp Verlag.

Grünwald, R.; Kehl, Ch. (2020): Autonome Waffensysteme – Endbericht zum TA-Projekt. Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag, Arbeitsbericht Nr. 187.

Hendrycks, D. (2023): AI Safety Newsletter #9, Center for AI Safety, 6.6.2023.

Lahl, K. (2021): Autonome Waffensysteme als Stresstest für internationale Sicherheitspolitik. Politikum, Heft 1, Seite 46-53.

Lahl, K.; Varwick, J. (2022): Sicherheitspolitik verstehen – Handlungsfelder, Kontroversen und Lösungsansätze. Frankfurt: Wochenschau Verlag.

Russell, S. (2020): Human Compatible – Künstliche Intelligenz und wie der Mensch die Kontrolle über superintelligente Maschinen behält. Frechen: Mitp Verlag.

Russell, S.; Norvig, P. (2012): Künstliche Intelligenz – ein moderner Ansatz. 3. Auflage. München: Pearson Studium.

Safe.ai (2023): Statement on AI Risk, URL: safe.ai/statement-on-ai-risk.

Shanahan, Murray (2021): Die technologische Singulariät. Berlin: Matthes & Seitz.

Timm, I. J.; Siekmann, J.; Bläsius, K. H. (2020): KI in militärischen Frühwarn- und Entscheidungssystemen. URL: fwes.info/fwes-ki-20-1.pdf.

Urbina, F.; Lentzos, F.; Invernizzi, C., Ekins, S. (2022): Dual use of artificial-intelligence-powered drug discovery. Nature Machine Intelligence 4, S. 189-191.

Karl Hans Bläsius hat Themen der KI in Forschung und Lehre an der Hochschule Trier vertreten und ist Initiator von atomkrieg-aus-versehen.de
Jörg Siekmann wurde 1983 auf die erste deutsche Professur für Informatik und Künstliche Intelligenz an der Technischen Universität Kaiserslautern berufen. Er war maßgeblich beteiligt am Aufbau der KI-Forschung in Deutschland, ist Gründer und erster Sprecher der KI-Fachgruppe in der Deutschen Gesellschaft für Informatik (GI). Von 1991 bis 2006 war er Direktor des 1989 von ihm mitgegründeten Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI). Er wurde 2019 von der GI zu einem der zehn einflussreichsten KI-Forscher gewählt.

Konfliktsensible Netzwelt?

Konfliktsensible Netzwelt?

Für eine Transformation des digitalen Raums

von Cora Bieß

Durch den digitalen Strukturwandel hat sich das Zusammenleben von Menschen massiv verändert. Auch wesentliche Dimensionen der Sozialisierung vieler Menschen finden mehr und mehr online statt. Damit verbunden ist auch die Austragung von Konflikten. Die digitale Welt ist also ein Konfliktkontext. Die interaktiven Kommunikations- und Dialogräume der digitalen Plattformen bieten einerseits Chancen für Partizipation, Vernetzung und Inklusion, andererseits sind sie der Ort neuartiger Gewaltphänomene und können Konfliktdynamiken befeuern. Hier soll nun eine machtkritische Konfliktsensibilität im und für den digitalen Raum formuliert werden.1

Die Vernetzung durch digitale Angebote ist gigantisch: In Sekundenschnelle sind Menschen – scheinbar gleich wo auch immer auf dem Planeten − miteinander verbunden, Informationen ausgetauscht oder auch Unklarheiten ausgeräumt (von Unebenheiten in Lieferketten bis hin zu politischen Missverständnissen). Der digitale Raum stellt insofern ein Novum dar, als dass er in seiner überregional einheitlichen Infrastruktur auch eine scheinbare Uniformität des Angebotes schafft. Da Plattformen wie TikTok oder Instagram und Facebook weltweit genutzt werden können und die Bedienformen im Frontend unabhängig von der Region ähnlich sind− also die Apps, Programme und Browserausgaben unabhängig vom analogen Standort in ihrer Gestaltung und Funktion gleich aussehen − bietet »das Internet« einen vermeintlich homogenen Kontext.

Onlinekommunikation verbindet …

Onlinekommunikation, als Bestandteil eines Konfliktkontextes nun als »Connector« betrachtet, bietet die Chance, (internationale) Netzwerke aufrechtzuerhalten. Durch Onlinekommunikation können fast in Echtzeit Informationen und Wissensbestände ausgetauscht werden, die zu Perspektivenvielfalt über verschiedene analoge Kontexte hinweg führen. Außerdem bietet die Onlinekommunikation eine niedrigschwellige Möglichkeit, mit einem großen Publikum zu interagieren. Die Reichweite der verschiedenen Zielgruppen kann durch Onlinekommunikation erhöht werden. Sie ermöglicht beispielsweise auch die (partielle) Teilnahme von Menschen mit Gehbehinderungen, die keine weiten Wege in nicht barrierefreie Gebiete auf sich nehmen können. Die verbindenden Faktoren sind hier also die Strukturen, die eine Einbeziehung und Beteiligung über nationale, physische und körperliche Grenzen hinweg ermöglichen. Dies kann auch zur Krisen- und Konfliktintervention hilfreich sein – auf verschiedene Weisen:

  • Dokumentation und Beobachtung: Gewaltphänomene können relativ einfach dokumentiert und beobachtet werden. Beispiele dafür sind die quelloffene und Community-zentrierte Mapping,- Monitoring- und Mobilisierungssoftware »Ushahidi« (damit können Lageberichte zu Krisensituationen erstellt werden) oder das »Phoenix«-Programm der NGO »Build Up«. Mit Phoenix werden partizipative Social-Media-Analysen erstellt, die von Friedensaktivist*innen und Konfliktmediator*innen in konkreten Konfliktbearbeitungssituationen als Teilhabetools genutzt werden können.
  • Schutzraum für Minderheitengruppen: Der digitale Raum kann als Schutzraum dienen, in dem sich beispielsweise oppositionelle Gruppen in autoritären Systemen aufgrund der Anonymität sicherer vernetzen können. In Ländern, in denen zum Beispiel die Rechte von LGBTQIA+ stark eingeschränkt sind, bietet der digitale Raum eine Möglichkeit zum Austausch über Verbote und Restriktionen hinweg. Die quelloffene Software »Consul« beispielsweise kann zu partizipativen Zwecken eingesetzt werden, um so minorisierten Gruppen in Konfliktregionen Zugang zu gesellschaftlichen Diskursen und zur Teilhabe ermöglichen. Dadurch kann der digitale Raum für Konfliktsituationen oder -verhältnisse als verbindender Ort ermöglichende Funktionen entfalten (siehe auch die breiten Debatten um den »Arabischen Frühling« als »Social-Media-Revolution«).
  • »Digitales Nachleben«: Erinnerungen an historische Ereignisse, die Ursache für aktuelle Konfliktsituationen sind, können durch die Artikulation von Zeitzeug*innen wachgehalten werden. Sogenannte »Deepfake«-Technologie kann auch invers verwendet werden, um verfolgte Gruppen zu schützen, wie der Dokumentarfilm »Welcome to Chechnya« zeigte, in dem die Verwendung von KI-generierten Gesichtsdoppelungen zum Einsatz kam. Regisseur David France wollte seinen Einsatz der Deepfake-Technologie als »Deep True« verstanden wissen, da die Verfolgten so in der Lage waren, ihre Wahrheit zu erzählen, ohne ihre Identität im Exil verraten zu müssen. Für das benötigte Bild- und Videomaterial wurden Freiwillige gebeten, ihr Gesicht »zu leihen«. Solche Ansätze werden in Zukunft noch einfacher zugänglich werden. Denkbar ist es daher, dass Kriegsverbrechen, Genozide oder andere Gewalttaten im digitalen Raum in Echtzeit der Weltöffentlichkeit zugänglich werden können, bei gleichzeitigem Opferschutz.

Onlinekommunikation spaltet…

Die einheitliche globale Infrastruktur zentraler Plattformen kann aber gleichzeitig auch als Spalter (»Divider«) wirken, da hinter diesen globalen Plattformen große Tech-Unternehmen stehen, die zunehmend an Macht und Einfluss gewinnen. Die Monopolstellung einzelner Global Player wie Meta, Microsoft, Alphabet, Amazon und Bytedance zentriert deren Macht als Plattformbetreiber*innen im internationalen Markt der Meinungen, Angebote und Möglichkeiten. Entscheidungen, die hier getroffen werden, haben schnell Auswirkungen auf viele Milliarden Menschen über politische Systeme hinweg.

Die Mehrheit der Plattformentwickler*innen und -betreiber*innen befindet sich im Globalen Norden − aber diese Plattformen werden global genutzt. Da Technik nicht neutral ist, sind Annahmen und Werte des Globalen Nordens in die Infrastruktur dieser Plattformen eingeschrieben, die folglich durch die Nutzung dieser Plattformen Auswirkungen auf die Weltbevölkerung haben. Neben dem Entwicklungsprozess haben auch die Plattformbetreiber*innen einen großen Einfluss auf die Nutzer*innen in ihrer Praxis. Die Plattformbetreiber*innen bestimmen, mit welchem Verhaltenskodex eine Nutzung ihres Angebots erlaubt ist – und hier weichen kulturelle und soziale Verständnisse, aber auch juristische Definitionen von freier Meinungsäußerung durchaus drastisch voneinander ab. Da die Unternehmen für die Moderation der Inhalte zuständig sind, beeinflussen deren (Nicht-)Entscheidungen Diskurse maßgeblich. Am Beispiel von TikTok sind hier die Phänomene »Shadowbanning« und »Shadowpromoting« zu nennen.

Shadowbanning funktioniert wie die Verwendung von Wortfiltern, wobei Inhalte mit den davon betroffenen Hashtags zwar nicht gelöscht werden, aber nicht mehr unter diesen Schlagwörtern zu finden sind. Anbieter*innen wie TikTok haben dadurch die Macht zu beeinflussen, welche Gruppen einen hegemonialen Platz im politischen Diskurs einnehmen (diese können durch umgekehrt funktionierendes »Shadowpromoting« unterstützt werden) und welche (durch »Shadowbanning«) marginalisiert werden. Diese externe Einflussnahme auf den Diskursraum ist den Nutzer*innen jedoch oft nicht bewusst und die dahinterstehenden Machtstrukturen können durch die mangelnde Transparenz der Inhaltsmoderation auf den Plattformen verschleiert werden. Diese Intransparenz wiederum verunmöglicht den gleichwertigen Zugang zu Diskursen in der Onlinekommunikation (vgl. Köver 2020; Meineck 2022).

Neben der Macht der Plattformbetreiber*innen spielt auch die Macht staatlicher Akteur*innen eine relevante Rolle als Divider, insbesondere in autoritären Staaten, in denen Internetshutdowns die Mobilisierung und Vernetzung der Zivilgesellschaft verhindern sollen, wie beispielsweise im Iran 2022. Daneben können staatliche Akteur*innen auch die Infrastrukturen des Netzes gezielt nutzen, um für ihre (auch gewaltvolle) Position zu werben, ohne direkt erkennbar aufzutreten (so beispielsweise im Fall der Rolle der myanmarischen Generäle im Völkermord an den Rohingya und dem dortigen Einfluss der Plattform Facebook).

Weitere technisch bedingte Faktoren, die als Konflikttreiber wirken können, sind:

  • Echokammern und Filterblasen: In Echokammern werden Aussagen verstärkt, indem Gleichgesinnte sich gegenseitig ihre Meinungen wie ein Echo immer wieder bestätigen, während der Kontakt zu abweichenden Meinungen abnimmt. So kann der Eindruck entstehen, dass andere Aussagen nicht existieren und ein Diskursverlauf »alternativlos« erscheint. Filterblasen hingegen entstehen aufgrund von algorithmischen, personalisierten Informationen für die Nutzer*innen. Beides kann Auswirkungen auf gruppendynamische Meinungsbildungsprozesse haben, da Hegemoniales häufiger angezeigt wird.
  • Desinformationskampagnen: Das Friedensgutachten 2023 beschreibt, wie sie Vertrauensverlust hervorrufen, zum Beispiel können sie, „im Zusammenhang mit Behauptungen über den Gebrauch oder geplanten Einsatz von Massenvernichtungswaffen, Strukturen und Institutionen der Rüstungskontrolle beschädigen oder zerstören“ (BICC et al. 2023, S. 97). Desinformation kann als »Divider« auch die internationalen Beziehungen gefährden, denn „in jüngster Zeit lässt sich […] eine zunehmende Zahl von Desinformationsbemühungen auf der Ebene des offiziellen diplomatischen Diskurses beobachten“ (ebd.).
  • Beschleunigte Kommunikation: Inhalte können innerhalb von Sekunden kopiert oder verändert und mit einem großen Publikum geteilt werden. So steigt die Gefahr, dass verletzende Kommentare spontan und unreflektiert gesendet werden und sich unkontrolliert verbreiten oder auch Nachrichten(-bestandteile) entkontextualisiert in dritten Räumen zu extremer Konfliktverschärfung führen (»Kandel«-Effekt). Die unüberschaubare »Mitleser*innenschaft« im digitalen Raum macht es immer schwieriger, die Folgen des eigenen Verhaltens abzuschätzen. Verletzungen gegenüber dritten Personen können damit aber auch sehr viel schneller aus der direkten Verantwortung von einzelnen geraten.

Anonymität bietet zudem die Möglichkeit, kriminelle Aktivitäten unentdeckt durchzuführen. Außerdem ist die Hemmschwelle, im digitalen Raum beleidigende, diskriminierende oder rassistische Inhalte anonym weiterzugeben, viel niedriger als die gleichen Taten von Angesicht zu Angesicht in der analogen Welt zu begehen. Die fehlende direkt erlebbare physische Verletzlichkeit des Opfers sowie das Fehlen von Mimik und Gestik erschweren die Resonanz, weshalb Mitgefühl und Empathie oft wenig gezeigt wird. Somit kann Anonymität nicht nur als »Connector«, sondern auch als »Divider« dienen.

Oben wurden die Mittel der Dokumentation und Überwachung von Konflikten als mögliche »Connector«-Dimension beschrieben, gleichzeitig können so auch Konflikte verschärft werden. Überwachung wirkt als »Divider«, wenn Tracking zum Beispiel zur Verfolgung von Friedens- oder Menschenrechtsaktivist*innen genutzt wird. Zudem besteht die Gefahr, dass sensible oder personenbezogene Daten durch Hackerangriffe an Dritte weitergegeben werden. Dies ist gerade für Peace-Tech-Unternehmen eine Herausforderung, weil sie gezielt angegriffen werden können. Gefahren bestehen beispielsweise darin, dass persönliche Daten bei partizipativen Umfragen abgefragt werden und der Schutz der beteiligten Akteur*innen im Falle eines Hackerangriffs nicht mehr gewährleistet werden kann.

Hinzu kommt das veränderte Verständnis von Zeit und Raum in der digitalen Welt. Da bereits in Vergessenheit geratene Inhalte in der digitalen Welt ohne großen Aufwand plötzlich wieder auftauchen können, können Menschenrechts- oder Friedensaktivist*innen auch noch viele Jahre später bedroht sein, deren Schutz vordergründig jedoch mitunter nur in der gegenwärtigen Situation im Fokus stand. Diese Gefahr spielt also bereits in der Dokumentation eine zentrale Rolle und kann Aktivist*innen davon abhalten, sich an partizipativen Ansätzen zu beteiligen, da eine Folgenabschätzung in die Zukunft auch aufgrund der ständigen Weiterentwicklung der digitalen Räume nicht vollständig möglich ist.

Weitere »Divider« sind neue Gewaltphänomene wie Doxing, Sexting, Cybermobbing, Hass und Hetze, Selbstgefährdungswettbewerbe oder Doomscrolling, die Menschen konkreter (Selbst-)Gefährdung aussetzen, ihnen direkte Gewalt antun oder auch bestehende Machtasymmetrien reproduzieren oder zu neuen Asymmetrien beitragen.

Wie lässt sich nun in den bestehenden Strukturen des Internets und in ihrer Fortentwicklung eine Trendwende bei der Gestaltung und Rahmung des digitalen Raums schaffen, und wie kann eine machtkritische Konfliktsensibilität gestärkt werden?

Herrschaftskritische Transformation der Infrastruktur

Eine machtkritische Konfliktsensibilität im digitalen Kontext hinterfragt die in den Strukturen und Systemen enthaltenen hegemonialen Praktiken und Formen der epistemischen Gewalt (Quintero und Garbe 2013). Es ist daher wichtig zu reflektieren, wann und in welcher Form Rassismus und andere Formen der Diskriminierung in Algorithmen kodifiziert werden. Dabei sind sowohl die Ursachen algorithmenbasierter Diskriminierung als auch die Handlungsoptionen zum Schutz vor Diskriminierung bei der Weiterentwicklung von Plattformen zu berücksichtigen (Orwat 2019).

Um eine positive Veränderung im Coding- beziehungsweise allgemeinen Entwicklungsprozess digitaler Strukturen und Systeme zu stärken, bedarf es inter- und transdisziplinärer sowie diverser Entwicklungsteams. In diesem Prozess braucht es laut Babaii und Tajjiki (2020) zudem ein ausgewogenes Genderverhältnis. Parallel bedarf es der Entwicklung dezentral organisierter, gepflegter und gehosteter Plattformen, in denen auch Menschen aus dem Globalen Süden mit mehr Einfluss und stärkerer Lenkungsrichtung besser vertreten sind. Dies gilt auch für die verstärkte Beteiligung von BIPoC und der LGBTQIA+-Gemeinschaft sowie von Kindern und Jugendlichen. Die Gestaltung digitaler Softwaresysteme sollte folglich multiperspektivisch erfolgen. Ansätze wie »Ethics By Design« bieten hierfür Orientierung. Dies erfordert allerdings auch eine kritische Reflexion über den Einfluss globaler Tech-Unternehmen auf diese Prozesse.

Im Internet sind nicht alle gleich…

Die Anwendung und Nutzung des digitalen Raums ist politisch. Es muss daher reflektiert werden, wer Zugang hat, wer die Möglichkeit hat, daran teilzunehmen und wer davon ausgeschlossen ist. Gemeinsame Kommunikation, gemeinsame Haltungen und gemeinsames Handeln, aber auch Bildung, Partizipation und Engagement können gestärkt werden, wenn der digitale Raum inklusiv gestaltet ist. Bonami und Lujan Tubio (2016) beschreiben beispielsweise, wie Inklusion in Brasilien gestärkt werden kann, indem marginalisierten Gruppen ein gleichberechtigter Zugang zu Dienstleistungen sowie zu sozialen und politischen Räumen ermöglicht wird.

Ein Ende dem digitalen Kolonialismus

Satyajeet Malik (2022) spricht von digitalem Kolonialismus und beschreibt damit wie westliche Tech-Unternehmen systematisch Aufgaben der »Content«-Moderation oder Datenkennzeichnung in Länder des Globalen Südens auslagern.2 Die verantwortlichen Menschen vor Ort werden weder angemessen bezahlt noch wird für ihr psychisches Wohlbefinden gesorgt (ebd.). Gerade im Bereich der »Content«-Moderation sind die Betroffenen oft massiven Gewaltdarstellungen ausgesetzt, ohne dass sie psychosoziale Unterstützung bei der Verarbeitung der visuellen Gewaltdarstellungen erhalten.

Eine umfassende Moderation von Inhalten auf Plattformen ist einerseits wichtig, um Gewalt zu verhindern und zu intervenieren, indem die Inhalte frühzeitig identifiziert und gelöscht werden. Dies darf jedoch nicht zu einer Reproduktion globaler Machtasymmetrien führen, indem dieser Aufgabenbereich an unterbezahlte Akteur*innen aus dem Globalen Süden ausgelagert wird.

Cyberkoloniale Strukturen weisen somit Überschneidungen mit kolonialen Kontinuitäten auf. Vor diesem Hintergrund muss diskutiert werden, wie algorithmische Gerechtigkeit und kritische Kodierungspraktiken umgesetzt werden können, die eine intersektionale Analyse digitaler Medien und Technologien berücksichtigen. Nicht die Gewinnmaximierung von Tech-Firmen durch die systematische Auslagerung dieser Arbeit in Niedriglohnländer sollte das Ziel sein, sondern eine globale Gewaltreduzierung für alle beteiligten Akteur*innen. Hass und Hetze sind dann wiederum meist sehr kontextspezifisch, so dass es auch nicht sinnvoll oder umgekehrt gar gewaltförderlich ist, wenn die globale Moderation von Inhalten in dritte Kontexte an Menschen mit keinen oder rudimentären Sprachkenntnissen ausgelagert wird. Notwendig ist eine fachliche Ausbildung von der gesellschaftlichen (ethnischen, politischen, sprachlichen, u.a.) Diversität entsprechenden Content-Moderator*innen in allen Ländern, verbunden mit deren angemessener traumasensibler Unterstützung und therapeutischer Supervision.

Neue und sichere Räume ermöglichen

Es ist aus Sicht einer machtkritischen Konfliktsensibilität dringend notwendig, eine kritische Haltung gegenüber Rassismus und Diskriminierung im digitalen Raum zu stärken und Privilegienbewusstsein zu fördern, um die Machtteilung in Form von Gegenrede, Schutz und Unterstützung für Betroffene zu stärken. Hier könnten Privilegienchecks, wie z.B. von Peggy McIntosh (1989), für den digitalen Kontext weiterentwickelt werden. Konkrete Praxisangebote für Gegenrede, Schutz und Unterstützung müssen trainiert und niedrigschwellig zugänglich sein, wie beispielsweise »Online-Streetwork« und Trainings für Zivilcourage (BICC et al. 2023, S. 136). Darüber hinaus wäre es denkbar, Safe(r)Space-Konzepte in Kombination mit Verhaltenskodizes, Ombudspersonen und Awareness-Teams auf Social Media Plattformen einzuführen, um sichtbare Anlaufstellen für Betroffene von Rassismus und Diskriminierung zu schaffen.

Wie oben festgehalten, ist der digitale Raum keinesfalls für alle gleich und gleich zugänglich – dies führt auch zu unterschiedlicher Konfliktwahrnehmung und -auswirkung. Für eine konfliktsensible Gestaltung des digitalen Raums, die koloniale Kontinuitäten berücksichtigt und auf Gewaltminderung ausgerichtet ist, sind daher »föderal« je Plattform unterschiedliche Regulierungsansätze denkbar, die sich an den unterschiedlichen Bedürfnissen der Menschen in einem breiten partizipativen Gestaltungsprozess orientieren. Es wäre wünschenswert, politisch, aber auch handlungspraktisch einer immer stärkeren Monopolisierung durch große Technologieunternehmen entgegenzuwirken. Dezentrale Non-Profit-Tech-Unternehmen, wie die hier vorgestellten Plattformen3 »Ushahidi«, »Phoenix« oder »Consul«, aber auch alternative Messengersysteme, Kollaborationstools, Speicher und weitere dezentrale Anbieter*innen, die eine solche konfliktsensible Zugänglichkeit schaffen, könnten stärker genutzt und finanziell unterstützt werden. So könnten machtkritisch partizipative, quelloffene und nutzer*innenorientierte Plattformen gestärkt werden, in denen sicherere digitale Räume entstehen können. Auch für die weitere digitale Gemeinwesenarbeit braucht es kreative Ideen für eine »Alphabetisierung« gewaltfreier Konfliktbearbeitung. Solche Ideen und Entwicklungen sind notwendig, wenn die Netzwelt gewaltärmer werden soll.

Anmerkungen

1) Der Beitrag baut auf meinem bereits erschienenen Artikel »Konfliktsensibilität machtkritisch gestalten« auf, in dem eine entsprechende Reformulierung des »Do No Harm«-Ansatzes beschrieben wurde (vgl. W&F 1/2023, S. 37-40).

2) Die Auslagerung von Arbeitsketten in den Globalen Süden ist Ausdruck kolonialer Kontinuitäten. Denn auch heute bedeutet es, dass wie zur Zeit des Kolonialismus „die Arbeit der Menschen in den Kolonien die wichtigste Rolle bei der Schaffung von Wohlstand für die Kolonialmächte“ spielt (Malik 2022).

3) Diese wurden auf dem »Markt der Möglichkeiten: Peace Tech stellt sich vor« der diesjährigen Jahrestagung der Plattform Zivile Konfliktbearbeitung vorgestellt. Siehe Tagungsbericht, S. 59f

Literatur

Babaii, S.; Tajiki, R. (2020): Strategies to increase the role of women in the development of digital technologies. Journal of Science & Technology Policy 13(2), S. 71-84

BICC; HSFK; IFSH; INEF (Hrsg.) (2023): Noch lange kein Frieden: Friedensgutachten 2023. Bielefeld: transcript.

Bonami, B.; Lujan Tubio, M. (2016): Digital inclusion, crowdfunding, and crowdsourcing in Brazil: A Brief Review. In: Passarelli, B.; Straubhaar, J.; Cuevas-Cerveró, A. (Hrsg.): Handbook of research on comparative approaches to the digital age revolution in Europe and the Americas. IGI Global, S. 77-100.

Kettemann, M. (2023): Dezentral, dynamisch, demokratisch: Sind föderierte Plattformen wie Mastodon besser? Bundeszentrale für politische Bildung, Digitale Tools und Technik im Bildungsalltag, 18.4.2023.

Köver, C. (2020): Shadowbanning: TikTok zensiert LGBTQ-Themen und politische Hashtags. Netzpolitik.org, 9.9.2020.

Malik, S. (2022): Globale Arbeitsketten der westlichen KI. Reihe zum digitalen Kolonialismus. Netzpolitik.org, 6.5.2022.

McIntosh, P. (1989): White privilege. Unpacking the invisible knapsack. Peace and Freedom Magazine (WILPF Philadelphia, PA), July/August 1989, S. 10-12.

Meineck, S. (2022): Geheime Regeln: TikTok hat das Wort ‚Umerziehungslager‘ zensiert. Netzpolitik.org, 10.2.2022.

Orwat, C. (2019): Diskriminierungsrisiken durch Verwendung von Algorithmen: eine Studie, erstellt mit einer Zuwendung der Antidiskriminierungsstelle des Bundes. Baden-Baden: Nomos.

Quintero, P.; Garbe, S. (2013): Kolonialität der Macht: De/Koloniale Konflikte: zwischen Theorie und Praxis. Münster: Unrast-Verlag.

Witness (2020): Identity protection with deepfakes: ‘Welcome to Chechnya’ director David France. Online verfügbar: youtube.com/watch?v=2du6dVL3Nuc.

Cora Bieß ist Referentin im Projekt »Friedensarbeit verändern − Rassismus- und machtkritisches Denken und Handeln in der Zivilen Konfliktbearbeitung« bei der Plattform Zivile Konfliktbearbeitung und Redakteurin des Kinderportals frieden-fragen.de.

Krieg und Frieden auf Social Media

Krieg und Frieden auf Social Media

Herausforderungen für die Friedensbildung

von Cora Bieß1

Der enorme Digitalisierungsschub der Gesellschaft ist in aller Munde. Überdeutlich lässt er auch Leerstellen in digitalen Ansätzen der Friedensbildung zu Tage treten. Inzwischen ist die Rede von einer »digitalen Transformation«, Kinder und Jugendliche wachsen zunehmend in einer mediatisierten Welt auf. Doch welche Auswirkungen haben digitale Konfliktdynamiken und Gewalt in der Onlinekommunikation auf Kinder? Mit welchen Repräsentationen von Kriegsinhalten werden Kinder auf Social Media konfrontiert? Der Beitrag leistet eine erste Einordnung und gibt Impulse, wie neue digitale Formate der Friedensbildung verbunden mit einer kinderrechtlichen Perspektive aussehen könnten.

Durch das Aufkommen der sozialen Medien und die Verbreitung von mobilen Endgeräten stellt das Internet inzwischen den Raum für eine dauerhaft vernetzte Öffentlichkeit. Auch die Interaktionen und Dialogräume von Kindern sind durch die Nutzung dieser Medien zunehmend virtuell. Darin sind Kinder nicht mehr nur Konsumierende oder Rezipierende von Mediendarstellungen, sondern selbst über die Möglichkeiten dieser Plattformen miteinander und mit der Öffentlichkeit im Dialog. Kinder öffnen oder verantworten sogar eigenständig Dialogräume. Daher kann das Internet nicht mit anderen Medien gleichgesetzt werden, die in vorherigen Generationen überwiegend genutzt wurden und in denen Kinder primär Rezipierende darstellten (Presse, Funk, Fernsehen).

Durch diesen digitalen Strukturwandel entstehen also neue interaktive Kommunikations- und Dialogräume, die einerseits Chancen für Partizipation, Vernetzung und Inklusion von jungen Menschen bieten. Durch die beschleunigte Vernetzung und sekundenschnelle Übertragung von Inhalten entstehen zudem neue Mobilisierungsformen. Insbesondere das Bedürfnis „nach Kommunikation und der Möglichkeit, ständig mit Anderen in Kontakt zu sein, aber auch [das] Bedürfnis nach Selbstdarstellung und Anerkennung“, kann durch digitale Räume gestillt werden (Hilt et al. 2021, S. 38). Doch „diese neue Kommunikationskultur und die ständige Erreichbarkeit durch die mobilen Endgeräte bringen auch neue Möglichkeiten mit sich, andere Nutzer zu verletzen“ (ebd.).

Neue Digitale Gewalt

Hierbei entstehen somit auch neue Konfliktdynamiken und Gewaltformen in der virtuellen Welt, die laut Hofstetter (2021) neue Konfliktakteur*innen hervorbringen. Verletzende und gewalthaltige Inhalte können kopiert, weitergeleitet, endlos verändert und gleichzeitig innerhalb von Sekunden einem großen Publikum geteilt werden (Hilt et al. 2021). Sowohl die häufige »Anonymität« der Tatverantwortlichen im Internet als auch die Unüberblickbarkeit des Publikums charakterisieren die Neuartigkeit von digitalen Gewaltformen. Hinzu kommt die „fehlende Wahrnehmung der Verletztheit des Opfers“ (ebd.).

Durch Gewalterfahrungen im Netz können Heranwachsende in ihren Partizipationschancen, in ihrer personalen Integrität sowie in ihren Potentialen zur freien Entfaltung und Entwicklung eingeschränkt werden. Ein möglichst gewaltfreies Aufwachsen von jungen Menschen und die Befähigung zu einem konstruktiven Konfliktumgang sind jedoch wesentlich für das Wohlergehen, die Zukunftsbildung und Vertrauensbildung der gesamten Gesellschaft. Prävention, Bearbeitung und Nachsorge von digitaler Gewalt steckt in vielerlei Hinsicht allerdings noch in den sprichwörtlichen »Kinderschuhen«. Staatliche Regulierungsbemühungen gegen diese Gewaltformen hinken, auch im internationalen Kontext, oft hinterher.

Allerdings sind auch der Moderation der Gewalterfahrungen von Kindern durch Erwachsene mitunter deutliche Grenzen gesetzt. Im analogen Raum können Kinder grenzüberschreitendes Verhalten durch die Reaktion von Erwachsenen erkennen, im digitalen Raum jedoch sind Erwachsene oftmals nicht präsent, wodurch eine regulierende soziale Kontrolle durch Erziehungs- und Sorgeberechtigte schwach ausgeprägt ist. Digitale Gewalt findet nämlich häufig in dynamischen, halböffentlichen Räumen, wie beispielsweise in Whats-App-Klassenchats oder auf Plattformen wie Instragram, TikTok oder Discord statt. Dies ist mit ein Grund dafür, warum digitale Gewalt, die Kinder erleben, von Erwachsenen häufig so spät erkannt wird. Zudem wird die Intervention von Erwachsenen oft nicht als kompetent angesehen, da sie ebenso wie die Kinder nicht „über wirksame Mittel der Hilfe und des Einschreitens verfügen“ (Hilt et al. 2021, S. 40). In digitalen Räumen können somit Kommunikations- und Gewaltdynamiken entstehen, in deren Folge sich Kinder verstärkt von Erwachsenen abgrenzen. Durch den gleichzeitigen Zuwachs an kommunikativer Autonomie etablieren Kinder im digitalen Raum zunehmend ihre eigenen Regeln.

Kriegsbilder im Ukrainekrieg

Mögliche Folgen werde ich im Folgenden beispielhaft anhand einiger Repräsentationen aus dem Ukrainekrieg auf der Plattform »TikTok« erläutern. TikTok ist ein Videoportal, das vom chinesischen Unternehmen ByteDance betrieben wird. Ursprünglich ist diese Plattform durch das Verbreiten von kurzen Tanzvideos bekannt geworden. Durch die Funktion der Lippensynchronisation können dort animierte Videos für Unterhaltungszwecke erstellt werden, was unter Kindern und Jugendlichen sehr beliebt ist. Im Unterschied zu anderen Plattformen weist TikTok damit eine Besonderheit auf: Anwender*innen können durch die Audiofunktion den Ton des ursprünglichen Videos entfernen und durch alternative Tonspuren ersetzen. Dies kann einerseits im Bereich von Satire und Parodie zu lustigen Ton-Video-Kombinationen führen, auf der anderen Seite bietet diese Funktion sehr niederschwellige Möglichkeiten für Manipulation (Reveland 2022).

TikTok wird inzwischen als ein Ort für politische Kommunikation wahrgenommen (Bösch und Köver 2022) und ist gegenwärtig zu einer zentralen Plattform sowohl für die Kommunikation über Konflikte als auch für die Austragung von Konflikten geworden. Diese Tatsache wird besonders seit dem Angriffskrieg auf die Ukraine sichtbar. Die Zeitschrift »The New Yorker« bezeichnete den Ukrainekonflikt sogar als den weltweit ersten „TikTok Krieg“ (Chayka 2022). Denn TikTok kann durch seinen Zuschnitt auf kurze Videosegmente und eine quasi nicht-existente Moderation gezielt für Desinformationskampagnen genutzt werden, beispielsweise indem Videos aus einem Kontext in einen anderen ohne Kennzeichnung übertragen werden. Dadurch ist es möglich, dass Videomaterialien „fälschlicherweise den aktuellen Krieg in der Ukraine zeigen sollen, aber eigentlich aus einem anderen Kontext stammen (Reveland 2022). Ein Beispiel dafür ist ein Video, „auf dem ein Reporter vor mit Leichensäcken abgedeckten Personen steht. Es soll angeblich ukrainische Leichen zeigen“ (ebd.). Laut Reveland stammte dieses Video jedoch von „einem Klimaprotest in Österreich im Februar“ (ebd.).

Auch Betroffene im Ukrainekrieg nutzen TikTok für ihre Berichterstattung „als eine Art Kriegstagebuch“ (Domdey, Pesci und Thiel 2022). Beispielsweise porträtiert in einem Video eine Jugendliche ihren Kriegsalltag in einem Bombenkeller2 und unterlegt dies mit dem Song »Che La Luna – Louis Prima«, einem sizilianischen Lied mit weltweit hoher Popularität. Das Lied fällt in das Genre folkloristisch, komödiantischer Musik. Der Songtext handelt von einem Dialog zwischen einer Mutter und einer Tochter über ihre Hochzeit. Die Lebensrealität im unterirdischen Bunker und die eingeblendeten Bilder der zerstörten Stadt an der Oberfläche, unterlegt mit der Leichtigkeit der Lebensrealität in diesem fröhlichen Song, rufen einen unwirklichen Kontrast hervor, der irritierend und verstörend wirken kann. Kindern und Jugendlichen aus einem anderen Kontext, wie beispielsweise Deutschland, ist es mitunter nicht möglich, diese widersprüchlichen visuellen und auditiven Reize des Videos ihren Intentionen gemäß einzuordnen und angemessen zu verarbeiten. In einem weiteren Video von derselben TikTok-Userin wird ersichtlich, dass ihr Bruder im Ukrainekrieg gestorben ist. Eine Hypothese könnte daher lauten, dass die humoristische Darstellung einerseits auf unmenschliche Kriegszustände aufmerksam machen soll, andererseits ihre Wut über den Verlust ausdrückt und der Trauerverarbeitung dient.

Eine weitere Form der Kriegsrepräsentationen findet sich in einem Video, das mit den Worten „dance if you going to beat Russia“ („tanzt, wenn ihr Russland schlagen werdet“)3 beginnt. Nachdem in einer ersten Szene Putin zu sehen ist , werden verschiedene tanzende Soldat*innen in dem Video gezeigt. Das Video ist mit dem Hashtag „@world.war._.3“ versehen. Zu Beginn tanzt ein britischer Soldat, anschließend ein amerikanischer und dann ein ukrainischer Soldat, alle uniformiert und mit der Waffe in der Hand. Am Ende des Videos formieren sich Soldat*innen in einem Kreis und schauen einem aus­tralischen Soldaten bei seiner Break-Dance Performance zu.

Nun gibt es hier mindestens zwei Lesarten, wie die Botschaft dieses Video interpretiert werden könnte:

  • Einerseits so, dass kriegerische Konflikte in Form eines Tanz-Battles ausgehandelt werden sollten, anstelle mit militärischen Mitteln. Dies könnte eine Botschaft für gewaltfreie Konfliktaustragung beinhalten.
  • Eine andere, gewaltverherrlichende Interpretation dagegen könnte lauten, dass es Soldat*innen geradezu Spaß bereitet, sich auf einen Kampf vorzubereiten. Dieser Eindruck kann dadurch verstärkt werden, dass der erste Soldat, der Großbritannien repräsentiert, lächelnd Swivel-Tanzschritte macht. Hierbei könnte die Leichtigkeit einer Siegesgewissheit („to beat“) im Einklang mit der Gewaltanwendungsbereitschaft („to beat“) stehen.

Wie bei diesen beiden möglichen Interpretationen sichtbar wurde, ist die Intention der Videobotschaft auf TikTok nicht bekannt. Dies kann für Kinder in hohem Maße verstörend wirken, da die Kontextualisierung der im Stream vorgeschlagenen Videos fehlt. So können User*innen ungewollt von Tanzvideos unmittelbar zu Gewaltdarstellungen gelangen. Zudem finden sich solche Kriegsinhalte ohne Vorwarnung „zwischen Urlaubsbildern, Tanzvideos und Comedy“ (Domdey, Pesci und Thiel 2022). Diese „groteske Mischung aus unterhaltsamen und nachrichtlichen Inhalten“ erschwert zudem eine kontext- und altersgerechte Verarbeitung von kriegerischen Inhalten (ebd.). Für Menschen, die selbst Gewalt erfahren haben, kann darüber hinaus durch diese ungefilterte Darstellung ohne Triggerwarnung die Gefahr bestehen, dass ihre Erinnerungen an Gewalterfahrungen auf TikTok reaktiviert werden (sogenannte »Retraumatisierung«).

Wie eingangs beschrieben, nutzen viele Kinder und Jugendliche virtuelle Räume, die nicht primär von Erwachsenen genutzt werden. Somit besteht die Gefahr, dass wir Erwachsenen also gar nicht wissen, wie Kinder und Jugendliche derzeit in Kontakt mit Repräsentationen des Ukrainekrieges kommen. Wichtig ist es daher, dass Multiplikator*innen der Friedensbildung Kinder und Jugendliche als Expert*innen ihrer eigenen Lebenswelten sehen und anerkennen, denn sie erleben digitale Räume anders, als es Erwachsene tun. Aus einer kritischen Kinderrechtsperspektive bedeutet das, dass Erwachsene lernen, Kinder zu hören und ihre Denk- und Handlungsweisen zu verstehen beginnen. Der Fokus auf eine mediatisierte Kindheit kann mit einer Ausgestaltung einer digitalen Friedensbildung Hand in Hand gehen, indem

  • zum einen Friedenskompetenzen in Bezug auf Medien generationenübergreifend gestärkt werden. Aufgabe der Friedensbildung in der digitalen Welt muss es zudem werden, die Frage der eigenen Mediennutzung mehr in den Fokus zu stellen, indem altersgerechte und lebensweltnahe Bezüge zu aktuellen Themen hergestellt werden, wie zum Beispiel der Repräsentation des Ukrainekriegs auf TikTok.
  • zum anderen digitale Friedensfähigkeiten weiterentwickelt werden, die im Bereich der Medienkompetenzbildung integriert werden könnten, beispielsweise in Form einer gewaltfreien Kommunikation im Netz, einer konstruktiven digitalen Konfliktbearbeitung oder digitaler Zivilcourage.

Friedenspädagogische Leerstellen füllen

Aufgabe der Friedensbildung in der digitalen Welt sollte es einerseits im Analogen sein, einen geschützten Dialograum zwischen Kindern und Eltern bzw. Erziehungsberechtigten sowie zwischen Kindern und Lehrkräften zu eröffnen, um beispielsweise in der Schule zu thematisieren, welche Repräsentationen von Krieg und Gewalt auf Social Media gegenwärtig sein können. Darauf aufbauende Strategien, wie sich Kinder vor überwältigenden Kriegsinhalten auf Social Media schützen können, sollten im Einklang mit der 25. Allgemeinen Bemerkung der UN-Kinderrechtskonvention stehen, welche die Anwendbarkeit der Kinderrechte im Digitalen betont (OHCHR 2021). Das bedeutet, dass nicht allein der Schutz von Kindern im Fokus steht, sondern Kinder auch ein Recht auf Beteiligung und Befähigung haben. Der Zugang zu Informationen und Medien kann Kindern nicht grundsätzlich verwehrt werden. Deshalb müssen sowohl die Gefahren als auch die Chancen der digitalen Welten unter Berücksichtigung der Kinderrechte mit jungen Heranwachsenden altersgerecht thematisiert werden, um einen generationenübergreifenden und einordnenden Dialog über Krieg, Gewalt, Konflikt und Frieden in Zeiten der fortschreitenden Digitalisierung gelingend zu gestalten.

Denkbar wäre es andererseits, digitale friedenspädagogische Zugangs- und Kontaktangebote im Internet zu den Kernthemen Krieg, Gewalt, Konflikt und Frieden zu etablieren. Der Ansatz der »digital streetwork«4 verfolgt das Ziel, in mediatisierten Lebenswelten mit Kindern und Jugendlichen direkt zu interagieren, und versteht sich als komplementäres Angebot im Bereich aufsuchender Arbeit. Inspiriert durch das Konzept »digital streetwork« könnten Akteur*innen der Friedensbildung auf Social Media virtuell-aufsuchend agieren, wenn beispielsweise junge User*innen vermehrt über Krieg und Gewalt berichten. Zudem könnten online-gestützte friedenspädagogische Gesprächsangebote eine Anlaufstelle für junge Menschen auf Social Media bieten, die über Kriegsinhalte (wie beispielsweise die oben beschriebenen TikTok Videos zum Ukrainekrieg) reden möchten. In diesen Gesprächsangeboten könnten Akteur*innen aus der Friedensbildung mit Kindern zunächst ins Gespräch darüber kommen, welche Inhalte Kinder und Jugendliche online konsumieren, und was diese Inhalte in ihnen auslösen. Sollte sich im Gespräch herausstellen, dass Kinder mit Desinformationskampagnen bespielt werden, könnte gemeinsam nach seriösen journalistischen Nachrichtenangeboten auf Social Media gesucht werden.5

Weitergehend könnte spezifisch ausgeführt werden, welche Unterstützungsmöglichkeiten (analog und digital) je nach Bedarf denkbar wären. Ziel der Friedensbildung zu Gewalt und Konflikten im Digitalen sollte es sein, das Gefühl von Macht- und Einflusslosigkeit (nicht nur in Zeiten von Kriegen) in Kindern aufzufangen sowie das veränderte Nähe- und Distanz-Verhältnis von Krieg auf Social Media zu thematisieren. Denn durch Social Media können Kriegsorte inzwischen buchstäblich im Kinderzimmer präsent sein. Dennoch ist es Aufgabe der Friedensbildung, ein Gefühl von Wirkmächtigkeit zu fördern, indem Friedensvisionen kontextspezifisch formuliert werden können. Das kann beispielsweise die Thematisierung von individuellen Einflussmöglichkeiten als Friedensmacher*innen in ihren Kontexten sein.

Abschließend lässt sich sagen, dass Social Media bei der heranwachsenden Generation großen Einfluss auf die Wahrnehmung von Krieg, Gewalt, Konflikt und Frieden hat. Grundsätzlich aber kann die Berichterstattung über Kriegserlebnisse durch die unmittelbare Erreichbarkeit auf Social Media-Kanälen auch Empathie, Mitgefühl und Verständnis für betroffene Kinder und Jugendliche im Krieg stärken und einen peer-to-peer Erfahrungsaustausch zwischen den Jugendlichen ermöglichen. Denn insbesondere junge Heranwachsende nutzen Social Media als einen Ort, um sich „politisch zu engagieren (Baetz 2021) und könnten sich perspektivisch im Internet auch als junge Friedenstifter*innen ermächtigen. Hierfür ist eine strukturelle Stärkung von Friedensbildung im digitalen Raum folglich ein wichtiger Beitrag für eine friedlichere digitale Transformation.

Anmerkungen

1) Ein ganz großer Dank geht an David Scheuing für die wertvollen Anmerkungen im Begutachtungsprozess sowie für das Editieren des Beitrags.

2) tiktok.com/@valerisssh/­video/7071270332891483397

3) tiktok.com/@cherzus/­video/7068396008488684805

4) Weitere Informationen zu »digital streetwork« finden sich beim Institut für Medienpädagogik JFF.

5) „[MrWissen2go, die.da.oben, news_wg, tickr.news]) bieten zielgruppengerecht gestaltete Informationen zum Krieg in der Ukraine“ (Domdey, Pesci und Thiel 2022).

Literatur

Baetz, B. (2021): Junge User nutzen die Videoplattform für politische Statements. Deutschlandfunk, 25.01.2021.

Bösch; M.; Köver, C. (2021): Schluss mit lustig? TikTok als Plattform für politische Kommunikation. Studien 7/2021. Berlin: RLS.

Chayka, K. (2022): Watching the world’s “first TikTok war”. The New Yorker, 03.03.2022.

Domdey, P.; Pesci, M.; Thiel, K. (2022): Krieg auf TikTok und Instagram. Media Research Blog. Der Blog des Leibniz-Instituts für Medienforschung Hans-Bredow-Institut. URL: leibniz-hbi.de/de/blog/krieg-auf-tiktok-und-instagram.

Hilt, F.; Grüner, T.; Schmidt, J.; Beyer, A.; Kimmel, B.; Rack, S.; Tatsch, I. (2021): Was tun bei (Cyber)Mobbing?: Systemische Intervention und Prävention in der Schule (4. Aufl.). klicksafe c/o Medienanstalt Rheinland-Pfalz.

Hofstetter, J.-S. (2021): Digital technologies, peacebuilding and civil society: Addressing digital conflict drivers and moving the digital peacebuilding agenda forward (INEF Report Nr. 114/2021). Bonn: Institute for Development and Peace.

OHCHR (Hrsg.). (2021): General comment No. 25 (2021) on children’s rights in relation to the digital environment. Online verfügbar unter: ohchr.org

Reveland, C. (2022): Faktenfinder. TikTok. Brutale Kriegsbilder statt lustiger Videos. Tagesschau.de, 09.03.2022.

Cora Bieß arbeitet als wissenschaftliche Mitarbeiterin am Internationalen Zentrum für Ethik in den Wissenschaften im Projekt SIKID (Sicherheit für Kinder in der digitalen Welt – Regulierung verbessern, Akteure vernetzen, Kinderrechte umsetzen). Bei der Berg­hof Foundation betreut sie derzeit die Kinderseite Frieden-Fragen.de. An der Alpen-Adria Universität promoviert sie zu der Frage, wie Konfliktsensibilität Zivilcourage fördern kann, um Kinder(rechte) in der Onlinekommunikation zu stärken.

Digitalisierung für friedliche Entwicklung nutzen

Digitalisierung für friedliche Entwicklung nutzen

Potsdamer Frühjahrsgespräche 2021, sef :, online, 10.-12. Mai 2021

von Ingo Nordmann

Die Digitalisierung in Afrika läuft auf Hochtouren. Online-Tools können Menschen zusammenbringen und dazu beitragen, Gewalt zu verhindern. Die Teilnahme an demokratischen Prozessen wird einfacher und inklusiver. Soziale Bewegungen vernetzen sich zunehmend online und bewirken Veränderungen in ländlichen und städtischen Regionen. Gleichzeitig verbreiten sich Hassparolen im Internet in noch nie dagewesener Geschwindigkeit, autoritäre Regierungen nutzen neue Technologien, um ihre Bürger*innen zu kontrollieren, und ex­tre­mis­tische Gruppen rekrutieren Mitglieder online. Diese vielfältigen Auswirkungen der Digitalisierung auf friedliche Entwicklung in Afrika standen im Mittelpunkt der Potsdamer Frühjahrsgespräche 2021. Die Konferenz wurde von der Stiftung Entwicklung und Frieden (sef 🙂 in Kooperation mit der GIZ durchgeführt.

Von Online-Hass zu Gewalt auf der Straße

Nanjala Nyabola, Forscherin und Autorin aus Nairobi, erläuterte am Beispiel des aktuellen Konflikts in Äthiopien, wie Hass im Internet häufig in reale Gewalt auf der Straße umschlägt. Auch Online-Medien können zur Ausbreitung von Gewalt beitragen, wenn Nachrichten über Tötungen geteilt werden und daraufhin gezielte Vergeltungsmorde stattfinden. Die Reichweite und Geschwindigkeit dieser sich gegenseitig anheizenden Kommunikationsprozesse sei laut Nyabola weit höher als vor der Existenz des Internets und sozialer Medien.

Organisationen der afrikanischen Zivilgesellschaften haben innovative Methoden entwickelt, um mit diesen Herausforderungen umzugehen. So bietet beispielsweise die #defyhatenow-Kampagne im Südsudan und anderen Ländern datengestützte Lösungen zur Bekämpfung von Hassparolen und Fehlinformationen im Internet. Wie Programmdirektor Nelson J. Kwaje erklärte, hat die Kampagne auch dazu beigetragen, gefährliche Mythen im Zusammenhang mit der Coronavirus-Pandemie zu entlarven. Das Unternehmen Tuwindi aus Mali bietet Nutzer*innen Apps an, mit denen sie online verbreitete Informationen auf ihre Richtigkeit überprüfen können, um so die Gefahr von Falschmeldungen zu reduzieren. CEO Tidiani Togola stellte außerdem eine App vor, die vor Wahlen verlässliche politische Informationen online zur Verfügung stellt, damit die Nutzer*innen fundierte Entscheidungen treffen können. Ein weiteres Beispiel ist das Humanitarian OpenStreetMap Team (HOT), das Online-Kartenmaterial nutzt, um schnell und präzise auf Naturkatastrophen oder Gewaltausbrüche in verschiedenen Ländern reagieren zu können.

Macht und Verantwortung von Technologieunternehmen

Dr. Nicole Stremlau (Universitäten Oxford und Johannesburg) ergänzte, dass Technologieunternehmen der Gewalt im Internet in Afrika viel weniger Aufmerksamkeit schenken, als in anderen Teilen der Welt. So würde viel Hassrede in lokalen Sprachen geschrieben, die Unternehmen nicht ausreichend beachten. Ihnen fehlten Sprachkompetenzen für ein effektives Community-Management und die automatisierten Blockier-Algorithmen funktionierten in diesen Sprachen nicht. Folglich könnten Hassparolen in Afrika oft nicht einmal effizient gemeldet, geschweige denn sanktioniert oder verhindert werden. Dies ist bemerkenswert, wenn man bedenkt, dass viele dieser Sprachen, wie Amharisch, Hausa und Somali, von mehreren zehn Millionen Menschen gesprochen werden.

Ebenso kritisch äußerte sich Stremlau über die wachsende Macht europäischer Unternehmen wie Vodafone und Orange in Afrika. Im Gegensatz zu größeren europäischen Ländern, die vielleicht über politische Strukturen verfügen, um den Einfluss von Big Tech-Unternehmen auf ihren heimischen Märkten einzuschränken, könnten viele kleine afrikanische Länder dies nicht leisten. Hier sei eine verstärkte internationale Zusammenarbeit erforderlich, um die weitreichende Macht dieser ausländischen Unternehmen in Schach zu halten.

Stremlau forderte darüber hinaus ein stärkeres Engagement der Afrikanischen Union (AU). Eine vielversprechende Gelegenheit für Zusammenarbeit zwischen der AU und der Europäischen Union könnte es sein, die bereits entwickelten Strategien zum Umgang mit Hass und Gewalt im Internet auszutauschen. Als Vertreter der Europäischen Kommission bestätigte Marc Fiedrich, dass die beiden Kontinente vor ähnlichen Herausforderungen im Kampf gegen Gewalt im Internet stünden und verwies auf regelmäßige Dialoge zwischen EU und AU zur wirkungsvollen Regulierung sozialer Medien. Er fügte hinzu, dass Afrika jedoch nicht einfach Europa kopieren sollte, da auch Europa immer noch nach Antworten in diesem schnelllebigen Bereich suche.

Regulieren, ohne Meinungsfreiheit einzuschränken

Wenn Regierungen zur Intervention bei digitalen Konflikten aufgefordert werden, kann ein Dilemma entstehen : Wie kann die Kommunikation im Internet reguliert werden, ohne demokratische Errungenschaften wie die Meinungsfreiheit zu gefährden ? Nanjala Nyabola warnte davor, dass Regierungen die Macht, die man ihnen zur Regulierung der Online-Kommunikation gäbe, in erster Linie gegen Kritiker*innen des Staates einsetzen könnten, um unliebsame Aktivist*innen zum Schweigen zu bringen. Dr. Julia Leininger vom Deutschen Institut für Entwicklungspolitik (DIE) bestätigte, dass digitale Werkzeuge es
„Autokraten erlauben könnten, noch autokratischer zu werden“, durch verbesserte Datensammlungen und Überwachungstechnologien. Als besorgnis­erregendes Beispiel nannte sie den Fall, in dem die chinesische Regierung Gesichtserkennungssoftware an die autoritäre Regierung von Simbabwe verkaufte, die diese zur Überwachung der Menschen in der Hauptstadt Harare einsetzte. Im Gegenzug stellte die Regierung die so erfassten Daten dem chinesischen Softwareunternehmen zur Verfügung, das sie zur Verbesserung seiner Algorithmen und Softwarefunktionen nutzte.

Julia Leininger warnte ferner, dass bei einer zunehmenden Digitalisierung von Wahlen, Manipulationen und Wahlfälschungen einfacher werden könnten. Technologie­unternehmen, die digitale Wahlmanagement-Tools bereitstellen, könnten leicht von Politiker*innen beeinflusst werden, vor allem wenn Regierungen große Anteile der Unternehmen besitzen. Dies würde Politiker*innen besonders anfällig für Korruption machen. Seitens der Zivilgesellschaft gibt es Versuche, solch negatives Verhalten zu unterbinden, beispielsweise durch das Monitoring des Handelns von Politiker*innen. So beobachtet etwa die Organisation Odekro die Aktivitäten ghanaischer Parlamentsabgeordneter und macht die Daten online zugänglich. Auf diese Weise können digitale Werkzeuge auch zu mehr Transparenz und Rechenschaftspflicht in der Regierungsführung beitragen.

Afrikas Jugend Perspektiven bieten

Wenn Afrika florieren soll, muss seine junge Bevölkerung Aussicht auf ein ausreichendes und stabiles Einkommen haben. Mit einer De-facto-Arbeitslosenquote von rund 20 % und einer extrem hohen Erwerbsarmutsquote von 40 % im Schnitt des gesamten Kontinents, ist dieses Ziel noch in weiter Ferne. Das macht junge Menschen anfälliger für den Einfluss gewalttätiger Gruppen. Wie Nelson Kwaje feststellte,
„suchen sich kriminelle Organisationen genau die Menschen als Zielgruppe aus, die historische Ungerechtigkeiten, Ausgrenzung, Identitätskrisen und wirtschaftliche Probleme erlebt haben“. Junge Menschen, die sich extremistischen Gruppen anschließen, seien daher oft Täter*innen und Opfer zugleich.

Abdihakim Ainte, Mitbegründer des iRise Hub in Mogadischu, kennt diese Schwierigkeiten aus eigener Erfahrung. Seine Organisation versucht, jungen Unternehmer*innen in Somalia Geschäftsmöglichkeiten zu bieten. Er bestätigte, dass gewalttätige Gruppen junge Menschen, die meist aus stark benachteiligten Familien in ländlichen Regionen stammen, „sowohl benutzen als auch für ihre Ziele missbrauchen“. Dem versuche iRise durch gezieltes Empowerment und die Schaffung wirtschaftlicher Möglichkeiten entgegenzuwirken.

Im Verlauf der dreitägigen Konferenz wurde deutlich, dass es eines Bewusstseinswandels bedarf, die digitale Welt langfristig zu gestalten. Wie Nanjala Nyabola in ihren abschließenden Bemerkungen feststellte, müssten Herausforderungen des digitalen Raums mit Entschlossenheit und Ausdauer angegangen werden, um sie auf die gleiche Weise zu gestalten, wie Offline-Medien über einen langen Zeitraum gestaltet worden seien. Weder eine „Nichteinmischungs-Mentalität, die viele Regierungen in der Vergangenheit an den Tag gelegt haben, noch ein naives „Technologie-utopisches Vertrauen“ (Stremlau), bei dem darauf gesetzt wird, dass digitale Innovationen auf magische Weise Probleme lösen werden, sind geeignet, die gegenwärtigen und künftigen Herausforderungen zu bewältigen. Die Digitalisierung ist weder Afrikas Untergang (oder der Untergang der Menschheit), noch seine Rettung. Sie ist das, was aus ihr gemacht wird – und das liegt in der politischen Verantwortung.

Mehr Informationen zur Konferenzreihe sind verfügbar unter : sef-bonn.org

Ingo Nordmann