W&F 2023/3

Konfliktsensible Netzwelt?

Für eine Transformation des digitalen Raums

von Cora Bieß

Durch den digitalen Strukturwandel hat sich das Zusammenleben von Menschen massiv verändert. Auch wesentliche Dimensionen der Sozialisierung vieler Menschen finden mehr und mehr online statt. Damit verbunden ist auch die Austragung von Konflikten. Die digitale Welt ist also ein Konfliktkontext. Die interaktiven Kommunikations- und Dialogräume der digitalen Plattformen bieten einerseits Chancen für Partizipation, Vernetzung und Inklusion, andererseits sind sie der Ort neuartiger Gewaltphänomene und können Konfliktdynamiken befeuern. Hier soll nun eine machtkritische Konfliktsensibilität im und für den digitalen Raum formuliert werden.1

Die Vernetzung durch digitale Angebote ist gigantisch: In Sekundenschnelle sind Menschen – scheinbar gleich wo auch immer auf dem Planeten − miteinander verbunden, Informationen ausgetauscht oder auch Unklarheiten ausgeräumt (von Unebenheiten in Lieferketten bis hin zu politischen Missverständnissen). Der digitale Raum stellt insofern ein Novum dar, als dass er in seiner überregional einheitlichen Infrastruktur auch eine scheinbare Uniformität des Angebotes schafft. Da Plattformen wie TikTok oder Instagram und Facebook weltweit genutzt werden können und die Bedienformen im Frontend unabhängig von der Region ähnlich sind− also die Apps, Programme und Browserausgaben unabhängig vom analogen Standort in ihrer Gestaltung und Funktion gleich aussehen − bietet »das Internet« einen vermeintlich homogenen Kontext.

Onlinekommunikation verbindet …

Onlinekommunikation, als Bestandteil eines Konfliktkontextes nun als »Connector« betrachtet, bietet die Chance, (internationale) Netzwerke aufrechtzuerhalten. Durch Onlinekommunikation können fast in Echtzeit Informationen und Wissensbestände ausgetauscht werden, die zu Perspektivenvielfalt über verschiedene analoge Kontexte hinweg führen. Außerdem bietet die Onlinekommunikation eine niedrigschwellige Möglichkeit, mit einem großen Publikum zu interagieren. Die Reichweite der verschiedenen Zielgruppen kann durch Onlinekommunikation erhöht werden. Sie ermöglicht beispielsweise auch die (partielle) Teilnahme von Menschen mit Gehbehinderungen, die keine weiten Wege in nicht barrierefreie Gebiete auf sich nehmen können. Die verbindenden Faktoren sind hier also die Strukturen, die eine Einbeziehung und Beteiligung über nationale, physische und körperliche Grenzen hinweg ermöglichen. Dies kann auch zur Krisen- und Konfliktintervention hilfreich sein – auf verschiedene Weisen:

  • Dokumentation und Beobachtung: Gewaltphänomene können relativ einfach dokumentiert und beobachtet werden. Beispiele dafür sind die quelloffene und Community-zentrierte Mapping,- Monitoring- und Mobilisierungssoftware »Ushahidi« (damit können Lageberichte zu Krisensituationen erstellt werden) oder das »Phoenix«-Programm der NGO »Build Up«. Mit Phoenix werden partizipative Social-Media-Analysen erstellt, die von Friedensaktivist*innen und Konfliktmediator*innen in konkreten Konfliktbearbeitungssituationen als Teilhabetools genutzt werden können.
  • Schutzraum für Minderheitengruppen: Der digitale Raum kann als Schutzraum dienen, in dem sich beispielsweise oppositionelle Gruppen in autoritären Systemen aufgrund der Anonymität sicherer vernetzen können. In Ländern, in denen zum Beispiel die Rechte von LGBTQIA+ stark eingeschränkt sind, bietet der digitale Raum eine Möglichkeit zum Austausch über Verbote und Restriktionen hinweg. Die quelloffene Software »Consul« beispielsweise kann zu partizipativen Zwecken eingesetzt werden, um so minorisierten Gruppen in Konfliktregionen Zugang zu gesellschaftlichen Diskursen und zur Teilhabe ermöglichen. Dadurch kann der digitale Raum für Konfliktsituationen oder -verhältnisse als verbindender Ort ermöglichende Funktionen entfalten (siehe auch die breiten Debatten um den »Arabischen Frühling« als »Social-Media-Revolution«).
  • »Digitales Nachleben«: Erinnerungen an historische Ereignisse, die Ursache für aktuelle Konfliktsituationen sind, können durch die Artikulation von Zeitzeug*innen wachgehalten werden. Sogenannte »Deepfake«-Technologie kann auch invers verwendet werden, um verfolgte Gruppen zu schützen, wie der Dokumentarfilm »Welcome to Chechnya« zeigte, in dem die Verwendung von KI-generierten Gesichtsdoppelungen zum Einsatz kam. Regisseur David France wollte seinen Einsatz der Deepfake-Technologie als »Deep True« verstanden wissen, da die Verfolgten so in der Lage waren, ihre Wahrheit zu erzählen, ohne ihre Identität im Exil verraten zu müssen. Für das benötigte Bild- und Videomaterial wurden Freiwillige gebeten, ihr Gesicht »zu leihen«. Solche Ansätze werden in Zukunft noch einfacher zugänglich werden. Denkbar ist es daher, dass Kriegsverbrechen, Genozide oder andere Gewalttaten im digitalen Raum in Echtzeit der Weltöffentlichkeit zugänglich werden können, bei gleichzeitigem Opferschutz.

Onlinekommunikation spaltet…

Die einheitliche globale Infrastruktur zentraler Plattformen kann aber gleichzeitig auch als Spalter (»Divider«) wirken, da hinter diesen globalen Plattformen große Tech-Unternehmen stehen, die zunehmend an Macht und Einfluss gewinnen. Die Monopolstellung einzelner Global Player wie Meta, Microsoft, Alphabet, Amazon und Bytedance zentriert deren Macht als Plattformbetreiber*innen im internationalen Markt der Meinungen, Angebote und Möglichkeiten. Entscheidungen, die hier getroffen werden, haben schnell Auswirkungen auf viele Milliarden Menschen über politische Systeme hinweg.

Die Mehrheit der Plattformentwickler*innen und -betreiber*innen befindet sich im Globalen Norden − aber diese Plattformen werden global genutzt. Da Technik nicht neutral ist, sind Annahmen und Werte des Globalen Nordens in die Infrastruktur dieser Plattformen eingeschrieben, die folglich durch die Nutzung dieser Plattformen Auswirkungen auf die Weltbevölkerung haben. Neben dem Entwicklungsprozess haben auch die Plattformbetreiber*innen einen großen Einfluss auf die Nutzer*innen in ihrer Praxis. Die Plattformbetreiber*innen bestimmen, mit welchem Verhaltenskodex eine Nutzung ihres Angebots erlaubt ist – und hier weichen kulturelle und soziale Verständnisse, aber auch juristische Definitionen von freier Meinungsäußerung durchaus drastisch voneinander ab. Da die Unternehmen für die Moderation der Inhalte zuständig sind, beeinflussen deren (Nicht-)Entscheidungen Diskurse maßgeblich. Am Beispiel von TikTok sind hier die Phänomene »Shadowbanning« und »Shadowpromoting« zu nennen.

Shadowbanning funktioniert wie die Verwendung von Wortfiltern, wobei Inhalte mit den davon betroffenen Hashtags zwar nicht gelöscht werden, aber nicht mehr unter diesen Schlagwörtern zu finden sind. Anbieter*innen wie TikTok haben dadurch die Macht zu beeinflussen, welche Gruppen einen hegemonialen Platz im politischen Diskurs einnehmen (diese können durch umgekehrt funktionierendes »Shadowpromoting« unterstützt werden) und welche (durch »Shadowbanning«) marginalisiert werden. Diese externe Einflussnahme auf den Diskursraum ist den Nutzer*innen jedoch oft nicht bewusst und die dahinterstehenden Machtstrukturen können durch die mangelnde Transparenz der Inhaltsmoderation auf den Plattformen verschleiert werden. Diese Intransparenz wiederum verunmöglicht den gleichwertigen Zugang zu Diskursen in der Onlinekommunikation (vgl. Köver 2020; Meineck 2022).

Neben der Macht der Plattformbetreiber*innen spielt auch die Macht staatlicher Akteur*innen eine relevante Rolle als Divider, insbesondere in autoritären Staaten, in denen Internetshutdowns die Mobilisierung und Vernetzung der Zivilgesellschaft verhindern sollen, wie beispielsweise im Iran 2022. Daneben können staatliche Akteur*innen auch die Infrastrukturen des Netzes gezielt nutzen, um für ihre (auch gewaltvolle) Position zu werben, ohne direkt erkennbar aufzutreten (so beispielsweise im Fall der Rolle der myanmarischen Generäle im Völkermord an den Rohingya und dem dortigen Einfluss der Plattform Facebook).

Weitere technisch bedingte Faktoren, die als Konflikttreiber wirken können, sind:

  • Echokammern und Filterblasen: In Echokammern werden Aussagen verstärkt, indem Gleichgesinnte sich gegenseitig ihre Meinungen wie ein Echo immer wieder bestätigen, während der Kontakt zu abweichenden Meinungen abnimmt. So kann der Eindruck entstehen, dass andere Aussagen nicht existieren und ein Diskursverlauf »alternativlos« erscheint. Filterblasen hingegen entstehen aufgrund von algorithmischen, personalisierten Informationen für die Nutzer*innen. Beides kann Auswirkungen auf gruppendynamische Meinungsbildungsprozesse haben, da Hegemoniales häufiger angezeigt wird.
  • Desinformationskampagnen: Das Friedensgutachten 2023 beschreibt, wie sie Vertrauensverlust hervorrufen, zum Beispiel können sie, „im Zusammenhang mit Behauptungen über den Gebrauch oder geplanten Einsatz von Massenvernichtungswaffen, Strukturen und Institutionen der Rüstungskontrolle beschädigen oder zerstören“ (BICC et al. 2023, S. 97). Desinformation kann als »Divider« auch die internationalen Beziehungen gefährden, denn „in jüngster Zeit lässt sich […] eine zunehmende Zahl von Desinformationsbemühungen auf der Ebene des offiziellen diplomatischen Diskurses beobachten“ (ebd.).
  • Beschleunigte Kommunikation: Inhalte können innerhalb von Sekunden kopiert oder verändert und mit einem großen Publikum geteilt werden. So steigt die Gefahr, dass verletzende Kommentare spontan und unreflektiert gesendet werden und sich unkontrolliert verbreiten oder auch Nachrichten(-bestandteile) entkontextualisiert in dritten Räumen zu extremer Konfliktverschärfung führen (»Kandel«-Effekt). Die unüberschaubare »Mitleser*innenschaft« im digitalen Raum macht es immer schwieriger, die Folgen des eigenen Verhaltens abzuschätzen. Verletzungen gegenüber dritten Personen können damit aber auch sehr viel schneller aus der direkten Verantwortung von einzelnen geraten.

Anonymität bietet zudem die Möglichkeit, kriminelle Aktivitäten unentdeckt durchzuführen. Außerdem ist die Hemmschwelle, im digitalen Raum beleidigende, diskriminierende oder rassistische Inhalte anonym weiterzugeben, viel niedriger als die gleichen Taten von Angesicht zu Angesicht in der analogen Welt zu begehen. Die fehlende direkt erlebbare physische Verletzlichkeit des Opfers sowie das Fehlen von Mimik und Gestik erschweren die Resonanz, weshalb Mitgefühl und Empathie oft wenig gezeigt wird. Somit kann Anonymität nicht nur als »Connector«, sondern auch als »Divider« dienen.

Oben wurden die Mittel der Dokumentation und Überwachung von Konflikten als mögliche »Connector«-Dimension beschrieben, gleichzeitig können so auch Konflikte verschärft werden. Überwachung wirkt als »Divider«, wenn Tracking zum Beispiel zur Verfolgung von Friedens- oder Menschenrechtsaktivist*innen genutzt wird. Zudem besteht die Gefahr, dass sensible oder personenbezogene Daten durch Hackerangriffe an Dritte weitergegeben werden. Dies ist gerade für Peace-Tech-Unternehmen eine Herausforderung, weil sie gezielt angegriffen werden können. Gefahren bestehen beispielsweise darin, dass persönliche Daten bei partizipativen Umfragen abgefragt werden und der Schutz der beteiligten Akteur*innen im Falle eines Hackerangriffs nicht mehr gewährleistet werden kann.

Hinzu kommt das veränderte Verständnis von Zeit und Raum in der digitalen Welt. Da bereits in Vergessenheit geratene Inhalte in der digitalen Welt ohne großen Aufwand plötzlich wieder auftauchen können, können Menschenrechts- oder Friedensaktivist*innen auch noch viele Jahre später bedroht sein, deren Schutz vordergründig jedoch mitunter nur in der gegenwärtigen Situation im Fokus stand. Diese Gefahr spielt also bereits in der Dokumentation eine zentrale Rolle und kann Aktivist*innen davon abhalten, sich an partizipativen Ansätzen zu beteiligen, da eine Folgenabschätzung in die Zukunft auch aufgrund der ständigen Weiterentwicklung der digitalen Räume nicht vollständig möglich ist.

Weitere »Divider« sind neue Gewaltphänomene wie Doxing, Sexting, Cybermobbing, Hass und Hetze, Selbstgefährdungswettbewerbe oder Doomscrolling, die Menschen konkreter (Selbst-)Gefährdung aussetzen, ihnen direkte Gewalt antun oder auch bestehende Machtasymmetrien reproduzieren oder zu neuen Asymmetrien beitragen.

Wie lässt sich nun in den bestehenden Strukturen des Internets und in ihrer Fortentwicklung eine Trendwende bei der Gestaltung und Rahmung des digitalen Raums schaffen, und wie kann eine machtkritische Konfliktsensibilität gestärkt werden?

Herrschaftskritische Transformation der Infrastruktur

Eine machtkritische Konfliktsensibilität im digitalen Kontext hinterfragt die in den Strukturen und Systemen enthaltenen hegemonialen Praktiken und Formen der epistemischen Gewalt (Quintero und Garbe 2013). Es ist daher wichtig zu reflektieren, wann und in welcher Form Rassismus und andere Formen der Diskriminierung in Algorithmen kodifiziert werden. Dabei sind sowohl die Ursachen algorithmenbasierter Diskriminierung als auch die Handlungsoptionen zum Schutz vor Diskriminierung bei der Weiterentwicklung von Plattformen zu berücksichtigen (Orwat 2019).

Um eine positive Veränderung im Coding- beziehungsweise allgemeinen Entwicklungsprozess digitaler Strukturen und Systeme zu stärken, bedarf es inter- und transdisziplinärer sowie diverser Entwicklungsteams. In diesem Prozess braucht es laut Babaii und Tajjiki (2020) zudem ein ausgewogenes Genderverhältnis. Parallel bedarf es der Entwicklung dezentral organisierter, gepflegter und gehosteter Plattformen, in denen auch Menschen aus dem Globalen Süden mit mehr Einfluss und stärkerer Lenkungsrichtung besser vertreten sind. Dies gilt auch für die verstärkte Beteiligung von BIPoC und der LGBTQIA+-Gemeinschaft sowie von Kindern und Jugendlichen. Die Gestaltung digitaler Softwaresysteme sollte folglich multiperspektivisch erfolgen. Ansätze wie »Ethics By Design« bieten hierfür Orientierung. Dies erfordert allerdings auch eine kritische Reflexion über den Einfluss globaler Tech-Unternehmen auf diese Prozesse.

Im Internet sind nicht alle gleich…

Die Anwendung und Nutzung des digitalen Raums ist politisch. Es muss daher reflektiert werden, wer Zugang hat, wer die Möglichkeit hat, daran teilzunehmen und wer davon ausgeschlossen ist. Gemeinsame Kommunikation, gemeinsame Haltungen und gemeinsames Handeln, aber auch Bildung, Partizipation und Engagement können gestärkt werden, wenn der digitale Raum inklusiv gestaltet ist. Bonami und Lujan Tubio (2016) beschreiben beispielsweise, wie Inklusion in Brasilien gestärkt werden kann, indem marginalisierten Gruppen ein gleichberechtigter Zugang zu Dienstleistungen sowie zu sozialen und politischen Räumen ermöglicht wird.

Ein Ende dem digitalen Kolonialismus

Satyajeet Malik (2022) spricht von digitalem Kolonialismus und beschreibt damit wie westliche Tech-Unternehmen systematisch Aufgaben der »Content«-Moderation oder Datenkennzeichnung in Länder des Globalen Südens auslagern.2 Die verantwortlichen Menschen vor Ort werden weder angemessen bezahlt noch wird für ihr psychisches Wohlbefinden gesorgt (ebd.). Gerade im Bereich der »Content«-Moderation sind die Betroffenen oft massiven Gewaltdarstellungen ausgesetzt, ohne dass sie psychosoziale Unterstützung bei der Verarbeitung der visuellen Gewaltdarstellungen erhalten.

Eine umfassende Moderation von Inhalten auf Plattformen ist einerseits wichtig, um Gewalt zu verhindern und zu intervenieren, indem die Inhalte frühzeitig identifiziert und gelöscht werden. Dies darf jedoch nicht zu einer Reproduktion globaler Machtasymmetrien führen, indem dieser Aufgabenbereich an unterbezahlte Akteur*innen aus dem Globalen Süden ausgelagert wird.

Cyberkoloniale Strukturen weisen somit Überschneidungen mit kolonialen Kontinuitäten auf. Vor diesem Hintergrund muss diskutiert werden, wie algorithmische Gerechtigkeit und kritische Kodierungspraktiken umgesetzt werden können, die eine intersektionale Analyse digitaler Medien und Technologien berücksichtigen. Nicht die Gewinnmaximierung von Tech-Firmen durch die systematische Auslagerung dieser Arbeit in Niedriglohnländer sollte das Ziel sein, sondern eine globale Gewaltreduzierung für alle beteiligten Akteur*innen. Hass und Hetze sind dann wiederum meist sehr kontextspezifisch, so dass es auch nicht sinnvoll oder umgekehrt gar gewaltförderlich ist, wenn die globale Moderation von Inhalten in dritte Kontexte an Menschen mit keinen oder rudimentären Sprachkenntnissen ausgelagert wird. Notwendig ist eine fachliche Ausbildung von der gesellschaftlichen (ethnischen, politischen, sprachlichen, u.a.) Diversität entsprechenden Content-Moderator*innen in allen Ländern, verbunden mit deren angemessener traumasensibler Unterstützung und therapeutischer Supervision.

Neue und sichere Räume ermöglichen

Es ist aus Sicht einer machtkritischen Konfliktsensibilität dringend notwendig, eine kritische Haltung gegenüber Rassismus und Diskriminierung im digitalen Raum zu stärken und Privilegienbewusstsein zu fördern, um die Machtteilung in Form von Gegenrede, Schutz und Unterstützung für Betroffene zu stärken. Hier könnten Privilegienchecks, wie z.B. von Peggy McIntosh (1989), für den digitalen Kontext weiterentwickelt werden. Konkrete Praxisangebote für Gegenrede, Schutz und Unterstützung müssen trainiert und niedrigschwellig zugänglich sein, wie beispielsweise »Online-Streetwork« und Trainings für Zivilcourage (BICC et al. 2023, S. 136). Darüber hinaus wäre es denkbar, Safe(r)Space-Konzepte in Kombination mit Verhaltenskodizes, Ombudspersonen und Awareness-Teams auf Social Media Plattformen einzuführen, um sichtbare Anlaufstellen für Betroffene von Rassismus und Diskriminierung zu schaffen.

Wie oben festgehalten, ist der digitale Raum keinesfalls für alle gleich und gleich zugänglich – dies führt auch zu unterschiedlicher Konfliktwahrnehmung und -auswirkung. Für eine konfliktsensible Gestaltung des digitalen Raums, die koloniale Kontinuitäten berücksichtigt und auf Gewaltminderung ausgerichtet ist, sind daher »föderal« je Plattform unterschiedliche Regulierungsansätze denkbar, die sich an den unterschiedlichen Bedürfnissen der Menschen in einem breiten partizipativen Gestaltungsprozess orientieren. Es wäre wünschenswert, politisch, aber auch handlungspraktisch einer immer stärkeren Monopolisierung durch große Technologieunternehmen entgegenzuwirken. Dezentrale Non-Profit-Tech-Unternehmen, wie die hier vorgestellten Plattformen3 »Ushahidi«, »Phoenix« oder »Consul«, aber auch alternative Messengersysteme, Kollaborationstools, Speicher und weitere dezentrale Anbieter*innen, die eine solche konfliktsensible Zugänglichkeit schaffen, könnten stärker genutzt und finanziell unterstützt werden. So könnten machtkritisch partizipative, quelloffene und nutzer*innenorientierte Plattformen gestärkt werden, in denen sicherere digitale Räume entstehen können. Auch für die weitere digitale Gemeinwesenarbeit braucht es kreative Ideen für eine »Alphabetisierung« gewaltfreier Konfliktbearbeitung. Solche Ideen und Entwicklungen sind notwendig, wenn die Netzwelt gewaltärmer werden soll.

Anmerkungen

1) Der Beitrag baut auf meinem bereits erschienenen Artikel »Konfliktsensibilität machtkritisch gestalten« auf, in dem eine entsprechende Reformulierung des »Do No Harm«-Ansatzes beschrieben wurde (vgl. W&F 1/2023, S. 37-40).

2) Die Auslagerung von Arbeitsketten in den Globalen Süden ist Ausdruck kolonialer Kontinuitäten. Denn auch heute bedeutet es, dass wie zur Zeit des Kolonialismus „die Arbeit der Menschen in den Kolonien die wichtigste Rolle bei der Schaffung von Wohlstand für die Kolonialmächte“ spielt (Malik 2022).

3) Diese wurden auf dem »Markt der Möglichkeiten: Peace Tech stellt sich vor« der diesjährigen Jahrestagung der Plattform Zivile Konfliktbearbeitung vorgestellt. Siehe Tagungsbericht, S. 59f

Literatur

Babaii, S.; Tajiki, R. (2020): Strategies to increase the role of women in the development of digital technologies. Journal of Science & Technology Policy 13(2), S. 71-84

BICC; HSFK; IFSH; INEF (Hrsg.) (2023): Noch lange kein Frieden: Friedensgutachten 2023. Bielefeld: transcript.

Bonami, B.; Lujan Tubio, M. (2016): Digital inclusion, crowdfunding, and crowdsourcing in Brazil: A Brief Review. In: Passarelli, B.; Straubhaar, J.; Cuevas-Cerveró, A. (Hrsg.): Handbook of research on comparative approaches to the digital age revolution in Europe and the Americas. IGI Global, S. 77-100.

Kettemann, M. (2023): Dezentral, dynamisch, demokratisch: Sind föderierte Plattformen wie Mastodon besser? Bundeszentrale für politische Bildung, Digitale Tools und Technik im Bildungsalltag, 18.4.2023.

Köver, C. (2020): Shadowbanning: TikTok zensiert LGBTQ-Themen und politische Hashtags. Netzpolitik.org, 9.9.2020.

Malik, S. (2022): Globale Arbeitsketten der westlichen KI. Reihe zum digitalen Kolonialismus. Netzpolitik.org, 6.5.2022.

McIntosh, P. (1989): White privilege. Unpacking the invisible knapsack. Peace and Freedom Magazine (WILPF Philadelphia, PA), July/August 1989, S. 10-12.

Meineck, S. (2022): Geheime Regeln: TikTok hat das Wort ‚Umerziehungslager‘ zensiert. Netzpolitik.org, 10.2.2022.

Orwat, C. (2019): Diskriminierungsrisiken durch Verwendung von Algorithmen: eine Studie, erstellt mit einer Zuwendung der Antidiskriminierungsstelle des Bundes. Baden-Baden: Nomos.

Quintero, P.; Garbe, S. (2013): Kolonialität der Macht: De/Koloniale Konflikte: zwischen Theorie und Praxis. Münster: Unrast-Verlag.

Witness (2020): Identity protection with deepfakes: ‘Welcome to Chechnya’ director David France. Online verfügbar: youtube.com/watch?v=2du6dVL3Nuc.

Cora Bieß ist Referentin im Projekt »Friedensarbeit verändern − Rassismus- und machtkritisches Denken und Handeln in der Zivilen Konfliktbearbeitung« bei der Plattform Zivile Konfliktbearbeitung und Redakteurin des Kinderportals frieden-fragen.de.

erschienen in: Wissenschaft & Frieden 2023/3 Gesellschaft in Konflikt, Seite 24–27