Wikipedias Propagandaproblematik: Wenn „Neutralität“ zur Herrschaftstechnik wird

Wikipedia Logo Bild: ersion 1 by Nohat (concept by Paullusmagnus); Wikimedia Lizenz: CC BY-SA 3.0

Wikipedia gibt sich den Anschein des großen demokratischen Wissensspeichers: offen, kollaborativ, transparent, neutral. Und im Idealfall ist genau das auch ihre Stärke. Das Problem beginnt dort, wo diese Neutralität nicht mehr als Ziel verstanden wird, sondern als rhetorischer Schutzschild für bereits festgelegte Narrative.

Denn Wikipedia funktioniert nicht schlicht nach dem Prinzip: Was ist wahr?
Wikipedia funktioniert nach dem Prinzip: Was gilt innerhalb dieses Systems als belegbar, relevant und konsensfähig?

Das ist ein gewaltiger Unterschied.

Wikipedia verlangt offiziell, dass Artikel keine Seite ergreifen, sondern Positionen fair und ohne redaktionelle Verzerrung darstellen. Ebenso verlangt Wikipedia Verifizierbarkeit: Fakten und Behauptungen müssen auf veröffentlichte, als zuverlässig geltende Quellen zurückführbar sein. Genau hier aber liegt die Achillesferse: Wer die Quellenhierarchie, die Relevanzdebatte, die Artikelstruktur, die Einleitung und die Gewichtung kontrolliert, kontrolliert am Ende auch die Wirklichkeit, die beim Leser ankommt.

Ein Lexikonartikel muss nicht durch plumpe Lügen ruiniert werden. Es genügt, wenn entscheidende Informationen vergraben, unbequeme Zusammenhänge abgeschwächt, Quellen selektiv zugelassen und Begriffe so lange bearbeitet werden, bis aus Beschreibung Deutung wird.

Die Propaganda kommt nicht immer als Lüge

Das eigentliche Problem ist nicht der einzelne Fehler. Ein falsches Datum, eine schlechte Quelle, ein ungenauer Satz – das passiert überall. Gefährlich wird es, wenn Fehler nicht zufällig entstehen, sondern systematisch stabilisiert werden.

Durch selektive Quellenzulassung.
Durch das Wegdrücken unbequemer Gegenpositionen.
Durch sprachliches Framing.
Durch übergewichtete Nebenaspekte.
Durch vergrabene Primärinformationen.
Durch aggressive Revert-Kultur.
Durch Administratorenmacht.
Durch endlose Diskussionsseiten, auf denen am Ende nicht das bessere Argument gewinnt, sondern der zähere Apparat.

Dann wird aus einem Lexikon kein Lexikon mehr, sondern eine Maschine zur Herstellung von Konsensoptik.

Der Trick ist perfide: Die Propaganda kommt nicht immer als offene Lüge. Sie kommt oft als Auswahl. Als Gewichtung. Als Reihenfolge. Als Tonfall. Als Etikett. Als „umstritten“, wo etwas belegt ist. Als „rechtsextrem“, „populistisch“, „Aktivist“, „Hardliner“, „Experte“ oder „renommierter Forscher“ – je nachdem, wem das Etikett nützt.

Der Fall Iskandar323: der sichtbare Extremfall

Besonders lehrreich ist der Fall des Wikipedia-Nutzers Iskandar323. Hier reden wir nicht über irgendeinen anonymen Verdacht aus den Untiefen sozialer Medien, sondern über einen Fall, der im Wikipedia-eigenen Schiedsgerichtssystem landete.

Im Verfahren „Palestine-Israel articles 5“ stellte das Arbitration Committee der englischsprachigen Wikipedia fest, dass Iskandar323 im Israel-Palästina-Themenbereich störendes Verhalten gezeigt habe, ausdrücklich einschließlich „consistently non-neutral editing“. Diese Feststellung wurde mit 14 zu 0 Stimmen angenommen.

Anschließend wurde Iskandar323 unbefristet vom Themenbereich Palestine-Israel conflict ausgeschlossen; diese Sanktion wurde mit 12 zu 1 Stimmen beschlossen. Die zentrale Wikipedia-Liste der Arbitration-Beschränkungen führt Iskandar323 ebenfalls mit einem unbefristeten Topic Ban in diesem Themenfeld.

Genau daran sieht man das eigentliche Problem: Wikipedia muss nicht erst von außen „entlarvt“ werden. Manchmal liefert das System selbst den Beleg dafür, dass es in hochpolitisierten Themenfeldern über Jahre hinweg von Editoren geprägt werden kann, die nicht neutral informieren, sondern Deutungskämpfe führen.

Und Iskandar323 ist nicht einmal der einzige sanktionierte Fall in diesem Verfahren. In derselben Entscheidung wurden auch andere langjährige Editoren – darunter BilledMammal, Levivich, Nableezy, Selfstudier, Makeandtoss, Nishidani und AndreJustAndre – mit unbefristeten Topic Bans im Israel-Palästina-Themenbereich belegt.

Das macht den Fall strukturell wichtiger als jede einzelne Person: Es zeigt, dass es nicht um einen Ausrutscher geht, sondern um ein Themenfeld, in dem Wikipedia selbst offenbar eine massive Governance- und Neutralitätskrise sah.

Die eigentliche Gefahr liegt unterhalb der Sanktionsschwelle

Aber der entscheidende Punkt ist nicht einmal Iskandar323 selbst. Der entscheidende Punkt ist die Frage, wie viele andere Editoren nach demselben Muster arbeiten, aber eben nicht auffällig genug, nicht plump genug, nicht nachweisbar genug und nicht „unneutral genug“ sind, um jemals in einem Arbitration-Verfahren zu landen.

Denn Wikipedia sanktioniert nicht jede Verzerrung. Wikipedia sanktioniert in der Regel nur Verzerrungen, die administrativ greifbar werden: Edit-Warring, Regelbrüche, belegbare Nichtneutralität, Missbrauch von Meldewegen, Off-Wiki-Koordination, Sockpuppets, wiederholte Eskalation. Was aber ist mit den subtileren Fällen?

Was ist mit dem Editor, der nie offen lügt, aber immer dieselbe Seite stärker gewichtet?
Was ist mit dem Editor, der nie einen Regelbruch begeht, aber jeden unbequemen Satz mit Quellenformalismus zermürbt?
Was ist mit dem Editor, der nicht „falsch“ schreibt, sondern alles Entscheidende in Nebensätze, Fußnoten und Unterabschnitte verschiebt?
Was ist mit dem Editor, der nicht hetzt, sondern etikettiert?
Was ist mit dem Editor, der nicht löscht, sondern „umformuliert“?
Was ist mit dem Editor, der nicht „Propaganda!“ schreit, sondern Propaganda kuratiert?

Das sind die gefährlicheren Fälle. Nicht, weil sie spektakulärer sind, sondern weil sie seltener auffallen.

Wikipedia selbst hat im selben Arbitration-Verfahren eine sogenannte balanced editing restriction eingeführt: Nutzer können in diesem Themenbereich auf höchstens ein Drittel ihrer relevanten Artikel- und Diskussionsseiten-Edits in bestimmten arabisch-israelischen Konfliktseiten beschränkt werden. Bemerkenswert ist dabei, dass diese Sanktion gerade nicht die normalen Beweisanforderungen für disruptive Bearbeitung voraussetzt, sondern schon dort greifen kann, wo es für das Projekt positiv wäre, wenn ein Nutzer seine Aktivität reduziert – insbesondere bei wiederholten Konflikten ohne zwingend absichtliches oder besonders grobes Fehlverhalten.

Das ist ein unfreiwilliges Eingeständnis: Das Problem beginnt nicht erst bei offenem Vandalismus. Es beginnt dort, wo hochaktive Nutzer ein Themenfeld so dauerhaft bearbeiten, dass ihre Präsenz selbst zum Machtfaktor wird.

Verifizierbarkeit ersetzt nicht Wahrheit

Wikipedia kann einen Satz entfernen, wenn er nicht in einer akzeptierten Quelle steht. Das klingt vernünftig. Aber es bedeutet zugleich: Wenn bestimmte Medien, akademische Milieus oder institutionelle Quellen ein Thema einseitig behandeln, reproduziert Wikipedia diese Einseitigkeit oft unter dem Label der Neutralität.

Wikipedia sagt selbst, dass ihre Inhalte durch veröffentlichte Informationen bestimmt werden, nicht durch persönliche Überzeugungen oder unveröffentlichte Erkenntnisse der Editoren. Aber was passiert, wenn das veröffentlichte Quellenökosystem bereits ideologisch vorsortiert ist? Was passiert, wenn bestimmte Quellen reflexhaft als „unzuverlässig“ abgewertet und andere reflexhaft als „reputable“ aufgewertet werden? Was passiert, wenn akademische oder journalistische Milieus selbst längst Teil politischer Deutungskämpfe sind?

Dann steht dort nicht zwingend, was wahr ist. Dort steht, was das akzeptierte Quellenökosystem gerade hergibt – gefiltert durch jene Editoren, die lange genug, obsessiv genug und strategisch genug an einem Artikel arbeiten.

Die schlimmste Form der Manipulation ist das Vergraben

Ein Artikel muss nicht offen falsch sein, um manipulativ zu sein. Es genügt, wenn entscheidende Informationen tief unten verschwinden, während die Einleitung bereits das gewünschte Urteil setzt.

Das ist der Wikipedia-Klassiker:

Oben steht die moralische Rahmung.
In der Mitte steht die institutionell akzeptierte Version.
Unten, irgendwo zwischen Fußnoten, Nebensätzen und „Kritik“-Abschnitten, liegt das Material, das den ersten Eindruck relativieren würde.

Und weil die meisten Menschen nur Einleitung, Infobox und erste Absätze lesen, gewinnt nicht die Wahrheit, sondern die Platzierung.

Genau deshalb ist der Fall Iskandar323 so instruktiv. Er steht nicht nur für einen einzelnen Editor. Er steht für einen Mechanismus: Ein Nutzer muss gar nicht jeden Satz falsch schreiben. Es reicht, wenn er über Jahre hinweg an der semantischen Temperatur eines Artikels dreht – hier ein Begriff, dort eine Quelle, dort eine Löschung, dort eine Abschwächung, dort ein neuer Kontext, dort ein verschobener Absatz.

Am Ende ist der Artikel formal belegt, formal diskutiert, formal regelkonform – und trotzdem in seiner Gesamtwirkung verzerrt.

Wikipedia ist anfällig, weil Autorität ohne Autor entsteht

Bei einem Zeitungsartikel sieht man Autor, Medium, Datum, politische Linie. Bei Wikipedia verschwindet die Autorenschaft hinter der Maske kollektiver Objektivität.

Der Leser sieht nicht sofort:

Wer hat diesen Abschnitt geschrieben?
Wer hat ihn gelöscht?
Wer hat welche Quelle verhindert?
Wer sitzt seit Jahren auf diesem Artikel?
Welche Editoren dominieren die Diskussionsseite?
Welche Begriffe wurden über Monate zurechtgeschliffen?
Welche unbequemen Fakten stehen nur in Fußnote 87, aber nicht in der Einleitung?

Die Propaganda liegt nicht nur im Inhalt. Sie liegt in der Architektur der Sichtbarkeit.

Das Perfide daran:

Wikipedia ist nicht einfach ein Lexikon. Wikipedia ist ein Schlachtfeld um Begriffe, Deutung, Quellen und öffentliche Erinnerung. Ihre größte Schwäche liegt darin, dass sie ihre Macht hinter dem Wort „Neutralität“ verstecken kann.

Der Fall Iskandar323 zeigt den sichtbaren Extremfall: einen Editor, dessen Verhalten im Israel-Palästina-Themenbereich von Wikipedia selbst als störend und konsequent nicht neutral bewertet wurde. Aber die gefährlichere Frage lautet: Wie viele andere arbeiten ähnlich – nur leiser, vorsichtiger, regelkundiger, administrativ schwerer greifbar?

Nicht die plumpe Falschinformation ist das Hauptproblem.
Das Hauptproblem ist die kuratierte Halbwahrheit.

Und die ist gefährlicher, weil sie nicht wie Propaganda aussieht, sondern wie Wissen.

Werbung

Dir gefällt vielleicht auch:

Abonnieren
Benachrichtigen bei
guest
0 Comments
Älteste
Neueste
Inline-Feedbacks
Alle Kommentare anzeigen
0
Deine Meinung würde uns sehr interessieren. Bitte kommentiere.x