Schatten-Sperre

Aus Metapedia
(Weitergeleitet von Shadow Banning)
Wechseln zu: Navigation, Suche

Schatten-Sperre (vom engl. Begriff Shadow-Banning oder Shadowbann bzw. auch Stealth Banning und Ghost Banning; sinngemäß etwa: „versteckte Sperre, stille Unterdrückung“ aus dem „Schatten“, dem Unsichtbaren heraus) ist eine Methode der informationellen Kriegsführung im Weltnetz durch verdeckte Zensur und Unterdrückung unerwünschter politischer und weltanschaulicher Äußerungen in den sogenannten Sozialen Medien mittels eines Bündels unterschiedlicher Techniken. Den Anglizismus shadow banning kann man auf deutsch etwa als „verdecktes Verbannen“, „heimliches Verbergen“ oder „verborgenes Blockieren“ umschreiben.

Schatten-Sperren im Weltnetz (hier: Twitter); realsatirische Graphik mit ernstem Hintergrund.

Prinzip

Im Unterschied zur herkömmlichen, offenen Zensur wird beim Schatten-Sperre eine Äußerung nicht gelöscht, sondern vor (einem Teil der) anderen Nutzer „unsichtbar“ gemacht. Insbesondere wird der Vorgang vor dem Autor verheimlicht.[1] Da diese Vorgänge sich vollständig im Bereich der digitalisierten Kommunikation befinden, gibt es nichts konkretes, körperliches, das eine Sichtbarkeit an sich hätte. Im Grunde handelt es sich nur um Daten, die man ihrer Natur nach nicht sehen kann, bis daß ein Algorithmus sie auf einer Benutzerschnittstelle sichtbar macht. Es wird also lediglich darauf verzichtet, diese Daten generell sichtbar zu machen, außer auf der Benutzerschnittstelle des Verursachers, der daraufhin sehen kann, daß diese Daten im System enthalten sind, ohne jedoch zu ahnen, daß alle anderen Nutzer die Daten nicht sehen können.

Demzufolge hat der Betroffene keinen Anlaß zu einer Korrektur, zur Beschwerde oder sonstiger Gegenmaßnahme. Der Widerstand des Zensierten gegen die Zensur bleibt somit aus. Es wird also das – nach den Lehren des Sun Zi – wichtigste Mittel in jedem Krieg, die Täuschung, angewandt. Die Täuschung ist eine doppelte. Einerseits wird der Gegner dahingehend getäuscht, daß ihm vorgemacht wird, er sei ein normaler, regulärer Teilnehmer des Dienstes und kein Feind bzw. ein nicht als Feind erkannter. Andererseits wird er dahingehend getäuscht, daß ihm vorgemacht wird, seine Handlungen hätten die zu erwartende, übliche, der regulären Funktionsweise des Systems entsprechende Wirkung auf die anderen Teilnehmer des Systems.

Formen

Parodie in Bezug auf die Zensur bei der jüdisch kontrollierten Videoplattform YouTube: „JewTube“ (dt. Juden-Röhre) – „Zensiere dich selbst oder wir tun es“ (verhalte dich meinungskonform oder wir nehmen dir Reichweite weg)

Es werden immer neue Formen des Schatten-Sperre entwickelt. Eine frühe Form wurde in kostenlosen Weltnetzdiensten zur Partnersuche entwickelt, um illegal dort Werbetreibenden ihr Unwesen zu erschweren. Da es dort nichts kostet, sich ein Konto zu erstellen, nützt es wenig, ein als Werber erkanntes Konto zu löschen. Also entschied man sich, die Weiterleitung der Werbenachrichten zu verzögern, und die Werber im Glauben zu lassen, ihr Tun wäre erfolgreich.

Kommentare

Eine beinahe legitime Form des Schatten-Sperre ist das Verstecken von Kommentaren in den Kommentarspalten einer Videoplattform wie der jüdisch kontrollierten Netzseite YouTube. So kann ein Betreiber eines Kanals sein Hausrecht dahingehend ausüben, daß er einen unbequemen Kommentator blockiert, ohne zu ahnen, daß er damit aktiv am shadow banning teilnimmt, da diese Funktionalität in der Hilfe nicht erläutert ist und auch vor den Kanalbetreibern versteckt wird. Der Nutzer kann also auch in Zukunft seine Kommentare dort abgeben, sie werden nur von niemandem außer ihm gelesen.

Suchen

So wie die Inhalte der Metapedia in den Ergebnislisten der jüdisch kontrollierten Suchmaschine Google nicht erscheinen, so werden auch unerwünschte Kanäle oder Videos in der Suche von YouTube nicht oder erst ganz weit unten in der Ergebnisliste angezeigt. Auch auf Facebook und deren Tochtergesellschaft Instagram (beide jüdisch kontrolliert) werden die Suchen manipuliert. Man hält die Funktionsweise der Suchen bewußt nebulös, so daß von vornherein niemand weiß, wie genau sie funktionieren und was genau das korrekte Ergebnis sein müßte.

Die Suche wird angeblich für die Bedürfnisse des Suchenden individuell „optimiert“. Man zeigt ihm nur, was „gut“ für ihn ist. So kann man das verborgene Bannen vor dem Suchenden besser verbergen. Ein diffus operierender Such-Algorithmus ist unüberprüfbar. Man kann Stunden und Tage und Wochen damit verbringen, zu prüfen, ob ein shadow banning involviert ist, oder nicht und kommt zu keinem klaren Ergebnis.

Kennzahlen

Zu den üblichen Kennzahlen in Sozialen Netzwerken gehören die Aufrufzähler, die Wertungen (Daumen hoch) und die Abonnenten, sowie die Anzahl der Kommentare. Diese Zahlen gehen in das ranking der Videos ein und bestimmen ihre Beliebtheit und z.B. ihren Rang in den Suchergebnissen. Um unliebsame Akteure oder Inhalte zurückzudrängen, wie eine Frontlinie des Gegners im Krieg, ohne eine offene kriegerische Auseinandersetzung zu riskieren, manipuliert man diese Kennzahlen, um den Gegner in den Augen der Öffentlichkeit schlecht dastehen zu lassen. So führen angeblich geringe Aufrufzahlen dann zu tatsächlich verminderten Aufrufzahlen. Und suggerierte Beliebtheit wird zu tatsächlicher Beliebtheit.

Daß bei YouTube die „Daumen-hoch“ verschwinden, ist allerdings auch oft ein ganz regulärer Vorgang. Die Liste der „Videos, die ich mag“ hat eine Maximallänge von 5.000 Einträgen. Wer mehr als 5.000 Videos „mag“, verliert die ältesten Daumen-hoch. Dies ist jedoch kein heimliches Verbergen, sondern durch die Funktionalität bedingt.

Benachrichtigungen

Ob ein Inhalt abgerufen wird, richtet sich oft danach, ob der Nutzer über das Erscheinen des neu eingestellten Inhaltes benachrichtigt wird. Wenn man die Benachrichtigung unter den Tisch fallen läßt oder auch nur verzögert, erzeugt man einen Nachteil für den Gegner im Informationskrieg. So werden Teile der Benachrichtigungen nicht ausgeführt und teilweise sogar Benachrichtigungen ganz abbestellt, obwohl das einigen Nutzern schon aufgefallen ist.

Teilen

Wer auf WhatsApp ins Visier geraten ist, wird in der Anzahl der Weiterleitungen von Nachrichten begrenzt, um es zu erschweren, kritische Videos und ähnliches zu teilen, d.h. weiterzuversenden. Einladungen zu unerwünschten Gruppen auf Facebook werden in ihrer Unterstützung eingeschränkt. Diese Art der Begrenzungen erscheinen wie ganz normale Begrenzungen, denen jeder unterliegt, aber diese sind fallweise unterschiedlich, also von Inhalt zu Inhalt und von Person zu Person. Auch hier wird nicht mit der Totalität einer Zensur gearbeitet, sondern mit Behinderungen und Erschwernissen, die den Erfolg vermindern und die Begeisterung dämpfen sollen. Es wird die vom Individuum ausgehende Informationsleistung gedrosselt.

In den Schatten stellen

Seit langem bekannt, aber vom Bürger oft nicht als effektive Maßnahme in einem gegen ihn geführten Informationskrieg erkannt, sind die Maßnahmen der Marginalisierung. Es ist zwar den meisten Bürgern bekannt, daß kritische Beiträge im Fernsehen seit Jahrzehnten zu nachtschlafender Zeit ausgestrahlt werden, wird aber für gewöhnlich nur als Ärgernis bewertet und nicht als Zensurmaßnahme, obwohl diese Maßnahmen von staatlichen Institutionen ausgehen und somit auch rechtlich als Zensur zu bewerten sind, im Gegensatz zu Löschungen und Behinderungen innerhalb von privatwirtschaftlichen Institutionen, die per juristischer Definition keine Zensur sein können, sondern schlimmstenfalls Diskriminierung. Da es in einer Demokratie immer um zahlenmäßige Verhältnisse geht, um Anteile und Prozente, die letztlich über die Einführung von Gesetzen bestimmen, so ist der Informationskrieg, das Ringen um die Meinung der Bürger, immer eine Leistungsfrage. Ist die Aufklärungsleistung höher, oder ist es die Vernebelungsleistung, die Leistung der Lüge? Wenn also die weit überwiegende Zahl der stimmberechtigten Bürger aufgrund ihrer Berufstätigkeit vor Mitternacht ins Bett geht und die kritischen Beiträge nach Mitternacht gesendet werden, so findet effektiv keine Aufklärung statt. Die geringe Zuschauerzahl, die sich aus den Komponenten des „unerfreulichen“ Inhalts und der späten Stunde zusammensetzt, kann in Folge als Scheinargument gegen die Produktion ähnlicher Sendungen mißbraucht werden. Im Anschluß an die bewußt späte Sendezeit wird die Vorhaltezeit der Sendung in den Mediatheken verkürzt, um die Möglichkeit der Einsichtnahme noch weiter zu verringern. Weiterhin werden Beiträge so gestaltet, daß sie aus „lizenzrechtlichen Gründen“ nur einmal ausgestrahlt und gar nicht erst in der Mediathek angeboten werden dürfen. Andere Sendungen, die sich als zu kritisch oder zu beliebt bei kritischen Bürgern erwiesen haben oder der redaktionellen Zensur durchgerutscht sind, werden dann grundlos und stillschweigend aus der Mediathek genommen. So gibt es verschiedenste strukturelle Maßnahmen, die als Zensur nicht in Erscheinung treten und sich juristisch einwandfrei begründen lassen, die aber effektive Zensur darstellen und auch als solche geplant worden sind. Sie betreffen zumeist nicht die Behinderung alternativer, kritischer Berichterstattung außerhalb der Leitmedien, sondern die angeblich sehr wohl innerhalb der Leitmedien stattfindende kritische Berichterstattung, die derart keine nennenswerte Menge an Bürgern erreicht.

Auf unabhängige, kritische Medien greifen diese juristisch einwandfreien Zensurmaßnahmen dahingehend über, daß die teilweise Einbindung von kritischem oder kritisiertem Material aus den Leitmedien aus lizenzrechtlichen Gründen mit juristischen Mitteln erfolgreich bekämpft wird. Das Schattenhafte an diesen Zensurmaßnahmen sind die juristischen Vorbereitungen vor der Veröffentlichung, die scheinbar für alle gleichermaßen gelten und somit als gerecht und fair dargestellt werden, tatsächlich aber nur in manipulativer Einseitigkeit und mit großem Fleiß unbarmherzig durchgesetzt werden. Dabei kann die Tatsache, daß jemand rechtswidrig lizensierte Inhalte verwendete, zusätzlich durch öffentliche Diffamierung ausgenutzt werden. Mittels der Kostenfrage können vor Gericht verlorene Fälle die Schere der finanziellen Potenz der sich gegenüberstehenden Gegner noch weiter aufreißen, bis zum Bankrott des finanziell schwächeren Teils.

Weiteres

Es kann davon ausgegangen werden, daß Schatten-Sperre und eng verwandte Methoden im Informationskrieg nicht nur den Selbstausdruck des Volkes in den VS-basierten Sozialen Netzwerken unterdrücken und steuern sollen. Auch der Versand von E-Post kann verzögert oder unterschlagen werden, weshalb es essentiell ist, die technischen Möglichkeiten zur Überprüfung des Transports möglichst zu nutzen. Der internationale Standard des Message_Disposition_Notification ist dabei hilfreich. Allerdings wird auch dessen Unterstützung durch E-Post-Anbieter immer weiter zurück gedrängt. Das Prinzip der scheinbaren Beliebtheit, die zur tatsächlichen Beliebtheit werden kann und umgekehrt, wird seit langem durch die Veröffentlichung von Umfragen bezüglich der Wahlentscheidungen der Bürger genutzt. Daß die Veranstalter von Demos generell andere Teilnehmerzahlen vermelden als die Polizei, kann inzwischen als Allgemeinwissen gelten. Das ist auch nur ein verwandtes Thema, daß sich von echtem Schatten Bannen dadurch unterscheidet, daß es sich auf konkrete Elemente bezieht und im Prinzip relativ leicht überprüfbar ist, weswegen die Manipulation wesentlich schlechter geheimzuhalten ist. Andere, geheimere Formen des Banns sind Entscheidungen über Einstellungen und Beförderungen, die oft auch nicht überprüfbar sind, so wie Raumvergabe und andere Genehmigungsverfahren. Gesinnungsbedingte Entlassungen sind zwar eine „Schattenseite“ unserer Gesellschaft, können aber wegen ihrer unbedingten Auffälligkeit nicht als Schattenbann gelten.

Ausprägungen

Anders als bei konventioneller Zensur, in der etwas erlaubt oder verboten ist, arbeitet die geheime Bannung mit einer wesentlich größeren Bandbreite in der Abstufung der Maßnahmen. So ist z.B. bei Twitter die Sichtbarkeit von Beiträgen eines in Ungnade gefallenen Autors auf alle Konten, die ihm folgen, heimlich eingeschränkt worden. So konnte also der Autor seine eigenen Beiträge sehen, seine Anhänger konnten sie sehen, aber alle anderen konnten sie nicht sehen, weder angemeldete noch nicht angemeldete Leser. Der geheime Bann, die bedingte Zensur, kennt also diverse innere und äußere Kreise von Informiertheit. Das Prinzip von Gruppen mit unterschiedlichen Berechtigungen ist in der Informatik nicht neu. Daß innere Kreise etwas wissen, was äußere Kreise nicht wissen, ist alt, ebenso wie die Rahmenbedingung, daß die äußeren Kreise nicht wissen, daß sie etwas nicht wissen. Neu ist, daß diese Bedingungen über Algorithmen automatisiert werden. Man kann also das Geheimnis dessen, wer was wissen darf, dem Algorithmus anvertrauen, der sein Geheimnis nicht verraten kann, der absolut zuverlässig ist und dann den Lesezugriff auf den Algorithmus sperren, so daß nur extrem wenige in das Geheimnis eingeweiht sind. Das macht diese Form der abgestuften Zensur äußerst wirtschaftlich.

Neben der Abstufung nach Kreisen der Zugehörigkeit gibt es noch die Abstufung nach der Menge. Z.B. ist es möglich, nur jeden zweiten Abonnenten eines Autors über neue Inhalte zu informieren, also seine Reichweite willkürlich zu halbieren. Auch das hat den Vorteil der Verschleierung, weil es unauffälliger ist, indirekt und sehr schwer nachweisbar.

Suchergebnisse, die angeblich nach „Beliebtheit“ sortiert sind, also nach einem äußerst subjektiven und unüberprüfbaren Kriterium, können „unbeliebte“, also vom System zu benachteiligende Ergebnisse, beliebig und zufällig verteilt weiter an das Ende der Ergebnisliste verschieben, unter variabler Einbeziehung der ebenfalls manipulierten Kennzahlen. So wird nicht nur die Zeit der kritischen Nutzer in höchstem Maße verschwendet, weil sie sehr lange suchen müssen und sich währenddessen sehr lange mit falschen Ergebnissen beschäftigen, auch werden die vom System verschobenen Ergebnisse entschieden seltener aufgerufen.

Eine weitere Dimension der Behinderung ist die Zeit. Nachrichten können verzögert ausgeliefert werden, Kommentare verzögert angezeigt. Kommentare, die einst auch anderen angezeigt wurden, deren scheinbare nicht-Bannung also nachprüfbar war, werden später gelöscht, verschoben, schlechter bewertet oder weniger Teilnehmern angezeigt. Auch unter diesem Aspekt ist die automatisierbare Variabilität so hoch, daß sie sich einer Überprüfbarkeit entzieht und der Versuch eines Nachweises der Manipulation extrem unwirtschaftlich ist.

Wege in den Bann

Twitter begründete die aufgefallenen Vorkommnisse damit, daß man versuche, die Aktivitäten von Trollen zu dämpfen und dafür bekannte Blocklisten verwenden würde.[2] Demnach gibt es Schwarzlisten, die sich verschiedene Dienste und Institutionen teilen, die automatisiert erstellt werden und keinerlei Legitimität aufweisen, weil sie nichts als kumulierte Denunziation sind und aus „wirtschaftlichen“ Gründen, also im Sinne der Profitmaximierung, nicht von zu bezahlenden Mitarbeitern gepflegt und und korrigiert werden könnten. Auf diese und ähnliche Listen kommt man, indem ein anderer Teilnehmer einen blockiert oder denunziert, indem man Interaktionen mit Konten hatte, die schon auf der Liste sind oder später zu der Liste gekommen sind. Es gibt Punktabzug, wenn man viele in Ungnade gefallene Autoren abonniert hat oder Reizwörter in Kommentaren benutzt. Die Möglichkeiten sind beliebig. Im Gegensatz zu den verschiedenen experimentellen und wissenschaftlich begleiteten Social Credit-Systemen Chinas oder dem Bewertungssystem auf Ebay herrscht hier Willkür und absolute Intransparenz.

Fehlende Information

Die Tatsache, daß ein System Schatten-Sperre praktiziert, wird üblicherweise nicht in der Dokumentation des Systems erwähnt. Auch in Systemmedien wird die Existenz einer verdeckten Zensur oft verschwiegen oder als „Verschwörungstheorie“ bezeichnet.

Konsequenzen

In vielen Fällen ist das Schatten-Sperre nicht illegal. Weltnetzdienste können sich auf eine Art Hausrecht berufen. Zudem läßt das Schatten-Sperre sich in den Algorithmen, die nicht-öffentlich bzw. Geschäftsgeheimnis sind, gut verstecken. Man kann also in der Regel nicht juristisch dagegen vorgehen. Da sich diese Maßnahmen gegen eine für den Dienstbetreiber verzichtbare Minderheit richtet, würde ein Boykott oder Streik der Betroffenen nichts ausrichten. Man kann also bestenfalls bemerken, daß Schatten-Sperre praktiziert wird, indem man sich dieser Möglichkeit bewußt wird und entsprechende Tests macht. Man prüft z.B. mit einem anderen Konto nach, ob der selbst geschriebene Kommentar auch für andere lesbar ist. Im Grund muß man das dann täglich wiederholen, weil auch das verzögerte Verschwinden oder Verdecken zu den genutzten Techniken gehört. Der Zweck, dem Gegner die Zeit zu stehlen, wird also in jedem Fall erreicht. Das Mittel des Schatten-Sperre ist äußerst effektiv und kostet nur wenig Programmieraufwand. Danach kann man den Rechner gegen den Menschen antreten lassen, was für den Betreiber des Dienstes sehr preiswert und unaufwendig ist. Diesen Kampf kann man so wenig gewinnen wie Sisyphos.

Die höchst unbequeme, aber einzig erfolgversprechende Alternative zum kräftezehrenden Verbleib auf feindlichem Gebiet ist der Aufbau eigener Dienste, die fest in der Hand ehrenhafter Personengruppen sind, denn ein weiterer kommerzieller Dienst würde bei Erfolg unweigerlich von einem der größeren Dienste aufgekauft werden, so wie YouTube von Google gekauft wurde, WhatsApp von Facebook und OKCupid von match.com.

Siehe auch

Verweise

Fußnoten

  1. Peter Mühlbauer: Schattenbann-Welle im deutschen Twitter, heise.de, 26. Juni 2017
  2. forbes.com: Why Republicans Weren't The Only Ones Shadow Banned On Twitter 31. Juli 2018