Warum Facebook Hass-Posts nicht löscht und warum das gar nicht so viel mit Facebook zu tun hat.

Es ist nicht wirklich eine Neuigkeit: Eindeutige rechtsradikale Hetze oder Hassposts, in denen Menschen wegen ihrer Religion oder Sexualität oder auch einfach nur so der Tod gewünscht wird oder hässlichstes Mobbing - man kann sowas so oft bei Facebook melden wie man will, normalerweise erhält man folgende Antwort:

Danke, dass du dir die Zeit nimmst etwas zu melden, was eventuell gegen unsere Gemeinschaftsstandards verstößt. Meldungen wie deine sind ein wichtiger Beitrag zur Sicherheit auf Facebook und tragen zu einer einladenden Umgebung bei. Wir haben das von dir wegen Hassbotschaften oder -symbole gemeldete Foto geprüft und festgestellt, dass es nicht gegen unsere Gemeinschaftsstandards verstößt.

Soweit, so unspektakulär. Man ärgert sich, man beschwert sich eventuell öffentlich und bekommt auch Zustimmung von Freunden, aber damit ist das ganze erledigt.

Nicht gelöschtes wird plötzlich doch gelöscht

In den letzten Tagen ist das Thema aber etwas mehr in die Öffentlichkeit gelangt. Grund sind fremdenfeindliche Hetzposts, die sich gegen Flüchtlinge richteten, bis zu dem Punkt, dass sich jemand öffentlich und unter dem Jubel von gleichgesinnten über den Tod von ertrunkenen Kindern freute.

Letzteren Artikel haben viele - u.a. auch ich - gemeldet und natürlich obige Antwort erhalten. Dennoch wurde er eine Weile später gelöscht, nachdem einige Facebook-Mitarbeiter direkt angesprochen wurden und sich offenbar darum kümmerten.

Was Facebook dazu sagt, dass extremistische Hetze ungelöscht bleibt, ist

(...) Man sei aber zu der Überzeugung gekommen, dass Löschen womöglich noch schlimmere gesellschaftliche Auswirkungen haben könnte, argumentierte sie. Etwa wenn im Netz mundtot gemachte Nutzer dann nur noch Gewalt auf der Straße als Option sehen würden. Außerdem wolle man die Ausbreitung rechtsradikalen Gedankenguts in Europa nicht durch Löschen wegretuschieren: „We don’t hide the rise of racism.“

Das hört sich einen kurzen Moment wie ein durchdachtes Argument an.

Allerdings ist die Idee, dass wenn Menschen daran gehindert würden, im Internet Hetzparolen zu posten, darin bestärkt würden, reale Gewalt auszuüben, schlichtweg falsch. Das Gegenteil ist der Fall: Die Konsequenzenlosigkeit ermutigt vielmehr, immer radikalere Thesen auch öffentlich zu äußern und - wir sehen das ja ganz konkret an den brennenden Aslyheimen - auch den nächsten Schritt zu tun, weil man sich als Teil einer großen Gruppe Gleichgesinnter erkennt.

Würden Gewaltaufrufe gelöscht, ändert das zwar nichts an der Einstellung der Leute, die sie schreiben, aber sie würden dafür auch nicht bejubelt werden und den Eindruck erhalten, sie hätten was total großartiges gesagt. Erst das führt dazu, das in Erwartung von mehr Applaus immer öfter und immer krasser zu tun und vielleicht sogar am Ende "mutiger" zu werden und Worten Taten folgen zu lassen.

Eigentlich müsste Facebook das wissen, daher nehme ich an, dass das einfach nur eine Ausrede ist, die die momentane eigene Hilflosigkeit kaschiert (übrigens ist die Behauptung, Klarnamen verhindern Hassrede ein ähnliches Strohmann-Argument. Facebook möchte Klarnamen schlicht, weil diese die Profile wertvoller machen).

Erinnern wir uns mal an die Schulzeit

Facebook und seine Community haben eine ähnliche soziale Dynamik wie wir sie früher in der Schule vorgefunden haben. Es gibt eine gewisse verwaltenden Hierarchie, die eine Infrastruktur bereitstellt, innerhalb derer viele völlig unterschiedliche Menschen und Gruppen von Menschen zusammenfinden, die im echten Leben wahrscheinlich kaum Berührungspunkte haben.

Es gibt auf der Plattform "Schule" ein gewisses Regelset (Schulordnung), an das sich theoretisch alle zu halten haben. Letztendlich wird dieses Regelset aber regelmäßig unterlaufen. Es gibt Lücken, es kann unterschiedlich interpretiert werden und - der wichtigste Punkt - es wird nicht so konsequent angewendet, wie es formuliert ist.

Im Falle von Sexualität - da sind Schule und Facebook gleich - zwar schon, aber jeder der sich früher mal gegen Mobbing und gegen Bullies wehren musste, dürfte sich gut erinnern, wie zwecklos es war, sich damit an Lehrer oder ans Rektorat zu wenden.

Der Grund dafür ist, dass es sich bei einer Schule um ein "geschlossenes System" handelt. Dass Facebook so beliebt ist, ist übrigens genau darin begründet, dass es wie ein geschlossenes System wirkt* (diese Systeme vereinfachen das soziale Zusammenleben durch Regeln und Beschränkungen. Wer mehr darüber lesen will, kann sich ja mal mit der Systemtheorie nach Niklas Luhmann beschäftigen). Und dass die das System regelnde Instanz sich oftmals nicht an die eigenen Vorgaben zu halten scheint, ist auch keine Überraschung.

Zumindest nicht, bis die Misstände drohen, das geschlossene System zu verlassen.

Auch hier erinnern wir uns doch mal an die eigene Schulzeit, bzw. wer Kinder in der Schule hat. Ich denke, wir alle erkennen ein paar dieser Formulierungen wieder:

Der Administration eines geschlossenen Systems ist es immens wichtig, dass Misstände nicht "nach außen dringen". Man ist ein "Störenfried" oder "Nestbeschmutzer", wenn man Licht auf dunkle Stellen richtet. Man möchte "den Schulfrieden wahren" und die Dinge doch lieber "intern regeln". Auf die Frage, ob es Gewalt oder Drogen in einer Schule gibt wird gerne mit "Nein, bei uns gibt's das nicht!" geantwortet (Was Facebook quasi auch tut, wenn es im selben Atemzug wie beim Zitat weiter oben sagt „Rassismus und Hate Speech haben keinen Platz auf Facebook.“). Es werden auch mal "Zero Tolerance" Regeln eingeführt, die aber dann auf Täter wie Opfer angewendet werden: Damit ist das als eine Geste entlarvt, die nur die Außenwirkung betrifft, nicht aber auf das individuelle Problem eingeht.

Das sind die selben Mechanismen, die ich bei Facebook sehe, wenn ein Post erst nicht gelöscht wird, aber später doch, wenn er Gefahr läuft, das Ansehen der Plattform zu beschädigen. Wir werden das in Zukunft häufiger sehen. Auch die Aktionen mancher Nutzer, Werbetreibende anzuschreiben, deren Anzeige neben einem Hasspost auftauscht, zeigen das: Es geht ihnen natürlich darum, Druck von Außen zu erzeugen, wenn im System nicht reagiert wird.

Ist Facebook also böse?

Nein. Auch die Schule ist eigentlich nicht böse. Geschlossene Systeme sind nicht böse, nur weil es sich um geschlossene Systeme handelt.

Geschlossene Systeme sind ja sinnvoll und auch deswegen beliebt, weil man sich darin einen Schutzraum erhofft. Sie sind ein sozialer Zwischenraum außerhalb der Privatheit, aber noch nicht in der ungefilterten Öffentlichkeit.

Dabei ist die Grenze dessen, was darin als "akzeptabel" angesehen wird, bei allen beteiligten Parteien unterschiedlich. Was dann notwendig ist, ist eine ständige Diskussion und das Aushandeln von Kompromissen. Was nicht hilft, sondern Misstrauen erzeugt, ist Intransparenz und nicht kommunizierte Wechelhaftigkeit, denn das sieht am Ende aus wie Willkür.

Wenn Facebook also wirklich seine Sicht durchsetzen will, dass auch Hass und Diskriminierung sichtbar sein soll, muss Facebook dafür Verständnis erzeugen oder dafür sorgen, dass die Verhältnismäßigkeit gewahrt bleibt. Was schwierig sein dürfte, wenn man sich anschaut, wie schnell extreme Positionen die Kommentarspalten von Medien dominieren und die - sicherlich eigentlich die Mehrheit darstellenden - gemäßigten Stimmen niederschreien bis die sich gar nicht mehr äußern.

Aber die Verantwortung liegt nicht allein bei Facebook, denn auch die Nutzer müssen sich immer wieder überlegen, wie sie mit Menschen, Meinungen und Inhalten umgehen wollen, mit denen sie auf Facebook konfrontiert werden. Ist es wirklich sinnvoll, eine rigorose Moderation zu haben? Was, wenn sich die plötzlich gegen meine Äußerungen richtet? Zum Beispiel wenn ich meine religionskritische Haltung mit Spott-Cartoons bekunde, die von religiösen Menschen als verletzend empfunden werden?

Im Moment freue ich mich darüber, dass die Facebook-Nutzer aktiver gegen ausländerfeindliche Kommentare vorgehen: Noch vor ein paar Wochen blieben die unwidersprochen stehen, inzwischen gibt es ordentlich Gegenwind aus der Community (das nennt sich Counter Speech). Vielleicht kann man hier also mit sanfter Moderation und der Hilfe der Community gleichermaßen eine Balance finden.

Was nämlich klar sein muss ist: Facebook ist eben nicht das Wohnzimmer, wie manche gerne glauben, sondern eine Kneipe, ein Ausflugssdampfer, ein Pauschalreisehotel oder ein Einkaufszentrum. Man kann nicht bestimmen, wer am Nebentisch Platz nimmt oder wie laut die Blasmusik nebenan gespielt wird. Man kann sich bei Missfallen beschweren und die Konsequenzen daraus ziehen, wie damit umgegangen wird. Das alles ist ein ständiger Kommunikationsprozess und ich befinde mich dabei immer in einem System, das Kompromisse benötigt. So lange der Interessenausgleich funktioniert, fühle ich mich wohl. Wenn nicht, kann die Lösung auch darin bestehen, sich eine passendere Kneipe zu suchen.


*Update: Ich bin kein Soziologe und kann daher nicht beurteilen, ob Facebook alle Kriterien eines geschlossenen Systems erfüllt. Mir geht es hier nicht um eine wissenschaftlich korrekte Analyse, sondern nur darum, über eine Analogie eine Verhaltensweise von Facebook nachvollziehbar zu machen, die mir aufgefallen ist.

Flattr this