Studie zeigt, dass Nutzer_innen, die von sozialen Plattformen verbannt werden, sich in anderen Netzwerken noch radikaler äußern
Was würden wir ohne Soziale Netzwerke tun? Wie würden wir mit Menschen aus aller Welt schnell und unkompliziert kommunizieren? Wie könnten Informationen ausgetauscht werden, die vielleicht in Medien autoritärer Staaten unterdrückt werden? Doch leider haben auch die Sozialen Medien - wie fast alles auf der Welt - eine Schattenseite: Es kommentieren eben nicht nur "die Guten", sondern es machen sich zunehmend auch Trolle, Hater und Verschwörungserzähler_innen lautstark bemerkbar. Inzwischen sind einige Plattformen dazu übergegangen, solche Accounts zu sperren. Die Theorie dahinter: Nimmt man ihnen das digitale Megaphon weg, so werden die verletzenden Botschaften und Lügengeschichten dieser Störenfriede dort kein Problem mehr darstellen. Aber was passiert danach? Wohin gehen diejenigen, die "deplatformed" wurden, und wie wirkt sich das auf ihr künftiges Verhalten aus?
Ein internationales Forscherteam von Mitarbeiter_innen der Binghamton University, der Boston University, des University College London und des Max-Planck-Instituts für Informatik in Deutschland geht diesen Fragen in einer neuen Studie mit dem Titel "Understanding the Effect of Deplatforming on Social Networks" nach. Die Forscher_innen entwickelten eine Methode zur Identifizierung von Konten, die ein und derselben Person auf verschiedenen Plattformen gehören, und fanden heraus, dass ein Verbot auf Reddit oder Twitter dazu führte, dass diese Nutzer_innen sich nach ihrem Auschluss alternativen kleineren Plattformen wie Gab oder Parler anschlossen, wo die Moderation der Inhalte laxer ist. Zwar verkleinern sie dadurch ihr Publikum haben, aber ihre Beiträge dort wurden noch radikaler.
*Sie verschwinden nicht*
"Man kann diese Leute nicht einfach verbannen und sagen: 'Hey, es hat funktioniert'. Sie verschwinden nicht", sagte einer der Forscher, Blackburn. "Sie wandern in andere Bereiche ab. Es hat zwar einen positiven Effekt auf die ursprüngliche Plattform, aber es gibt auch ein gewisses Maß an Verstärkung oder Verschlimmerung dieser Art von Verhalten an anderer Stelle."
Für die Deplatforming-Studie wurden 29 Millionen Beiträge von Gab erfasst, das 2016 gestartet wurde und derzeit rund 4 Millionen Nutzer_innen hat. Gab ist bekannt für seine rechtsextreme Basis von Neonazis, weißen Nationalisten, Antisemiten und QAnon-Verschwörungstheoretiker_innen.
Mithilfe einer Kombination aus maschinellem Lernen und menschlicher Begutachtung glichen die Forscher_innen Profilnamen und Inhalte mit Nutzer_innen ab, die auf Twitter und Reddit aktiv waren, aber gesperrt wurden. Viele, die gesperrt wurden, verwenden denselben Profilnamen oder dieselben Benutzerinformationen auf einer anderen Plattform, um Kontinuität und Wiedererkennbarkeit bei ihren Anhänger_innen zu gewährleisten.
In dem für diese Studie analysierten Datensatz haben etwa 59 % der Twitter-Nutzer_innen Gab-Konten nach ihrer letzten aktiven Zeit auf Twitter erstellt, vermutlich nachdem ihr Konto gesperrt wurde. Bei Reddit haben etwa 76 % der Ausgeschlossenen nach ihrem letzten Beitrag auf Reddit ein Gab-Konto erstellt. Beim Vergleich der Inhalte derselben Nutzer_innen auf Twitter und Reddit mit denen auf Gab zeigte sich, dass die Nutzer_innen tendenziell mehr hasserfüllte Posts verwendeten, wenn sie bei einer Plattform gesperrt wurden und gezwungenermaßen auf eine andere Plattform auswichen. Sie wurden auch aktiver und posteten häufiger.
*Kleinere Reichweite, härtere Posts*
Auch wenn sich das Publikum auf den neuen Plattformen verkleinert, so geben die Forschenden zu bedenken, dass ein Großteil der Planungen für den Anschlag auf das US-Kapitol am 6. Januar auf Parler stattfand, einer Plattform, die eher der Alt-Right- und Rechtsextremen zuzurechnen ist. "Die Verringerung der Reichweite ist wahrscheinlich eine gute Sache, aber die Reichweite kann leicht falsch interpretiert werden. Nur weil jemand 100.000 Follower hat, heißt das noch lange nicht, dass das auch alle Follower in der realen Welt sind", sagte er.
"Die Hardcore-Gruppe, um die wir uns vielleicht am meisten Sorgen machen, sind diejenigen, die wahrscheinlich bei jemandem bleiben, wenn er sich online woanders hin bewegt. Wenn man durch die Verringerung der Reichweite die Intensität erhöht, der die Leute, die dabei bleiben, ausgesetzt sind, stellt sich die Frage nach Qualität oder Quantität. Ist es schlimmer, wenn mehr Leute diese Dinge sehen? Oder ist es schlimmer, wenn mehr extremes Zeug für weniger Leute produziert wird?"
*Nach Lösungen suchen*
Wenn also der Ausschluss von User_innen nicht die richtige Antwort ist, was dann? Reddit-Administrator_innen haben zum Beispiel eine "Shadow-Banning"-Funktion, die Störenfrieden vorgaukelt, immer noch auf der Seite zu posten, nur kann niemand sonst sie sehen. Während der Wahlen 2020 und der COVID-19-Pandemie hat auch Twitter Tweets, die absichtlich Desinformationen verbreiteten, mit Warnungen versehen.
Blackburn ist sich nicht sicher, welche Moderationstools den Social-Media-Plattformen zur Verfügung stehen, aber er ist der Meinung, dass es mehr "soziotechnische Lösungen für soziotechnische Probleme" geben muss, anstatt einfach nur Verbote auszusprechen.
"Die Gesellschaft sagt jetzt ziemlich deutlich, dass wir diese Dinge nicht mehr ignorieren können - wir können nicht mehr einfach die einfachen Lösungen verwenden", sagte er. "Wir müssen uns kreativere Ideen einfallen lassen, um die Leute nicht loszuwerden, sondern sie hoffentlich in eine positive Richtung zu lenken oder zumindest dafür zu sorgen, dass jeder weiß, wer diese Person ist. Irgendwo dazwischen, zwischen ungehindertem Zugang und dem Verbot aller, liegt wahrscheinlich die richtige Lösung."