Forschungsmonitor Intermediäre

Wie machen sich Desinformation und Hassreden im Netz unsichtbar?

Die Landesanstalt für Medien NRW veröffentlicht die siebte Ausgabe des Forschungsmonitors Intermediäre. Die Autor(inn)en gehen der Frage nach, welche Wege Desinformation, Verschwörungstheorien und Hassrede in den Medien gehen, um Gehör zu finden. Der Monitor beleuchtet auch die Rolle von Moderator(inn)en und die Aufgabenverhältnisse von öffentlichen und (halb-)öffentlichen sozialen Medien.

11.12.2020

Das Jahr geht zu Ende und hinterlässt doch die meisten von uns mit gemischten Gefühlen. Wir stecken mitten in einer globalen Krise und auch die Forschung muss sich dem natürlich widmen. Desinformation, Verschwörungstheorien und Hass sind zu weltweit wiederkehrenden Kennzeichen der Onlinediskurse geworden. Informationsintermediäre und die Gesellschaft reagieren auf diese neuen Herausforderungen mit verschiedenen Strategien: einerseits versuchen Plattformen durch eine striktere Umsetzung ihrer Richtlinien extreme Stimmen aus ihren Netzwerken auszuschließen, dies geschieht zunehmend automatisiert. Außerdem kommt es vermehrt zur organisierten Gegenrede, um den Diskurs zu deeskalieren. Andererseits beobachten wir, dass viele Nutzerinnen und Nutzer von dem harschen Ton abgeschreckt sind und sich aus dem Diskurs zurückziehen – dies betrifft vorrangig gesellschaftliche Minderheiten. Stimmen werden unsichtbar durch Ausschluss oder Rückzug aus Onlinediskursen.

So beobachten wir beispielsweise die Verlagerung von extremen Onlinediskursen in private Messengerdienste. Diese entzieht die Inhalte häufig einer wissenschaftlichen Betrachtung sowie aufsichts- und strafrechtlichen Bewertung. Verschiedene Untersuchungen stellen fest: Desinformation, Verschwörungstheorien und Hass verbreiten sich immer öfter auch über Messengerdienste wie etwa WhatsApp oder Telegram und verlagern sich damit heraus aus öffentlich zugänglichen Informationsintermediären und hinein in private Gruppenchats. Dieser Vorgang nennt sich Deplatforming. Personen, die in klassischen sozialen Medien gegen geltendes Recht oder Plattformregeln verstoßen, werden von ihnen ausgeschlossen und ziehen sich in geschütztere Räume zurück, in dem Glauben, dass sie dort unbeobachtet ihre extremen Inhalte an ihr Zielpublikum tragen können. Dies stellt sowohl die Wissenschaft als auch die Aufsichtspraxis vor neue Herausforderungen, wie sie mit diesen (gefährlichen) unsichtbaren Stimmen in Zukunft umgehen soll.

Dabei sind private Gruppen bei Messengerdiensten wie WhatsApp oder dem Facebook Messenger häufig Orte der Gegenrede. Hier finden vermehrt Korrekturen falscher Nachrichten durch Nutzerinnen und Nutzer statt – häufiger dort als in (halb-)öffentlichen sozialen Netzwerken. Gleichzeitig weisen Studienergebnisse darauf hin, dass viele Nutzerinnen und Nutzer sich nicht mehr trauen, ihre Meinung im Internet frei zu äußern.

Die automatisierte Inhaltemoderation

Außerdem macht die Landesanstalt für Medien NRW auf ein klassisches „Intermediärs-Phänomen“ aufmerksam, das mit den aktuellen Entwicklungen einhergeht und im vorliegenden Forschungsmonitor analysiert wird: die automatisierte Inhaltemoderation. Sie umfasst beispielsweise das Sortieren, Filtern, Sperren oder Löschen von Inhalten durch die Anbieter sozialer Netzwerke. Damit garantieren die Plattformen zwar zum einen den Ausschluss solcher Personen, die falsche oder gar illegale Inhalte verbreiten, gleichzeitig können sie dies jedoch auch zur ökonomisch optimierten Verbreitung von Informationen nutzen. Ein Dilemma, dem nicht zuletzt Journalistinnen und Journalisten bei ihren Recherchen ausgesetzt sind – welche Inhalte werden ihnen überhaupt angezeigt und welche Inhalte produzieren sie im Anschluss? Sind diese auch getrieben vom Wunsch, eine möglichst hohe Reichweite zu erzielen?

Diese und viele weitere spannende Fragen werden im siebten Forschungsmonitor Intermediäre mit dem Titel „Unsichtbare Stimmen – Ausschluss und Rückzug aus Online-Diskursen“ behandelt.

Inhalte dieser Ausgabe:

Insight 1: Extreme ziehen um
Insight 2: Desinformation als Alltagsproblem
Insight 3: Korrekturen im Privaten
Insight 4: Dem Hass entgegenreden
Insight 5: Gewalt geht online – Frauen gehen offline
Insight 6: Automatisierte Kommerzialisierung
Insight 7: Quantifizierte Relevanz
Insight 8: Gemeinwohl im algorithmischen System
Insight 9: Hate Speech verfolgen und bestrafen
Insight 10: Zwischen den Online-Diensten4

Quelle: Landesanstalt für Medien NRW vom 10.12.2020

Back to Top