Digitalisierung und Medien / Demokratie

Algorithmen – Gefahr für die Demokratie?

Symbole von Datenströmen und Computertechnik auf blauem Hintergrund
Bild: rawpixel.com

Algorithmen von Internetplattformen tragen zur Sichtbarkeit polarisierter Diskurse bei. Deshalb seien gesetzliche Transparenzregeln erforderlich, sagt Prof. Dr. Birgit Stark, Professorin an der Johannes Gutenberg-Universität Mainz (JGU) und Direktorin am Mainzer Medieninstitut. Sie fordert mehr Verantwortung der Internet-Unternehmen und einen verbesserten Zugang zu den Daten der Plattformen für die Wissenschaft.

Online-Medien wie Facebook, YouTube, Google & Co arbeiten mit Algorithmen, die darüber entscheiden, welche Informationen die Nutzer vorzugsweise zu sehen bekommen. Algorithmen entscheiden über die Reihenfolge von Suchergebnissen, personalisierte Werbeanzeigen oder Beiträge in sozialen Netzwerken – um nur einige Beispiele zu nennen. Allerdings tragen Algorithmen dazu bei, extreme Positionen sichtbar zu machen und damit Polarisierungstendenzen in der Gesellschaft zu fördern, wie neue Studien zeigen. Prof. Dr. Birgit Stark, Professorin an der Johannes Gutenberg-Universität Mainz (JGU) und Direktorin am Mainzer Medieninstitut, weist darauf hin, dass die Internet-Unternehmen stärker in die Verantwortung genommen werden müssen, und fordert einen verbesserten Zugang zu den Daten der Plattformen für die Wissenschaft und standardisierte Offenlegungspflichten.

Transparenz als zentrale Grundlage für Regulierung

Die Regulierung von Intermediären ist eine der dringendsten medienpolitischen Aufgaben, was sich in einer Reihe von Initiativen auf europäischer und nationaler Ebene widerspiegelt, die nach Wegen suchen, um digitale Plattformen effektiv zur Rechenschaft ziehen zu können. Zwei neue Gutachten, die am Mainzer Medieninstitut entstanden und von AlgorithmWatch in Zusammenarbeit mit dem European Policy Centre veröffentlicht worden sind, kommen zu dem Schluss, dass Transparenz die zentrale Grundlage darstellt, auf der eine wirksame Regulierung aufbauen muss: Wissenschaftler, Journalisten und zivilgesellschaftliche Akteure müssen dafür Zugang zu den Daten der Plattformen erhalten. Dazu gehört unter anderem der verbesserte Zugang zu technischen Schnittstellen und Informationen für die Nutzer, nach welchen Kriterien bestimmte Inhalte angezeigt werden.

Im Rahmen des Governing-Platform-Projekts kooperieren das Mainzer Medieninstitut und AlgorithmWatch in Zusammenarbeit mit zivilgesellschaftlichen Akteuren und Stakeholdern auf politischer Ebene. Ziel ist es, in einem partizipativen Entwicklungsprozess konkrete Vorschläge für Instrumentarien zur Plattformregulierung zu entwickeln. Das Mainzer Medieninstitut übernimmt in diesem Kontext die zentrale Aufgabe, die akademische Expertise aus der Kommunikations- und Rechtswissenschaft einzubringen.

Gefahren für die Meinungsbildung durch Bevorzugung emotionaler und polarisierender Inhalte

In ihrem kommunikationswissenschaftlichen Gutachten „Are Algorithms a Threat to Democracy?“ stellen Birgit Stark und ihr Mitarbeiter Daniel Stegmann auf einer sehr breiten empirischen Basis einen fundierten Überblick über den aktuellen Forschungsstand zu den negativen Auswirkungen von Intermediären auf den öffentlichen Diskurs bereit. „Uns war es wichtig, einen holistischen Ansatz zu wählen und nicht alleine die prominenten Schlagworte ‚Filterblase‘ und ‚Echokammern‘ zu diskutieren, sondern die Perspektive auf die zentralen Gefahren für den öffentlichen Diskurs zu lenken“, sagt Birgit Stark, Professorin für Medienkonvergenz am Institut für Publizistik der JGU. In der Gesamtschau ergibt sich ein differenziertes Bild: Während die pauschalen Effekte von Filterblasen in der öffentlichen Debatte meist überschätzt werden, entstehen hauptsächlich indirekte Gefahren für Meinungsbildungsprozesse, indem Algorithmen in Online-Diskursen beispielsweise Extrempositionen prominenter erscheinen lassen und diesen in der Debatte damit unverhältnismäßig viel Raum geben – häufig verknüpft mit einer Zunahme von Inzivilität und Hassrede in politischen Auseinandersetzungen. Denn ihre algorithmenbasierten Logiken befördern vor allem emotionale Inhalte und belohnen das Polarisierende.

Umsetzung von Transparenzvorschriften in Deutschland noch offen

Besonders virulent sind in der aktuellen Covid-19-Pandemie Sorgen über die Verbreitung von Desinformationen, insbesondere in der Form von Verschwörungstheorien: „Die bisherigen Erkenntnisse, die hauptsächlich die USA in den Blick nehmen, deuten darauf hin, dass die Verbreitung und Rezeption von Desinformation außerhalb von Krisenzeiten aber überschätzt wird“, so Daniel Stegmann, wissenschaftlicher Mitarbeiter am Lehrstuhl für Medienkonvergenz. „Allerdings ist dies eine vorläufige, vorsichtige Einschätzung, denn die Datenlage ist speziell außerhalb der USA dünn, was auch mit dem unzureichenden Zugang zu Plattformdaten zusammenhängt.“ Entsprechend hebt das Gutachten in seinem Fazit die Bedeutung von Transparenz und Datenzugang hervor, die unbedingte Voraussetzungen für evidenzbasierte Regulierungsmechanismen darstellen.

Außer dem kommunikationswissenschaftlichen Gutachten wurde im Rahmen des Governing-Platform-Projekts die Studie „Designing platform governance: A normative perspective on needs, strategies, and tools to regulate intermediaries” von Prof. Dr. Matthias Cornils, ebenfalls Direktor am Mainzer Medieninstitut und Professor für Medienrecht, Kulturrecht und Öffentliches Recht an der JGU, veröffentlicht. Transparenzverpflichtungen sind demnach die Anfangsstufe jeder erforderlichen Regulierung.

Deutschland nimmt mit zwei Regelwerken, dem Netzwerkdurchsetzungsgesetz und dem kürzlich unterzeichneten neuen Medienstaatsvertrag, bei der Regulierung von Plattformen eine Vorreiterrolle ein. Offen ist allerdings, wie die geplanten Transparenzvorschriften im Medienstaatsvertrag benutzerfreundlich und nachvollziehbar umgesetzt werden können.

Quelle: Johannes Gutenberg-Universität Mainz vom 04.06.2020

Info-Pool