"Flood the Zone with Shit" – Elon Musk, die AfD und das Agenda-Setting der radikalen Rechten im Bundestagswahlkampf 2025

Im laufenden Bundestagswahlkampf schaffen es die AfD und ihre Spitzenkandidatin Alice Weidel immer wieder, eine hohe mediale Sichtbarkeit zu erzeugen. Das hängt auch entscheidend mit der prominenten Unterstützung durch den US-Milliardär Elon Musk zusammen. Im folgenden Artikel wird erläutert, wie die kommunikativen Interventionen von Musk die mediale Präsenz von Weidel und der AfD erhöhen und wie diese Dynamiken von Mechanismen der digitalen Aufmerksamkeitsökonomie getrieben werden.

Der Beitrag ist zuerst auf dem Blog des Forschungsinstituts Gesellschaftlicher Zusammenhalt (FGZ) erschienen.

Musk als Taktgeber der öffentlichen AfD-Berichterstattung

„Only the AfD can save Germany“ schrieb der US-amerikanische Milliardär und Berater der neuen Trump-Administration Elon Musk auf seinem Kurznachrichtendienst „X“ im Dezember 2024 mitten in den deutschen Wahlkampf hinein. Musk war zuletzt immer wieder mit radikalen Verschwörungserzählungen, Desinformationen, Beschimpfungen und zunehmend auch kommunikativen Interventionen in das innenpolitische Geschehen in europäischen Ländern wie Großbritannien und Deutschland aufgefallen. Ende Dezember folgte ein Gastbeitrag in der „WELT“, im Januar dann ein Live-Talk mit AfD-Chefin Alice Weidel, den seitdem Millionen Nutzer*innen gesehen haben. Das Gespräch zwischen Weidel und Musk enthielt neben AfD-Wahlwerbung zahlreiche Halbwahrheiten, Falschinformationen und geschichtsrevisionistische Aussagen (Weidel: „Hitler war Kommunist“). Die prominente Unterstützung im Wahlkampf zahlte sich für die Spitzenkandidatin aus, beispielsweise auf der Plattform X, wo Weidels Prominenz im Takt zu Musks digitalen Interventionen in die Höhe schoss (Nenno & Lorenz-Spreen, 2025).

Weidel, Musk und die AfD: X als Sprungbrett in die traditionelle Medienlandschaft

Ähnliche Mitnahmeeffekte lassen sich auch für die breitere deutsche Medienlandschaft beobachten. Bereits die Ankündigung des Gesprächs zwischen Musk und Weidel auf X dominierte die Schlagzeilen großer deutscher Medienhäuser:

Online-Berichterstattungen in traditionellen Medien: Titelseiten von BILD, SPIEGEL, taz und DIE ZEIT
Online-Berichterstattungen in traditionellen Medien: Titelseiten von BILD, SPIEGEL, taz und DIE ZEIT

Eine quantitative Kurzanalyse deutschsprachiger Online-Medienartikel mit dem Analyse-Tool Media Cloud (siehe methodische Anmerkungen am Ende) bestätigt, dass die Interventionen von Musk zu einem deutlichen Sichtbarkeitsschub für AfD-Spitzenkandidatin Weidel beigetragen haben. Der Anteil an Medienbeiträgen mit den Begriffen „Weidel“ und „Musk“ (dunkelblau) im Verhältnis zu Artikeln, die lediglich den Begriff „Weidel“ (hellblau) erwähnten, stieg rund um den Wahlaufruf (20.12.: 37 %), den WELT-Beitrag (28.12.: 55 %) und dem X-Talk (09.01.: 91 %) deutlich an.

Statistik: Medienberichterstattung zu Alice Weidel

Am offensichtlichsten wurde der Zusammenhang in der Woche rund um das X-Gespräch von Weidel und Musk. Am 09.01. verzeichnete MediaCloud die bis dato höchste Anzahl an Artikeln mit dem Begriff Weidel (205 Artikel), von denen ganze 186 ebenfalls Musk erwähnten. Über die Woche vom 06.01. bis 12.01. hinweg schoss die Anzahl von Artikeln, die Weidel erwähnten auf eine im Untersuchungszeitraum einmalig hohe Zahl von 1.243 Artikeln.

Statistik: Medienberichterstattung zur AfD

Verwenden wir statt „Weidel“ den Suchbegriff „AfD“, so zeigt sich, dass sich die Mitnahmeeffekte bisher stärker auf die Person und weniger auf die Partei insgesamt auszuwirken scheinen, wenngleich auch dort moderatere Effekte rund um die Schlüsselereignisse sichtbar werden.

Die digitale Aufmerksamkeitsökonomie als Grundlage hyper-salienter Rechtsaußen-Kommunikation

Dem Anstieg dieser medialen Sichtbarkeit der radikalen Rechten liegen Dynamiken zugrunde, die exemplarisch für die Transformation der diskursiven Machtstrukturen in der digitalen Öffentlichkeit stehen: Digitale Medien eröffnen Akteur*innen jenseits der tradierten politischen Landkarte (etwa Musk, AfD, Weidel) einen kommunikativen Möglichkeitsraum, in dem sie sowohl ohne Umweg über die Medien direkt mit ihren Unterstützer*innen kommunizieren (nach innen gerichtete Kommunikation), als auch substanziell den öffentlichen Diskurs beeinflussen können (nach außen gerichtete Kommunikation). Letzteres ist Ausdruck des gegenwärtigen hybriden Mediensystems, in dem sich digitale und traditionelle Medien verbinden und gegenseitig beeinflussen. Grundlegend für diese Mechanismen ist insbesondere die digitale Aufmerksamkeitsökonomie. Hier konkurrieren politische und mediale Akteur*innen sowie digitale Plattformen um die Aufmerksamkeit der Medienkonsument*innen, um ihre Botschaften zu kommunizieren und Werbeeinnahmen zu generieren. Da die Menge an verfügbaren Informationen im Kontext digitaler Medien dramatisch gestiegen ist, die verfügbare menschliche Aufmerksamkeit jedoch gleichgeblieben ist, hat die Kompetitivität in der digitalen Aufmerksamkeitsökonomie deutlich zugenommen. Noch mehr als zuvor gewinnen kommunikative Strategien an Bedeutung, die es ermöglichen, sich in dieser Umgebung durchzusetzen.

Provokation als strategisches Mittel des Agenda Setting und Hackings

Die radikale Rechte scheint sich den Eigenlogiken der digitalen Aufmerksamkeitsökonomie stärker bewusst zu sein als andere Akteur*innen und bearbeitet sie strategisch. So handelte es sich bei der prominenten Unterstützung der AfD im Bundestagswahlkampf durch Elon Musk um eine besonders gelungene Form des Agenda Settings, das die mediale Sichtbarkeit von Weidel und der AfD substanziell erhöhte. Weidels geschichtsrevisionistische Aussage zu Hitler und dem Nationalsozialismus lag wohl unter anderem ein strategisches Interesse der weiteren Verschiebung der „Grenze des Sagbaren“ und der Normalisierung rechtsextremer Narrative zugrunde. Allerdings schien die Aussage eben insbesondere auch als eine bewusste Provokation platziert, von der Weidel sich sicher sein konnte, damit entsprechende mediale Beachtung zu erzielen und ihre eigene Sichtbarkeit im limitierten Aufmerksamkeitsraum der öffentlichen Arena zu erhöhen.

Das Prinzip der Aufmerksamkeitsgewinnung durch gezielte und strategisch platzierte Provokationen hat US-Präsident Donald Trump bereits in den vergangenen Jahren mit großem Erfolg angewandt. Schon während der republikanischen Kandidatenkür im Vorfeld der Präsidentschaftswahl 2016 konnte Donald Trump unter anderem durch gezielte Norm- und Tabubrüche einen überproportionalen Teil der medialen Aufmerksamkeit auf sich lenken. Dies trug dazu bei, dass er sowohl die Vorwahlen als auch die Präsidentschaftswahl für sich entscheiden konnte (Schroeder 2018, Wells et al. 2016). Steve Bannon, ehemaliger Wahlkampfmanager Trumps und Mitgründer des rechtsextremen Portals „Breitbart“, beschrieb den Grundsatz der kommunikativen Strategie der ersten Trump Administration mit den Worten: „Flood the Zone with Shit“. Entscheidend für die Bewertung des Erfolgs dieser Strategie ist in dieser Lesart allein die mediale Sichtbarkeit. Der Wahrheitsgehalt der eigenen Äußerungen und die Frage, ob eine eher positive oder eher negative öffentliche Berichterstattung über die Äußerungen erfolgt, spielen im Zweifelsfall keine wesentliche Rolle. Denn für die positive Rezeption des Gesagten sorgen letztendlich die (digitalen) Kommunikationskanäle des unterstützenden politischen Lagers, deren Reichweite durch die geschilderte Strategie stetig erweitert wird.

Radikal rechte (digitale) Dauerbeschallung: DDoS Attacks on our minds

Entscheidend für diese Strategie ist, dass der politischen Gegenseite die Möglichkeit genommen wird, selbst in Erscheinung zu treten oder eigene Themen zu setzen. Stattdessen arbeiten sie sich, genauso wie Medien und Presse, an den von der radikalen Rechten gesetzten Themen und Narrativen ab und setzen kaum noch eigene Themen. Die US-amerikanische Journalistin Julia Angwin bezeichnet diese Strategie des Agenda Settings durch konstante Tabubrüche und Provokationen als „DDoS attack on our minds“. DDoS Attacken (Distributed Denial-of-service attack) ist eigentlich ein Begriff aus der Cybersicherheit und beschreibt die Überwältigung der Bereitstellung eines Webservices (z.B. einer Webseite) durch eine Flut an (Fake-)Abrufanfragen. Übertragen auf die Strategie der AfD und die wirkmächtige Unterstützung von Elon Musk, lässt sich diese Form des Agenda Settings als eine systematische Überforderung des politischen Willensbildungsprozesses bezeichnen. Die Diskurs- und Informationspraktiken, die der politischen Willensbildung zugrunde liegen, werden durch ständige, inhaltlich oft leere und provokative Vorstöße unterminiert. Die Funktionalität des politischen Willensbildungsprozesses selbst scheint auf lange Sicht hierdurch grundsätzlich gefährdet.

Debatte über den Umgang mit den radikal rechten Diskursstrategien

Welche konkreten Auswirkungen die beschriebenen Geländegewinne im öffentlichen Diskurs konkret auf den Ausgang der Bundestagswahl 2025 haben werden, ist zum jetzigen Zeitpunkt schwer einzuschätzen. Die Befunde der Kurzanalyse illustrieren exemplarisch, wie schnell sich öffentliche Diskurse im Windschatten der globalen politischen Ereignisse aus den sozialen Medien heraus kapern lassen. Und sie zeigen, wie fließend die Grenzen zwischen radikalen digitalen „fringe communities“ und tradierten öffentlichen Diskursräumen mitweilen sind.

Dabei bestehen durchaus politische und mediale Handlungsspielräume, um den genannten Entwicklungen etwas entgegenzusetzen. Der europäische Digital Services Act (DSA) bietet, ebenso wie der im August 2024 EU-weit beschlossene AI Act, vielfältige Interventionsmöglichkeiten. Insbesondere bietet der weitgefasste Begriff der systematischen Risiken für die gesellschaftliche Debatte, auf Wahlprozesse und für die öffentliche Sicherheit (Art. 34, 35 DSA) Anknüpfungspunkte, um gegen die beschriebenen Dynamiken einer digitalen Aufmerksamkeitsökonomie vorzugehen. Wegen des Live-Talks von Musk und Weidel haben die Bundestagsverwaltung und die EU Überprüfungen angekündigt. Gegen einige große Plattformbetreiber laufen schon seit längerem DSA-Verfahren. Bezogen auf die öffentlichen Debatten im Wahlkampf liegt ein wesentlicher Teil der Entscheidungshoheit über die Art und Weise der Berichterstattung bei den privaten Medienhäusern und öffentlich-rechtlichen Rundfunkanstalten, auch wenn das hybride Mediensystem und die digitale Aufmerksamkeitsökonomie hier erhebliche Fliehkräfte erzeugen. Eine vielfältige, umfangreiche und aufgeklärte Berichterstattung rund um die AfD erscheint – gerade unter den Bedingungen eines polarisierten Wahlkampfes – notwendig. Allerdings kann eine mediale Dauerpräsenz auch unerwünschte Nebeneffekte haben, die den Diskursstrategien von Rechtsaußen mehr nutzen als schaden. Angesichts der politischen und medialen Raumgewinne der globalisierten radikalen Rechten ist eine fortgesetzte gesamtgesellschaftliche Debatte darüber notwendig, zu welchen Anlässen, in welchem Umfang und in welcher Form dem digitalen Dauerfeuer der radikalen Rechten Raum gegeben werden sollte.

Methodische Anmerkungen

MediaCloud ist eine Open-Source-Analyseplattform für Online-Medienberichterstattung. Die Plattform sammelt Online-Medienartikel, bereitgestellt durch die RSS-Feeds von Medienwebseiten. Unserer Analyse liegt eine Kollektion von 257 Medienwebseiten aus Deutschland zugrunde, deren Berichterstattung im Zeitraum 01.11.24 bis 28.01.25 mit den ausgeführten Keywords gefiltert wurde. Nicht alle Artikel, die von den Keywörtern erfasst und in die oben dargestellten Grafiken eingespielt wurden, haben Musk, Weidel oder die AfD als Hauptthema. Eine stichprobenartige manuelle Validierung bestätigt jedoch, dass die Artikel im Wesentlichen die Medienberichterstattung über die genannten Akteur*innen abdecken.

Literatur

Franck, G. (1998). Ökonomie der Aufmerksamkeit: Ein Entwurf (12. Auflage). Edition Akzente. Carl Hanser Verlag.

Nenno, S. & Lorenz-Spreen, P. (2025). Do Alice Weidel and the AfD benefit from Musk’s attention on X? Alexander von Humboldt Institute for Internet and Society. https://www.hiig.de/en/musk-x-and-the-afd/ https://doi.org/10.5281/ZENODO.14749544

Schroeder, R. (2018). Social Theory after the Internet: Media, Technology, and Globalization. UCL Press. https://doi.org/10.2307/j.ctt20krxdr

Wells, C., Shah, D. V., Pevehouse, J. C., Yang, J., Pelled, A., Boehm, F., Lukito, J., Ghosh, S., & Schmidt, J. L. (2016). How Trump Drove Coverage to the Nomination: Hybrid Media Campaigning. Political Communication, 33(4), 669–676. https://doi.org/10.1080/10584609.2016.1224416

Titelbild: iStock, Credit: da-kuk

Politische Informationsangebote im Medienrepertoire von Pre-Teens

Heranwachsende kommen über verschiedene Medien und Kommunikationskanäle mit politischen Informationen in Berührung. Basierend auf den Ergebnissen ihrer Bachelorarbeit erläutert Clara Fussan, welche Rolle politischen Informationsangeboten im Medienrepertoire sowie der politischen Sozialisation von Pre-Teens zukommt.

Medien als Informationsquelle wird eine zentrale Rolle zugeschrieben und es wird immer wieder thematisiert, dass sie insbesondere auch die Meinung Heranwachsender prägen. Erst kürzlich wurde beispielsweise diskutiert, wie die hohen Zustimmungswerte der AfD unter jungen Wähler*innen bei vergangenen Landtagswahlen mit der Nutzung von Sozialen Medien zusammenhängen (NDR 2024).

Kinder im Alter der Präadoleszenz (ca. neun bis zwölf Jahre), sogenannte Pre-Teens (Schuster 2002, S. 204; Staats, 2021, S.40), beginnen, sich verstärkt mit der eigenen politischen Identität auseinanderzusetzen, ihre politische Umwelt wahrzunehmen und somit die Grundsteine für eine weitere politische Entwicklung in der Jugend zu legen (Kuhn 2000; Rippl, S., Seipel, C., Kindervater, A. 2022; Medienpädagogischer Forschungsverbund Südwest 2022). In der bisherigen Forschung zu diesem Thema wurde diese Altersgruppe jedoch häufig vernachlässigt. Aus diesem Grund wurde sie im Rahmen einer Bachelorarbeit genauer in den Blick genommen. Im Fokus standen folgende Fragen: Welche Rolle spielen medial vermittelte Informationsangebote in der politischen Sozialisation von Pre-Teens? Inwiefern tragen Medienangebote zur Vermittlung bzw. Aufnahme von und Suche nach politischem Wissen bei? Wie steht dies im Verhältnis zur Wissensaufnahme durch andere Sozialisationsinstanzen? Und welche Potenziale ergeben sich daraus für die Entwicklung zu demokratischen Individuen?

Im Frühjahr 2024 wurden qualitative Leitfadeninterviews mit zehn Pre-Teens geführt. Dabei standen fünf Themenbereiche im Mittelpunkt:

  1. Der Kenntnisstand und das Informationsbedürfnis zu politischen Ereignissen,
  2. das persönliche, informationsorientierte Medienrepertoire und
  3. damit verbundene Medienpraktiken,
  4. der Einfluss anderer Sozialisationsinstanzen auf die politische Sozialisation sowie
  5. subjektiv empfundene Potenziale und Limitationen bestimmter medialer Informationsangebote.

Grundlegende politische Informationen sind bekannt

Politische Ereignisse, wie der Krieg in der Ukraine oder die Klimabewegung Fridays For Future, sind den befragten Kindern nicht fremd. Neben Informationen aus Medien, wie z. B. YouTube, Radio- und Fernsehnachrichten, erfahren die Befragten oft durch Gespräche in der Schule von solchen Themen. Unterschiede zeigen sich vor allem im Hinblick auf das Interesse der Befragten an Hintergrundwissen: Detailliertere Hintergrundinformationen wie z. B. gesellschaftliche Strukturen, die politische Ereignisse bedingen, sind eher nicht bekannt, und es zeigt sich auch kein tiefergehendes Interesse daran. So berichtet Luis (11 Jahre) beispielsweise zu den Klimaprotesten von Fridays for Future: „[…] also ich wusste nur, dass die halt fürs Klima demonstrieren, aber eigentlich nicht mehr“. Meist erfahre er solche Informationen über seine Eltern, ohne anschließend weiter nachfragen zu wollen.

Radio- und Fernsehnachrichten sind zentrale Quellen für politische Informationen

Grundsätzlich stehen Spaß und Unterhaltung bei der Mediennutzung im Pre-Teen-Alter an erster Stelle. Immer wieder kommen Pre-Teens medial aber auch mit aktuellen Themen in Berührung. Spezifische politische Informationen werden vor allem über Radionachrichten und Fernsehangebote aufgenommen. Dazu zählen u. a. die Kindernachrichtensendung logo! (ZDF), die Tagesschau (ARD) oder Wissenssendungen wie die der Checker Welt (ARD). Teilweise tragen auch YouTube-Videos zur Informationsvermittlung bei.

Aktive Suche oder vermittelter Kontakt: So erfahren Pre-Teens von politischen Informationen

Mit Blick auf die spezifischen Nutzungspraktiken dieser Angebote kann zwischen aktiver Suche nach Informationen und einem durch andere Personen vermittelten Kontakt unterschieden werden. So suchen manche Kinder selbst nach Informationen, z. B. durch die eigenständige Nutzung von YouTube-Videos oder den Wunsch, abends mit der Familie logo! oder die Tagesschau anzuschauen. Häufig scheint die Informationsaneignung bei Pre-Teens jedoch noch von anderen Faktoren bzw. Personen abhängig zu sein: In einigen Fällen werden gesellschaftlich relevante Themen von außen an die Pre-Teens herangetragen oder die Nachrichtennutzung von anderen, meist erwachsenen Personen, initiiert. Hier sind es in der Regel die Eltern oder Akteur*innen in der Schule, die den Anstoß geben und die Kinder zur Nutzung bestimmter Angebote anregen. Ähnlich ist es bei Carlotta (11 Jahre), die erzählt, dass sie Informationen aufnimmt, wenn Familienmitglieder, die sich im gleichen Raum aufhalten, Nachrichten nutzen: „[…] die Tagesschau hat meine Schwester eine Zeitlang geguckt, da hab‘ ich manchmal mitgeguckt, weil ich meistens davor noch logo! geschaut habe. Aber von alleine würde ich das nicht schauen.“ Hier wird deutlich, welche Vorbildfunktion anderen Familienmitgliedern zukommt: Durch das Vorleben der Mediennutzung werden Normen der medialen Informationsaneignung an Kinder vermittelt.

Familie und Schule als prägende Akteure, Medien als Verstärker

Dem sozialen Austausch kommt bei der Informationsaufnahme eine große Bedeutung zu. Dabei spielt vor allem die Kernfamilie eine wichtige Rolle – sei es durch mehr oder weniger regelmäßige politische Gespräche am Esstisch, den Austausch der Eltern über politische Themen im Beisein des Kindes oder die gemeinsame, oft auch routinierte Nutzung von Nachrichtensendungen. Dabei sind die Eltern oder ältere Geschwister meist die Hauptinitiator*innen für politische Auseinandersetzungen. Freund*innen und Freizeitaktivitäten sind hinsichtlich der politischen Informationsaufnahme eher nachranging, dafür spielt die Schule eine zentrale Rolle. Hier findet beispielsweise durch den Unterricht in gesellschaftswissenschaftlichen Fächern eine Auseinandersetzung mit politischen Themen statt, wie z. B. bei Laura (10 Jahre): „Also wir machen am Freitag immer in der letzten Stunde Demokratiebildung und da müssen wir dann immer einen Sprecher auswählen, der übernimmt. Und dann fragen wir den so Sachen und fragen den auch so, was in der Woche so los gewesen ist.“ Auch informelle Lernprozesse haben eine wichtige Funktion. Beispielsweise erzählt ein Junge, dass er vom Krieg in der Ukraine durch eine sogenannte neue „Willkommensklasse“ auf seiner Schule mit ukrainischen Mitschüler*innen erfahren habe.
Die Einflüsse der verschiedenen Akteur*innen wirken dabei häufig zusammen: Womit sich beispielsweise in der Schule auseinandergesetzt wird, wird auch zu Hause besprochen oder durch die Mediennutzung vertieft. So erzählte ein Mädchen beispielsweise, durch neue ukrainische Nachbarn und die Schule über den Krieg in der Ukraine erfahren zu haben und sich anschließend weiter über YouTube und ihre Eltern informiert zu haben. Es zeigte sich also auch hier, dass die Nutzung von Medienangeboten teilweise von anderen Akteur*innen abhängig ist, Medienangebote aber gleichzeitig auch bestehendes Wissen vertiefen und Anlässe für weitere Gespräche bieten.

Nachrichten auf Augenhöhe: Was Pre-Teens an Nachrichtenangeboten schätzen

Die befragten Kinder selbst haben gemischte Meinungen zu den genutzten informationsvermittelnden Medienangeboten. Spezifische Kinderangebote, wie logo!, kommen gut an, weil sie Informationen verständlich und auf Augenhöhe vermitteln. Angebote mit Partizipationsmöglichkeiten und eine breite Themenvielfalt werden ebenfalls geschätzt. Angebote für erwachsene Zielgruppen, wie die Tagesschau, werden wiederum als zu kompliziert und wenig spannend wahrgenommen. Auch Lukas (10 Jahre) würde eine größere Vielfalt schätzen: „[…] ich find‘ bei Radios könnten die wirklich noch ein bisschen mehr Nachrichten reinbringen […], weil […] mir ist aufgefallen, die Nachrichten wiederholen sich immer, das finde ich ein bisschen doof. […] Das ist dann auch nicht mehr spannend.“ Es wurde außerdem der Wunsch geäußert, Kinder stärker in die Gestaltung der Angebote einzubeziehen.

Bedarf an verlässlichen Informationsangeboten und medienpädagogischer Unterstützung

Die Interviews zeigen, dass Pre-Teens bereits ein breites, wenn auch nicht tiefes Wissen zu politischen Themen haben und in der Lage dazu sind, sich mit politischen Themen auseinanderzusetzen. Allerdings ist die Nutzung von Nachrichten- und anderen Informationsangeboten insbesondere von der Familie und Schule abhängig. Medien nehmen insofern keine dominante, aber dennoch eine verstärkende Position in der Vermittlung politischen Wissens ein.
Für Eltern ist es wichtig, sich bewusst zu werden, dass sie eine bedeutende Rolle in den Prozessen der Informationsvermittlung spielen und dass sie somit auch Einfluss auf die politische Bildung ihrer Kinder haben. Gleichzeitig sollten sich auch Medienschaffende sowie Politiker*innen vergegenwärtigen, dass Kinder bereits früh mit verschiedensten politischen Informationen in Berührung kommen. Gerade auch aufgrund der Flut von Informationen zu aktuellen gesellschaftspolitischen Themen, globalen Krisen oder auch politischer Konflikte sind weitere, zielgruppengerechte Medienangebote und medienpädagogische Projekte notwendig, die verlässliche Quellen anbieten und die Auseinandersetzung mit Informationen fördern. Auf diese Weise können Kinder in ihrer politischen Sozialisation unterstützt werden, damit sie sich zu kritikfähigen und demokratischen Mitgliedern unserer Gesellschaft entwickeln.

Den Datennebel lichten. Neue europäische Regeln könnten die Forschung zu digitalem Rechtsextremismus erleichtern

Mit dem Digital Services Act der Europäischen Union müssen große Online-Plattformen künftig Zugänge für die Wissenschaft anbieten. Ein potentieller Meilenstein für die Erforschung des digitalen Rechtsextremismus. Es gilt aber einige Dinge zu beachten, damit das neue Gesetz nicht zum Papiertiger verkommt. Jan Rau hat sie zusammengefasst. Der Beitrag ist zuerst auf dem Blog des Forschungsinstituts Gesellschaftlicher Zusammenhalt (FGZ) erschienen.

Online-Plattformen sollen transparenter werden. Das ist eines der Ziele des Digital Services Act (DSA, Gesetz über digitale Dienste), des bislang ambitioniertesten EU-Rechtsakts der Plattformregulierung. Es wird ab Februar 2024 vollständig anwendbar sein und (auch) von der Forschung mit Spannung erwartet. Denn: Der DSA sieht als zentrale Maßnahme in seinem Artikel 40 für Anbieter sehr großer Online-Plattformen oder sehr großer Online-Suchmaschinen die verpflichtende Einführung sogenannter »Forschungsdatenzugänge« vor. Ein potentieller Meilenstein für die Forschung zu zentralen Phänomenen im Kontext digitaler Medien – beispielsweise Desinformationen, gesellschaftliche Polarisierung oder auch dem digitalen Rechtsextremismus.

Bisher war die Forschung zu diesen Themen auf einzelne nationale Gesetzgebungen wie § 5a des Netzwerkdurchsetzungsgesetzes (NetzDG), auf kommerzielle Angebote der Plattformen und auf freiwillig von den Plattformen für Forschung bereitgestellte (aber in ihrem Umfang oft ungenügende) Datenzugänge angewiesen – oder auf das selbstständige und ungefragte Auslesen der Daten durch die Forschenden (scraping). Diese Varianten brachten unterschiedliche Herausforderungen mit sich, darunter unzureichender Umfang und Tiefe des Datenzugangs, mangelhafte Kooperation der Plattformen sowie Rechtsunsicherheiten beim scraping. Von vielen problematischen Phänomenen im Kontext digitaler Plattformen haben Öffentlichkeit und Forschung in der Vergangenheit daher erst durch leaks erfahren. Eine angemessene und systematische Einschätzung potentieller Herausforderungen war und ist somit kaum möglich. Gleichzeitig fehlt hierdurch die Grundlage für angemessene gesellschaftliche und politische Reaktionen auf problematische Entwicklungen in diesem Kontext. Der DSA will dies nun ändern. Er will zumindest die größten Plattformen verpflichten, Forschungszugänge einzurichten.

Die genaue Ausgestaltung des vorgesehenen Zugangs ist noch offen und wird nach Art. 40, Abs. 13 des DSA durch die Europäische Kommission konkretisiert. Um diesen Prozess voranzutreiben, hat die Kommission Ende April einen Call for Evidence veröffentlicht, der unter anderem konkrete Bedarfe der Forschung an einem solchen Zugang abfragt. Forschende des Hamburger Standorts des FGZ und des Leibniz-Instituts für Medienforschung│Hans-Bredow-Institut (HBI) haben sich dazu im Arbeitspapier »Rechtsextreme Online-Kommunikation in Krisenzeiten. Herausforderungen und Interventionsmöglichkeiten aus Sicht der Rechtsextremismus- und Platform-Governance-Forschung« bereits für das Feld der digitalen Rechtsextremismusforschung geäußert. Mit Blick auf die erforderliche Konkretisierung des DSA lassen sich folgende Bedarfe aus der (zukünftigen) Forschungspraxis formulieren:

Transparente Datenverfügbarkeit

Forscher:innen können die im DSA vorgesehenen Forschungsdatenzugänge nur dann sinnvoll nutzen, wenn sie wissen, welche Daten eigentlich bei den jeweiligen Plattformen verfügbar sind. Ein erster Schritt könnte daher ein Verzeichnis sein, das bereits erfolgte Abfragen von Forschenden sowie die Art der daraufhin zur Verfügung gestellten Datenpunkte für andere Forschende einsehbar macht.

Ausreichende Datenraten

Platform APIs, also von den Plattformen zur Verfügung gestellte Schnittstellen zur Datenabfrage, sind in der Regel mit sogenannten rate limits (Menge an Datenpunkten, die pro Minute/Stunde/Tag usw. abgerufen werden können) begrenzt. Sind die rate limits zu niedrig angesetzt und können nicht erhöht werden, kann dies eine angemessene Durchführung des Forschungsprojekts erheblich erschweren oder gar unmöglich machen. Entsprechend großzügig gesetzte rate limits sind also eine Grundvoraussetzung, damit der Forschungsdatenzugang im DSA ein Erfolg werden kann.

Private Accounts und geschlossene Gruppen

Auf »privat« gestellte oder geschlossene Accounts und Communities bilden einen entscheidenden Teil rechtsextremer digitaler Gegenöffentlichkeiten, insbesondere dann, wenn sie trotz ihres privaten Status eine substanzielle Größe mit tausenden von Mitgliedern gewinnen. Gleichzeitig sind sie – unter anderem aufgrund von Datenschutzbemühungen – bisweilen von etablierten Datenzugangsmöglichkeiten (bspw. kommerziellen APIs) ausgeschlossen. Während ein besserer Schutz der Privatsphäre der Nutzer:innen generell zu begrüßen ist, stellen diese Einschränkungen für die Extremismusforschung eine große Herausforderung dar. Es muss überprüft werden, inwiefern diese Barrieren bei besonders relevanten Accounts oder Gruppen unter Beachtung von Datenschutzbestimmungen und anderen ethischen Herausforderungen gesenkt werden können, beispielsweise wenn die Accounts oder Gruppen eine erhebliche Reichweite entwickeln.

Reichweite von Inhalten

Views, impressions, engagement, clicks und ähnliches Einheiten zur Messung der Reichweite von Beiträgen sind in etablierten Datenzugängen meist nicht enthalten. Sie bilden für Forscher:innen aber eine essentielle Grundlage zur tatsächlichen Reichweitenbestimmung von Inhalten oder Akteur:innen und damit zu zur Einordnung ihrer Bedeutung.

Gründe für Reichweite oder Wachstum

Hierbei geht es insbesondere um die Frage, inwiefern Design- und Content-Entscheidungen der Plattformen (bspw. durch automatisierte Vorschlagsfunktionen oder algorithmische Kuratierung in der Timeline) die Reichweite bestimmter Inhalte oder das Wachstum bestimmter Communities künstlich verstärkt haben. Wissenschaftler:innen benötigen Einblicke in die verwendeten Mechanismen und ihre Wirkungen.

Effektivität von Steuerungsmechanismen

Eingriffe der Content Moderation können ungewollte Nebeneffekte entwickeln. So kann beispielsweise das Flagging von problematischen Inhalten ihnen zu mehr Aufmerksamkeit verhelfen – ein paradoxer Effekt, der nicht im Sinne der Moderation ist. Um die Wirksamkeit von Interventionen und Werkzeugen unabhängig überprüfen zu können, müssen die entsprechenden Datenpunkte zugänglich sein.

Kooperationen und forschungsexperimentelle Zugänge

Anbieter sollten mit Forschenden bei der Erprobung neuer Werkzeuge und Steuerungsmechanismen zusammenarbeiten. Forschungsexperimentelle Zugänge könnten die Forschung hinsichtlich möglicher Interventionen erleichtern und eine direkte Überprüfbarkeit der Effektivität neuer Interventionsformen ermöglichen. Eingebettet in angemessene ethische und rechtliche Rahmenbedingungen, können solche Zugänge eine entscheidende Säule im Umgang mit problematischen Entwicklungen im Kontext digitaler Plattformen darstellen.

Gesperrte oder gelöschte Inhalten

Moderationseingriffe im Kontext des digitalen Rechtsextremismus finden oft mit großer Verzögerung statt. Forscher:innen müssen deshalb auch rückwirkend Zugriff auf entsprechende Daten haben, um mögliche problematische Entwicklungen bis zur Intervention nachvollziehen zu können.

Nachvollziehbarkeit von Moderationsentscheidungen

Wissenschaftler:innen muss es möglich sein, Moderations-Entscheidungen nachzuvollziehen. Dazu müssen Plattformen ihnen den Zugang zu entsprechenden Daten und den zugrundeliegenden Entscheidungskriterien gewähren.

Methodische Transparenz

Auch die Herstellung der von den Plattformen angebotenen Daten muss transparent sein, damit Forscher:innen die angewandten Techniken und Methoden bei der Generierung von Datenpunkten zu views oder impressions nachvollziehen und mit anderen Plattformen vergleichen können (bspw. ab wie viel gesehen Sekunden ein entsprechender Datenpunkt gezählt wird). Nur so ist die Aussagekraft und Bedeutung der Daten verlässlich einzuschätzen.

Weiterverwendungsmöglichkeiten der Daten

Löschpflichten bestimmter Datenpunkte können mit den Regeln guter wissenschaftlicher Praxis in Konflikt stehen, die die Aufbewahrung von Datenpunkten (bspw. 3,5 oder 10 Jahre) vorsehen. Wissenschaftliche Gütekriterien müssen bei der Datenbereitstellung im Kontext des DSA jedoch mitgedacht werden. So sind ebenfalls Möglichkeiten zur unabhängigen wissenschaftlichen Überprüfung (u. a. Reproduzierbarkeit der Forschung) zu eröffnen. Eine wesentliche Frage ist auch, inwiefern bereitgestellte Daten als Trainingsdaten für computergestützte wissenschaftliche Analysen (bspw. mit Verfahren des maschinellen Lernens) verwendet werden dürfen.

Ansprechpartner:innen und Unterstützung durch die Plattformen

Im Kontext der Extremismusforschung entstehen spezifische Bedarfe, die einen direkten Kontakt mit der Plattform erfordern können, beispielsweise wenn die Plattform Forschungs-Accounts wegen vermeintlich verdächtigen Verhaltens (etwa wiederholtes Engagement mit problematischen Inhalten) sperrt. Forscher:innen benötigen konkrete Ansprechpartner:innen bei den Anbietern, um solche Eingriffe und andere Probleme zu benennen und zu lösen.

Dauerhafte Forschungsdaten

Aktuelle sehen Nutzungsbedingungen teilweise vor, dass Inhalte auch aus bereits erstellten externen Datensammlungen (bspw. Forschungsdatensammlungen) gelöscht werden müssen, wenn deren Originale von den Plattformen oder von Nutzer:innen gelöscht werden. Diese Forderung ist nicht nur technisch äußerst schwierig umzusetzen, sondern widerspricht auch grundlegenden Forschungsinteressen der Rechtsextremismusforschung. Im Kontext der Forschungsdatenzugänge des DSA sollte sichergestellt werden, dass entsprechende Datenpunkte unter Beachtung angemessener ethischer und rechtlicher Standards weiterhin genutzt werden können.

Schutz vor staatlichem Zugriff

Eine generelle Herausforderung in der Extremismusforschung ist ein potenzielles spezielles Wissen der Forschenden in Bezug auf illegale, möglicherweise strafbare Aktivitäten. Ein erzwungenes Mitwirken der Forschenden an der Strafverfolgung solcher Aktivitäten ist abzulehnen, da dies zu einer erheblichen Limitierung und Selbst-Einschränkung von Forschungsaktivitäten führen kann. Dies ist gerade in gesellschaftlich höchst relevanten Bereichen wie der Extremismus- und Präventionsforschung als problematisch anzusehen.

Die im DSA angekündigten verpflichtenden Forschungsdatenzugänge für große Online-Plattformen können eine Revolution in der systematischen Erforschung problematischer Phänomene wie dem digitalen Rechtsextremismus darstellen und somit eine entscheidende Säule in dessen Bekämpfung bilden. Damit das Vorhaben jedoch nicht zum Papiertiger verkommt, müssen die aufgeführten Punkte in der nun erforderlichen Konkretisierung Beachtung finden. Nur so kann sichergestellt werden, dass die Forschungsdatenzugänge auch tatsächlich hochwertige und umfassende Forschung zur Lichtung des Datennebels ermöglichen.

Illustration: Mathias Rodatz & midjourney

Pressefreiheit weltweit: Deutschland rutscht auf Platz 21 ab

Die Freiheit der Presse ist in Deutschland auch in diesem Jahr zurückgegangen. Nicht nur am heutigen Tag der Pressefreiheit ist es daher unsere Pflicht, uns für eine freie, unabhängigen Presse einzusetzen.

In der heute veröffentlichten Rangliste der Pressefreiheit von Reporter ohne Grenzen (Reporters sans frontières RSF) belegt Deutschland Platz 21 – ein Abstieg um fünf Plätze im Vergleich zum Vorjahr. Grund für den Abwärtstrend sei die weiter wachsende Gewalt gegen Journalist*innen und Medien: Mit 103 physischen Angriffen dokumentiert RSF den höchsten Stand seit Beginn der Aufzeichnungen im Jahr 2015. Im Kalenderjahr 2021 hatte es 80 Angriffe gegeben, 2020 waren es 65. Im internationalen Vergleich genießt Deutschland einen „zufriedenstellenden“ Schutz der Pressefreiheit.

Europas Sorgenkinder

In Europa wurde der Schutz der Pressefreiheit in den letzten Jahren vor allem in Polen und Ungarn zu einem immer größeren Problem. Die Studie „Growing Alarm over Central Europe’s Media Freedom“ von RSF zeigt, dass sich im Jahr 2023 ein Großteil der Befragten aus Polen, der Slowakei, Tschechien und Ungarn über den Zustand der Pressefreiheit sorgt. „Je mehr Platz die Medien haben, desto weniger Platz hat die Diktatur“ meinte in diesem Zusammenhang Adam Michnik, Chefredakteur der polnischen Tageszeitung „Gazeta Wyborcza“. Nichtsdestotrotz konnten sich Polen und Ungarn um gleich mehrere Plätze auf der Rangliste verbessern. Polen sprang 9 Plätze nach oben und rangiert nun auf Platz 57. Ungarn um gleich 13 Plätze (aktuell Platz 72). Drastisch verschärft hat sich die Lage in der Türkei, die um 16 Plätze abgerutscht ist (aktuell 165). Als Gründe nennt RSF neue Anklagen, Massenverhaftungen und das „Desinformationsgesetz“. Nach dem schweren Erdbeben Anfang Februar habe das Regime versucht, die Berichterstattung über die Katastrophe und die Reaktion der Behörden zu kontrollieren.

Warum Pressefreiheit wichtig ist

Grund genug also, am heutigen „Tag der Pressefreiheit“ noch einmal auf ihre Bedeutung aufmerksam zu machen. Die Pressefreiheit als grundrechtlich geschütztes Gut ist zentraler Bestandteil jeder Demokratie. Wenn Art 5 GG festhält, dass „die Pressefreiheit und die Freiheit der Berichterstattung durch Rundfunk und Film“ gewährleistet sind und eine „Zensur“ nicht stattfindet, dann heißt das, dass Rundfunk, Presse und andere Medien vor staatlichen Eingriffen in ihrer Tätigkeit geschützt werden müssen. Staaten sollen keinen Einfluss darauf nehmen, welche Inhalte verbreitet werden – oder auch nicht verbreitet werden. Gleichzeitig hat der Staat aber auch Maßnahmen zum Schutz von Presse und Journalist*innen zu ergreifen.

Soziale Medien: frei, aber gefährlich?

Soziale Medien haben eine enorme Reichweite und Bedeutung erlangt. Ohne selbst „Presse“ zu sein, ermöglichen sie es, dass Menschen ihre Meinung frei äußern und Informationen sich schnell verbreiten können. Gleichzeitig bergen sie jedoch Gefahren, insbesondere wenn sie zur Verbreitung von Falschinformationen und Propaganda genutzt werden oder wenn Empfehlungsalgorithmen nur auf ökonomische Ziele und nicht auf gesellschaftliche Werte hin optimiert werden.

Deshalb ist es umso wichtiger, dass wir uns für eine freie und unabhängige Berichterstattung einsetzen, um den Zugang zu einer breiten Palette an Informationen sicherzustellen, und dass wir uns gegen Angriffe auf die Pressefreiheit und Meinungsfreiheit – online wie offline – zur Wehr setzen, und online dafür eintreten, dass Medieninhalte auf sozialen Medien fair verteilt werden. Denn auch Vielfalt ist ein Wert; auch die demokratische Willensbildung ist zu schützen.

Starke Presse für Machtbalance

Die Pressefreiheit ermöglicht es Journalist*innen, über Themen zu berichten, die von öffentlichem Interesse sind, und kritische Stimmen zu Wort kommen zu lassen. Sie können Missstände aufdecken und Regierungen und Institutionen zur Rechenschaft ziehen. Eine starke Presse kann somit dazu beitragen, die Machtbalance in der Gesellschaft auszugleichen und die Freiheit und die Rechte der Bürger*innen zu schützen. Eine Einschränkung der Pressefreiheit führt zu einer Einschränkung der Meinungs- und Informationsfreiheit und damit zu einer Einschränkung der demokratischen Grundrechte.

Verhaltenskodizes im Fokus des DSA: Was können wir aus den Ähnlichkeiten und Unterschieden zwischen Verhaltenskodizes und der Datenschutz-Grundverordnung lernen?

Das Gesetz über digitale Dienste (DSA) ermutigt zur Ausarbeitung von Verhaltenskodizes mit dem Ziel, „verschiedene Arten illegaler Inhalte und systemischer Risiken zu bekämpfen“, oder für den spezifischen Zweck der Online-Werbung oder der Zugänglichkeit. Dieser Ansatz folgt dem Vorbild der Allgemeinen Datenschutzverordnung (DSGVO). Was können wir also von diesen Kodizes lernen?

The European Union has debuted a string of legislative instruments to regulate different aspects of the information and communications technology (ICT) sector. The General Data Protection Regulation (GDPR) entered into application in 2018 and renewed the EU’s data protection framework; the proposal for an Artificial Intelligence Act (AIA) seeks to mitigate the risks posed by AI technologies; and the Digital Services Act (DSA) regulates the content offered on digital platforms.

While diverse in goals, scholars have noted that recent instruments seem to follow the template laid out by the GDPR, a phenomenon dubbed ‘GDPR mimesis’.[1] A striking example thereof is how articles 45-47 DSA encourage the development of codes of conduct, with several elements being reminiscent of articles 40-41 GDPR and its own call for codes.

How similar is the DSA’s approach to codes of conduct to the GDPR’s approach? And what lessons can be learned from the GDPR’s successes and failures? Two elements are immediately pertinent.

Tension between soft and hard approaches

First, the interactions between codes of conduct and the instrument they are embedded in merit discussion. The GDPR clearly situates codes as secondary instruments vis-à-vis the GDPR as the primary instrument. After all, codes are “intended to contribute to the proper application” of the GDPR (article 40.1 GDPR) and have “the purpose of specifying” its application (article 40.2 GDPR). To that end:

  • codes may be “used as an element by which to demonstrate compliance” as found in: Article 24.3 GDPR (obligations of the controller), Article 28.5 GDPR (sufficient guarantees by processors to implement appropriate technical and organisational measures), Article 32.3 GDPR (level of security appropriate to the risk)
  • “[c]ompliance with approved codes […] shall be taken into due account in assessing the impact of the processing operations” for a DPIA (article 35.8 GDPR)
  • “[w]hen deciding whether to impose an administrative fine and deciding on the amount of the administrative fine […] due regard shall be given to” adherence to codes (article 83.2.j GDPR)

Questions have been raised about how the explicitly broad and voluntary language usually associated with soft law, is replaced in the GDPR by precise and more seemingly binding stipulations typically found in hard law.[2] Some scholars speak of a ‘hardening’ of soft law instruments[3] or ‘juridification’.[4]

This tension between a soft and a hard approach also runs throughout the DSA and its codes. On the one hand, the DSA and the Commission go to great lengths to assure the voluntary, self-regulatory nature of codes under the DSA. See the mentions of codes being “voluntary” tools in Recitals 98, and articles 45.1 and 46.1 DSA, or in point ‘h’ of the Preamble to the 2022 Strengthened Code of Practice on Disinformation (for more on this code, see below). On the other hand, the DSA takes a very clear top-down approach. Recital 104 notes that “[t]he refusal without proper explanations […] of the Commission’s invitation to participate in the application of such a code of conduct could be taken into account” when determining whether there was an infringement of the DSA. Recital 103 DSA contains this tension within one provision, speaking of codes’ voluntary nature and parties’ freedom to decide whether to participate – while also stressing the importance of cooperating in developing and adhering to specific codes. Such an intertwinement of soft and hard approaches “questions the extent to which a platform could abandon the commitments it has voluntarily made”.[5]

Uptake and experimental temporality

Second, the reality of code development must be addressed. The GDPR provides a sobering view with only two approved transnational codes, almost five years after its entry into application,[6] and not a single approved ‘code having general validity’ for data transfers to third countries (article 40.3 juncto 46.2.e GDPR). While there are a number of codes adopted at the national level, the strict requirements for monitoring laid down by the GDPR and the European Data Protection Board (EDPB)[7] are noted as particular sore points that see code developers walk away from the development halfway through or near the end of the process.[8]

In contrast, the DSA has not yet entered into application but (potential) codes already exist. The ‘Code of Practice on Disinformation’ was originally unveiled in 2018, and later updated to the ‘2022 Strengthened Code of Practice on Disinformation’. It explicitly states in point i of its preamble that it “aims to become a Code of Conduct under Article 35 [ed: article 45 in the final text] of the DSA, after entry into force”.[9] The 2016 ‘Code of Conduct on Countering Illegal Hate Speech Online’ similarly treats topics relevant to the DSA, long before the DSA’s final text was approved. The European Commission reported at the end of 2022 that it “will discuss with the IT companies how to ensure that the implementation of the Code supports compliance with the DSA […]. This process may lead to a revision”.[10]

This seems to imply, then, a similar trajectory whereby the Code may be revised and slotted into the DSA’s framework. At the time of writing, work is also underway on the ‘EU Code of conduct on age-appropriate design’. Although its drafting and monitoring process seems to follow a slightly different approach (due to the establishment of a specific expert group), the European Commission similarly mentions that the code “will build on the regulatory framework provided in the [DSA] and assist with its implementation”.[11]

A recipe for success?

The availability of codes of conduct under the DSA therefore seems guaranteed, although some questions could be raised about the transparency of the process and the temporal logic of their development. These concerns go beyond theory. Ex-post assessments of the 2018 ‘Code of Practice on Disinformation’ recommended that there should be “a shift from the current flexible self-regulatory approach to a more co-regulatory one”,[12] which was realised in 2022. Remarkably, however, stakeholders already complained that the initial code was a “government-initiated ‘self-regulatory’ instrument” that did not genuinely engage with stakeholders.[13] The 2016 ‘Code of Conduct on Countering Illegal Hate Speech Online’ was similarly reported to be developed “at the behest of the European Commission under the threat of introducing statutory regulation” with the ‘systematic exclusion’ of civil society groups.[14]

The tension between a soft and a hard approach clearly manifests, and the waters are further muddled due to the unusual temporal approach whereby codes were developed before the DSA’s final text had even been approved. Since the DSA – and by extension its codes of conduct – deals with fundamental societal issues such as discrimination, social inequality, and disinformation, it is crucial to involve societal stakeholders correctly. The stakes have never been higher.

[1] Vagelis Papakonstantinou and Paul De Hert, ‘Post GDPR EU Laws and Their GDPR Mimesis. DGA, DSA, DMA and the EU Regulation of AI’ (European Law Blog, 1 April 2021) <https://europeanlawblog.eu/2021/04/01/post-gdpr-eu-laws-and-their-gdpr-mimesis-dga-dsa-dma-and-the-eu-regulation-of-ai/> accessed 18 January 2022.

[2] Carl Vander Maelen, ‘Hardly Law or Hard Law? Investigating the Dimensions of Functionality and Legalisation of Codes of Conduct in Recent EU Legislation and the Normative Repercussions Thereof’ (2022) 47 European Law Review 752.

[3] E. Traversa and A. Flamini, ‘Fighting Harmful Tax Competition through EU State Aid Law: Will the Hardening of Soft Law Suffice?’ (2015) 14 European State Aid Law Quarterly 323.

[4] A. Beckers, ‘The Creeping Juridification of the Code of Conduct for Business Taxation: How EU Codes of Conduct Become Hard Law’ (2018) 37 Yearbook of European Law 569.

[5] Ronan Fahy, Naomi Appelman and Natali Helberger, ‘The EU’s regulatory push against disinformation: What happens if platforms refuse to cooperate?’ (Verfassungsblog, 5 August 2022) <https://verfassungsblog.de/voluntary-disinfo/> accessed 10 February 2023.

[6] Carl Vander Maelen, ‘First of Many? First GDPR Transnational Code of Conduct Officially Approved After EDPB Opinions 16/2021 and 17/2021’ (2021) 7 European Data Protection Law Review 228.

[7] European Data Protection Board, ‘Guidelines 1/2019 on Codes of Conduct and Monitoring Bodies under Regulation 2016/679 – Version 2.0 (Version Adopted after Public Consultation)’ (4 June 2019).

[8] Evert-Ben van Veen, ‘Unwarranted Requirement of an Accredited External Monitoring Body Hampers Establishing Codes of Conduct’ (MLC Foundation, 10 September 2022) <https://mlcf.eu/en/unwarranted-requirement-of-an-accredited-external-monitoring-body-hampers-establishing-codes-of-conduct/>. Although it would lead this current blog post too far, it must be noted that the DSA takes an entirely different approach to monitoring that is driven heavily by the European Commission and the European Board for Digital Services (see for example article 45.4 DSA).

[9] European Commission, ‘The Strengthened Code of Practice on Disinformation 2022’ (2022) 2 <https://ec.europa.eu/newsroom/dae/redirection/document/87585>.

[10] European Commission, ‘EU Code of Conduct against Online Hate Speech: Latest Evaluation Shows Slowdown in Progress’ (24 November 2022) 1 <https://ec.europa.eu/commission/presscorner/api/files/document/print/en/ip_22_7109/IP_22_7109_EN.pdf>.

[11] European Commission, ‘Special Group on the EU Code of Conduct on Age-Appropriate Design’ <https://digital-strategy.ec.europa.eu/en/policies/group-age-appropriate-design> accessed 1 March 2023.

[12] European Regulators Group for Audiovisual Media Services, ‘ERGA Report on Disinformation: Assessment of the Implementation of the Code of Practice’ (May 2020) 52.

[13] P. H. Chase, ‘The EU Code of Practice on Disinformation: The Difficulty of Regulating a Nebulous Problem’ (Transatlantic Working Group on Content Moderation Online and Freedom of Expression, 29 August 2019) 1. See also pages 5 and 9.

[14] B. Bukovská, ‘The European Commission’s Code of Conduct for Countering Illegal Hate Speech Online: An Analysis of Freedom of Expression Implications’ (Transatlantic High Level Working Group on Content Moderation Online and Freedom of Expression, 7 May 2019) 3–4; see also similar comments in: N. Alkiviadou, ‘Hate Speech on Social Media Networks: Towards a Regulatory Framework?’ (2019) 28 Information & Communications Technology Law 19, 31.

#UseTheNews-Forschungsüberblick: Familienangehörige sind wichtige Nachrichtenquelle

01.03.2023

Im #UseTheNews-Forschungsüberblick für Februar hat Leonie Wunderlich einige internationale Studien zusammengefasst: Sie zeigen, dass das familiäre Umfeld eine Rolle beim Nachrichtenkonsum junger Menschen spielt, negative Online-Kommentare dem Ansehen von Nachrichtenanbietern schaden können und junge Erwachsene zwischen „Neuigkeiten“ und „den Nachrichten“ unterscheiden.

Der Forschungsüberblick ist ein Format des #UseTheNews-Projekts zur Nachrichtenkompetenz Jugendlicher und junger Erwachsener. Leonie Wunderlich fasst darin einmal im Monat aktuelle Studien zum Thema zusammen.

Online-Kommentare beeinflussen die Wahrnehmung der Glaubwürdigkeit von Nachrichtenmedien

Das Lesen von beleidigenden Online-Kommentaren unter Artikeln kann dazu führen, dass Nutzer*innen eine Nachrichtenagentur als weniger glaubwürdig wahrnehmen. Das zeigt eine gerade veröffentlichte Studie auf Grundlage von zwei Experimenten in den USA (Studie 1, n = 520; Studie 2, n = 1056). Diese negative Wahrnehmung zeigt sich auch dann, wenn die Beleidigungen in den Kommentaren den Nachrichtenanbieter nicht selbst betreffen und wenn die ersten Kommentare in einem Kommentar-Thread inhaltlich höflich sind.

Zur Studie

Das familiäre Umfeld ist häufigste Nachrichtenquelle für junge Menschen in Australien

Für Kinder und Jugendliche in Australien ist die Familie die häufigste Nachrichtenquelle – mit zunehmendem Alter findet allerdings eine Verschiebung hin zum Konsum von Nachrichten in sozialen Medien, auf Nachrichten-Websites und -Apps statt. Das zeigt eine repräsentative Umfrage zu den Nachrichtenpraktiken und -erfahrungen junger Australier im Alter von 8 bis 16 Jahren, bei der die Ergebnisse für die 8- bis 12-Jährigen und die 13- bis 16-Jährigen miteinander verglichen wurden. Die Verschiebung in der Relevanz einzelner Nachrichtenquellen scheint dabei keinen Einfluss auf ihre Einschätzung zu haben, wie wichtig Nachrichten für sie sind. Die Autoren stellten jedoch fest, dass die Art und Weise, wie sich junge Menschen mit Nachrichten versorgen, und ihre affektive Erfahrung mit Nachrichten einen Einfluss darauf haben, wie motiviert die jungen Menschen sind, online mit Nachrichten zu interagieren.

Zur Studie

Welche Beziehung haben junge Erwachsene zu Nachrichten?

Junge Menschen unterscheiden zwischen „news“ und „the news“: Letztere werden als überwiegend politisch-aktuelle Themen eng definiert und gelten als Domäne der großen Nachrichtensender, von denen erwartet wird, dass sie unparteiisch und objektiv berichten. Hingegen sind „news“ thematisch breiter gefächert, umfassen etwa auch Unterhaltungsthemen und Promi-Klatsch, und sie haben einen größeren tonalen Spielraum. Zum Schutz ihrer (psychischen) Gesundheit tendieren einige junge Menschen dazu, sich mehr mit „news“ als mit „the news“ zu beschäftigen. [LW1] Das zeigt eine kürzlich erschiene Interviewstudie unter jungen Erwachsenen (n=72) zwischen 18 und 30 Jahren aus drei verschiedenen Ländern (Brasilien, UK und USA), die im Auftrag des Reuters Institutes durchgeführt wurde. Insgesamt wurden die Kanäle untersucht, über die sich junge Menschen informieren, die Art der Nachrichten sowie die Sprache und die Formate, die sie bevorzugen. Für Nachrichtenanbieter leiten die Autoren ab, dass in junge Talente investiert werden sollte, die Inhalte mit einem intuitiven Gefühl für aufkommender Plattformen erstellen können. Außerdem könnten neue (Sub-)Marken in Betracht gezogen werden, um einen anderen Ansatz der Nachrichtenberichterstattung zu signalisieren und gleichzeitig den Wert und die Glaubwürdigkeit der bestehenden Marken beizubehalten.

Zur Studie

Wer keinen #UseTheNews-Forschungsüberblick und keine Neuigkeiten zur jungen Zielgruppe verpassen möchte, kann hier den #UseTheNews-Letter abonnieren.

Öffentlich-Rechtliche auf Social Media: Löschen für die Vielfalt

27.02.2023

Das Bundesverwaltungsgericht gelangt mit einiger Anstrengung zu einer generellen Pflicht öffentlich-rechtlicher Rundfunkanstalten, Inhalte auf ihren Social Media-Präsenzen zu moderieren und Nutzendenkommentare ohne hinreichenden Sendungsbezug zu löschen. Die Chance, ein zukunftweisendes Judikat zum Auftrag des ÖRR in der plattformisierten Öffentlichkeit zu erlassen, lässt der 6. Senat ungenutzt, dabei hatte das erstinstanzlich befasste VG Leipzig einen Weg dorthin aufgezeigt.

Von Dr. Tobias Mast und Prof. Dr. Wolfgang Schulz

Dieser Beitrag erschien zuerst im Verfassungsblog.

Der Fall

Die Entscheidung vom 30. November 2022 (BVerwG 6 C 12.20) deren Gründe seit einigen Tagen vorliegen, befasst sich mit der Praxis des Mitteldeutschen Rundfunks (MDR), eine Präsenz auf Facebook vorzuhalten, um dort auf aktuelle Sendungen hinzuweisen und Kommentare entsprechend einer selbstgesetzten Netiquette zuzulassen, soweit sich diese inhaltlich auf die entsprechenden Sendungen beziehen. Ein Nutzer kommentierte rege unter den Beiträgen des MDR. Nachdem einer seiner Kommentare durch den MDR gelöscht wurde, begann er, in den Kommentarspalten gegen die von ihm als Zensur empfundene Inhaltsmoderation anzuschreiben, wobei seine Posts wiederum mangels Sendungsbezug gelöscht wurden, sodass sich der Kreislauf aus Echauffieren und Löschung fortspann. Die betrauten Verwaltungsgerichte erkannten den Eingriffscharakter der Löschungen und begaben sich auf die Suche nach Kompetenztiteln und Rechtfertigungserwägungen.

Wer die Entscheidungen liest, wird der verfassungsrechtlichen Maßstabslosigkeit gewahr, die in diesem Bereich auch noch etwa 15 Jahre, nachdem die Phänomene relevant wurden, vorherrscht. In diesem Feld hat man es mit einem hochkomplexen Interessengeflecht zu tun, bestehend aus gleichermaßen grundrechtsverpflichteten (Art. 1 Abs. 3 GG) wie auch grundrechtsberechtigten (Art. 19 Abs. 3 GG) ÖRR-Anstalten (Rn. 34), den mit ihnen interagierenden Privatpersonen, den ihrerseits privatrechtlich organisierten und die Kommunikationsarchitektur bereitstellenden Plattformunternehmen wie auch der potenziell in ihren Wettbewerbschancen durch die ÖRR-Aktivitäten beeinträchtigten privaten Medienunternehmen. Anstatt einen verfassungsrechtlich imprägnierten Verständnisvorschlag des Medienrechts zu unterbreiten, rettete man sich aber ins Kleinklein einer Staatsvertragsanlage.

Vom Unionsrecht in die Anlage

Das Gericht geht von einem Eingriff in die Meinungsfreiheit des Nutzers durch den MDR aus und prüft dessen Berechtigung. Als Rechtsgrundlage für die Kommentarlöschungen zog das BVerwG § 11d Abs. 5 RStV a.F. i. V. m. Ziff. 17 Hs. 1 der Anlage 4 zum RStV a.F. (heute § 30 Abs. 5 S. 1 Nr. 4 MStV i.V.m. Anlage zu § 30 Abs. 5 Ziff. 17 Hs. 1), die Negativliste öffentlich-rechtlicher Telemedien heran, die den Betrieb von „Foren, Chats ohne Bezug zu Sendungen und redaktionelle Begleitung“ durch ÖRR-Anstalten per se untersagt. Die Liste ist Resultat des sog. Beihilfekompromisses, der 2007 zwischen der Europäischen Kommission und Deutschland geschlossen wurde, um den ursprünglich durch Gerätegebühren, seit 2013 durch Haushaltbeiträge finanzierten ÖRR nicht als Verfälschung des privatwirtschaftlichen Medienwettbewerbs an den primärrechtlichen Vorgaben des Beihilferechts zerschellen zu lassen. Nachdem die deutsche Seite der Kommission eine lange Liste an Zusagen erteilt hatte (Ziff. 338 der Beihilfe-Entscheidung: Internet-Chats), die 2008 mit dem 12. RÄStV umgesetzt wurden, stellte die Kommission ihr beihilferechtliches Verfahren ein. Mit alldem sollen die Chancen privater Wettbewerber aufrechterhalten und damit mittelbar der Meinungsvielfalt gedient werden (Rn. 46).

Während die meisten in der Negativliste ausgeschlossenen Telemedien recht weit vom demokratischen Zentralanliegen öffentlicher Meinungsbildung entfernt liegen und mit Anzeigen- und Preisvergleichsportalen, Partner- und Tauschbörsen vornehmlich Telemedien betreffen, deren ökonomisches Primäranliegen und das damit provozierte Konkurrenzverhältnis zu privatwirtschaftlichen Anbietern augenfällig ist, provoziert die hier interessierende Ziff. 17 Fragen, die an die eigentliche Rolle und Funktion des ÖRR unter heutigen medialen Bedingungen rühren. Der Beihilfe-Kompromiss bezog die Chat- und Forenvorgaben nicht auf Kommentarspalten auf sozialen Netzwerken. Die sich dort entwickelnden Erwartungen des Publikums an Journalismus, die mit Schlagworten wie „Audience Turn“ oder „Participatory Turn“ umschrieben werden (Überblick bei Loosen/Reimer/Hölig 2020), und auch öffentlich-rechtliche Medienanbieter zu gewissen Anpassungen drängen (Jarren/Fischer, Leviathan Sonderband 37 (2021), 365), waren noch nicht vollauf absehbar. Es hätte deswegen nun nahegelegen, darüber nachzudenken, was uns der Auftrag des ÖRR, seine Programmfreiheit in digitalen Kommunikationsumgebungen zu sagen hat. Eine Prüfung der Verfassungskonformität des Verbotes müsste sich vertieft mit der Entwicklungsgarantie des öffentlich-rechtlichen Rundfunks auseinandersetzen. Hier zeigt sich dann das zentrale Problem der Gesamtkonstruktion des BVerwG: Würde man – zugunsten des Senders – von einer Verfassungswidrigkeit dieses Teils der Negativliste ausgehen, fehlte der Rechtsgrund für eine Löschung, da das Gericht eine Kuratierung der Inhalte anhand der „Hausregeln“ in Form der Netiquette und deren verfassungsrechtliche Verankerung nicht ernsthaft in Erwägung zieht (vgl. Rn. 58 ff., 68).

Wann kippt ein Forum?

Beginnt man mit dem BVerwG bei der Auslegung des einfachen Rundfunkrechts, stellt sich zunächst die Frage, ob die Kommentarspalte unter den MDR-Beiträgen ein Chat oder Forum im Sinne der Negativliste darstellt. Soll den Begriffen jeweils normativer Eigengehalt zukommen, liegt es nahe, den Chat als Gespräch unter gleichzeitiger Anwesenheit der Kommunizierenden, das Forum dagegen als thematisch gegliederte und weniger zeitgebundene Diskussionsplattform zu begreifen. Die Kommentarspalten bei Facebook regen dazu an, sich zu einem konkreten Post der ÖRR-Anstalt auszutauschen, sodass man insoweit von einem Forum sprechen kann. Ein solches ist nach Ziff. 17 der Negativliste verboten, wenn es „ohne Bezug zu Sendungen und redaktionelle Begleitung“ daherkommt.

Sendungsbezogen hat also das Forum, nicht der einzelne Kommentar zu sein (in diese Richtung auch Held in Binder/Vesting, RundfunkR, 4. Aufl. 2018, § 11d Rn. 139). Ein einzelner Kommentar auf thematischen Abwegen wird einem Forum kaum den Sendungsbezug nehmen. Versteht man den Sendungsbezug und die redaktionelle Begleitung als kumulativ zu wahrende Voraussetzungen, hätte es sonst jeder Nutzende in der Hand, die ÖRR-Präsenz zeitweilig durch einen neben der Sache liegenden Post zum rechtswidrigen Telemedium werden zu lassen – ein eher abwegiges Szenario. Wesentlich näher liegt es, für den erforderlichen Sendungsbezug auf das Gesamtgepräge der Diskussion abzustellen und einen Kipppunkt zu bestimmen, bei dem der Diskussionscharakter nicht mehr als auf die Sendung bezogen begriffen werden kann. Etwas anderes gilt lediglich, wenn die ÖRR-Anstalt ein Forum bereits sendungsfern selbst eröffnet.

Löschbefugnis nur bei Löschpflicht
Das BVerwG setzte freilich stattdessen den einzelnen Kommentar mit dem Forum gleich, entnahm Ziff. 17 der Anlage folgerichtig eine absolute Löschpflicht für sendungsferne Kommentare und musste im weiteren Prüfprogramm der überbeanspruchten Ziff. 17 auch noch eine dem Vorbehalt des Gesetzes genügende Befugnis für all die mit den Löschungen einhergehenden Grundrechtseingriffe entnehmen. Andernfalls hätte man sämtliche Facebookpräsenzen der ÖRR-Anstalten mit Kommentarfunktion als rechtswidrig begreifen müssen, weil die Anstalten den Vorgaben des einfachen Rundfunkrechts nicht in verfassungsmäßiger Weise genügen könnten und überdies nach der BVerwG-Lesart das Damoklesschwert der Unionsrechtswidrigkeit über denselben schwebte. Dass aber § 11d Abs. 5 S. 4 RStV a.F. i.V.m. Ziff. 17 der Anlage, der sprachlich eindeutig auf eine Unterlassungspflicht der Rundfunkanstalten beschränkt ist, zu Eingriffen in die Meinungsäußerungsfreiheit der Facebooknutzenden berechtigt, liegt alles andere als nahe. Anders als das BVerwG ausführt (Rn. 31), enthält die Negativliste auch gerade keinen materiellen Auftrag für die Rundfunkanstalten.

Hätte man dagegen wie hier auf das Gesamtgepräge der Kommentarspalte abgestellt, hätten sich interessante und wichtige Rechtsfragen angeschlossen, deren Beantwortung nun auf unbestimmte Zeit verschoben ist. Zunächst hätte sich zu klären aufgedrängt, ob und welche Spielräume dem MDR bei der redaktionellen Begleitung, also der Inhaltsmoderation seiner Kommentarspalten, zukommt. Die Spielräume hätten wiederum normativ verankert werden müssen, etwa im Auftrag des ÖRR auf Internetplattformen oder als Anhängsel einer Programmfreiheit ebendort. Letztere sichert einen journalistischen und künstlerischen Freiraum ab, der sich jedenfalls auf die Gestaltung der publizistischen Formate erstreckt (vgl. Cornils in Stern/Sodan/Möstl, StaatsR, 2. Aufl. 2022, § 120 Rn. 76), aber durchaus auch aufs Digitale ausstrahlen könnte (so das vorbefasste VG Leipzig, 1 K 1642/18, Rn. 89). Die Netiquetten der ÖRR-Anstalten hätten wiederum als Ausdruck dieser Gestaltungskompetenzen interpretiert werden können. Hier wären Aussagen zu treffen gewesen, die die seit Jahren schwelenden Diskussionen ein Stück weit hätten voranbringen können.

Rechtsstreit (weitgehend) gewonnen, an Macht verloren

Nun ist eine Löschpflicht natürlich für die mit ihr betrauten Organisationen bedeutend unliebsamer, als eine Löschbefugnis. Die ÖRR-Anstalten werden durch die Lösung des BVerwG aber nicht lediglich im Verhältnis zu den Nutzenden verstärkt in Anspruch genommen, sondern auch maßgeblich im Verhältnis zu den Plattform- und Netzwerkbetreibenden geschwächt. Facebook, Instagram, TikTok und Co. können nun mit einer einfachen Änderung ihrer Rechtezuweisungen die ÖRR-Anstalten dazu drängen, die Plattform zu verlassen, ohne sich mit einzelnen Sperrungen derselben die Finger schmutzig zu machen. Es genügt nun, recht unauffällig für Plattformpräsenzen eines bestimmten Zuschnitts die Befugnis zur Inhaltsmoderation unter eigenen Posts einzuschränken oder zu entziehen. Die ÖRR-Anstalten müssten dann, wollten sie das Verdikt der Rechtswidrigkeit vermeiden, den Dienst verlassen – ein Shadow Ban der etwas anderen Art. Man darf hoffen, dass sich die Journalistinnen und Journalisten in den Anstalten bei ihrer Berichterstattung über die großen Plattformunternehmen hiervon nicht beeinflussen lassen. Ein Entweder-oder – redaktionelles Angebot oder ganz offene Plattform – wird weder beim öffentlich-rechtlichen Rundfunk noch bei kommerziellen Angeboten der kommunikativen Funktion von Foren und ähnlichen Angebote gerecht. Wir brauchen Meta-Normen, die Möglichkeiten, Grenzen und Verfahren für „Hausregeln“ unterschiedlicher Anbieter, auch für staatliche Foren, definieren. Das Gericht hat die Chance nicht genutzt, zu explorieren, was sich aus der Verfassung dazu ableiten lässt.

Titelfoto: Simão Moreira, pexels

Kinder, wie die Zeit vergeht! Das HBI gratuliert der Sesamstraße zum 50. Geburtstag

05.01.2023

50 Jahre Sesamstraße – eine Kindersendung feiert Geburtstag. Das HBI gratuliert aufs Herzlichste, hat es doch die Sendung gerade in ihren Anfängen intensiv und forschend begleitet. Dr. Claudia Lampert und Dr. Hans-Ulrich Wagner haben einen Blick in das Institutsarchiv geworfen.

Am 8. Januar 1973 ging die deutschsprachige Version der Sesame Street auf Sendung, ambitioniert und mit einem umfangreichen Zielkatalog, mitunter heftig kritisiert und umstritten (insbesondere wegen der Orientierung am US-amerikanischen Original und dessen starke Fokussierung auf die Förderung kognitiver Fähigkeiten), von Kindern aber immer gern gesehen. In den USA lief das Original Sesame Street schon seit 1969. Mit dem Start der Sesamstraße in Deutschland wurde das Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI) (damals noch „Hans-Bredow-Institut für Rundfunk und Fernsehen an der Universität Hamburg”) vom Bundesministerium für Bildung und Wissenschaft mit der Begleitforschung zur Sendung beauftragt (Berghaus et al. 1978).

Vom Vorschulexperiment zum erfolgreichen Kinderfernsehprogramm

Im Zentrum stand die Frage, inwieweit Fernsehsendungen in der Lage sind, vorschulpädagogische Aufgaben zu übernehmen. Wie in der Sendung, standen auch in der Forschung die sozialen Lernziele im Vordergrund, d. h. „Erziehungseffekte, welche die gesellschaftlichen Handlungsorientierungen bei Kindern betreffen” (S. 8). Neben dem Sendungsinhalt wurden familiäre Faktoren sowie das Alter und Geschlecht der Kinder berücksichtigt. Nicht nur die Sesamstraße hatte damals Pioniercharakter (Wagner 2013). Auch die Begleitforschungsgruppe betrat mit der umfangreichen „Mehrebenenanalyse“ (Berghaus et al. 1978, S. 15) Neuland, da Anfang der 1970er Jahre noch kaum Forschung zu dieser jungen Altersgruppe existierte.

Begleitforschung in den 1970er Jahren

Im Rahmen der Begleitforschung wurden am HBI insgesamt sechs aufwändige Teilstudien durchgeführt, die hier nur kurz aufgeführt werden, um die Komplexität und den Aufwand zu verdeutlichen, der damals investiert wurde, um ein gutes, empirisch fundiertes Bildungsprogramm für Kinder zu entwickeln:

  1. Sendungsanalyse (Inhaltsanalyse von 62 Sendefolgen aus 1973 und 1974);
  2. Beobachtung von 190 Kindern während der Nutzung (zu Hause bzw. im Kindergarten);
  3. Verhaltens-, Fertigkeiten- und Informationstests zur Untersuchung des Einflusses der Sendung auf die soziale Wahrnehmung, das Sozialverhalten und die Entwicklung intellektueller Fertigkeiten bei Vorschulkindern (Vergleich zwischen „Seher*innen” und „Kontrollgruppe”);
  4. Elternbefragung („Soziale Beziehungen”): Mündliche und schriftliche Befragungen von über 700 Eltern zur Erfassung der sozialen Umwelt- und Beziehungssituation;
  5. Erzieher*innenbefragung: Befragung von über 900 Vorschulpädagog*innen und Grundschullehrer*innen;
  6. Repräsentativerhebung (mündliches Interview) in 1.700 Familien mit Kindern im Alter von 3 bis 10 Jahren zum allgemeinen und sendungsbezogenen Fernsehverhalten sowie zur Beurteilung der Sendung.

Erziehung ohne Zeigefinger

Die ausführliche Darstellung der Teilerhebungen und der Befunde würde den Rahmen dieses Beitrags sprengen. Es lohnt sich aber in jedem Fall, einen Blick in die zusammenfassende Dokumentation von Berghaus et al. (1978) zu werfen. Unter anderem wurde der Sendung eine breite Akzeptanz bei Kindern, Eltern und Pädagog*innen bescheinigt, die nicht zuletzt auch durch die öffentliche Debatte und begleitende Kommunikation (mit Feedback-Möglichkeiten) begünstigt wurde (Kob 1976, 1978). Die Sendungsstruktur, Inhalte, Darbietungsformen sowie die Regelhaftigkeit und Dichte der Ausstrahlung wurden als relevante Faktoren gesehen (damals wurde die Sendung häufiger angeboten als andere Sendungen, und für viele Kinder bedeutete 18 Uhr jahrelang „Sesamstraßen-Zeit“). Inhaltlich überzeugte Eltern und Kinder vor allem die Komik, die dazu beitrug, dass „bei aller „pädagogischer Dichte“ […] mit ihrer Hilfe die Penetranz des „pädagogischen Zeigefingers“ vermieden [wurde]“ (Kob 1976, S. 116).

Profitiert haben Kinder aus der Mittelschicht

Die Ergebnisse zu den Lernzielen fielen allerdings sehr ambivalent aus (ebd., S. 118): Eine Förderung intellektueller Fähigkeiten wurde durchaus festgestellt. Bei höheren Anforderungen erwies sich die Begleitung durch Eltern bzw. Pädagogen als bedeutsam. Das bedeutete aber auch, dass Kinder mit mehr Begleitung durch die Eltern (und eher aus der Mittelschicht) in höherem Maße von dem Angebot profitierten als Kinder aus Familien mit niedrigem sozioökonomischem Hintergrund. Heterogen fielen die Ergebnisse zu den sozialen Lernzielen aus: Positive Effekte zeigten sich z. B. in Bezug auf „Verständnis für das Handeln Erwachsener“ und „Autonomie gegenüber Erwachsenen“, keine Effekte beim Abbau von Geschlechterrollenfixierungen und sogar gegenteilige Effekte im Hinblick auf das Verhalten gegenüber Minderheiten.

Der damalige Direktor des HBI, Janpeter Kob, schlussfolgerte aus den Forschungsergebnissen u. a., dass soziale Lernziele nur im Einklang mit den Haltungen der Erziehungsverantwortlichen gefördert werden können und dass entsprechend auch die Eltern mit begleitenden Materialien zu informieren seien (Kob 1976, S. 120) – eine Erkenntnis, die bis heute nicht an Bedeutung verloren hat und auch mit Blick auf gegenwärtige medienbezogene Herausforderungen unbedingt beherzigt werden sollte.

Deutsche vs. US-amerikanische Sesamstraße

Nicht unerwähnt bleiben sollte, dass im Kontext der Begleitforschung auch Sendungen getestet wurden, die Anfang der 1970er Jahre eigens für die deutsche Version der Sesamstraße produziert wurden. Als zentraler Befund wird berichtet, dass sich die ursprünglichen (US-amerikanischen) Straßenszenen als nicht relevant bzw. verzichtbar erwiesen und infolgedessen durch ein anderes Setting und Protagonist*innen ersetzt wurden (Weitzel 1976). Anstelle von Susanne, Bob, Gordon, Herrn Huber, dem gelben Riesenvogel Bibo und Oskar aus der Mülltonne (der ohnehin vielen Erwachsenen aufgrund seiner grantigen Art ein Dorn im Auge war) traten die Schauspielerin Liselotte Pulver und der Moderator Henning Venske sowie Knuddelbär Samson, die rosafarbene Vogeldame Tiffy und das eitle Meerschweinchen Herr von Bödefeld, die in den nachfolgenden Jahren durch weitere Puppen und Schauspieler*innen ergänzt oder auch ersetzt wurden.

Kinderfernsehen (und Forschung) im Wandel

Nicht nur die Sesamstraße hat sich in den letzten 50 Jahren (mehrfach) gewandelt und weiterentwickelt. Auch die Medienlandschaft hat sich fundamental verändert: Mit der Einführung des privaten Fernsehens Mitte der 1980er Jahre wurden die Kinder als lukrative Zielgruppe für den Werbemarkt erkannt. Als Folge entstanden zahlreiche Fernsehangebote für Kinder als Teil eines umfassenden Werbenetzes. Ende der 1990er Jahre wurden mit den Teletubbies schließlich auch Ein- bis Dreijährige in den Blick genommen, eine Altersphase, die bis dahin als offiziell als „fernsehfrei“ galt. Die Debatte um die Teletubbies erinnerte sehr an die Diskussion, die zum Zeitpunkt der Einführung der Sesamstraße in Deutschland geführt wurde (Neuss 2001). Inzwischen scheinen Fernsehangebote für Kleinkinder weitestgehend akzeptiert und sind angesichts gegenwärtiger, durch die Digitalisierung bedingten Herausforderungen, kaum mehr Gegenstand öffentlicher Debatten.

Obwohl der Kinderfernsehmarkt heute deutlich umfangreicher und vielfältiger ist, kommt der Sesamstraße als eine der wenigen Sendungen, die seit 50 Jahren Kinder begeistert, und als unterhaltsames Bildungsangebot ein besonderer Stellenwert zu. Es wird interessant sein, zu verfolgen, wie die Sesamstraße auf künftige technologische Entwicklungen reagieren wird, inwieweit es ihr gelingt, die Kinder über die verschiedenen Kommunikationskanäle zu erreichen und welche Spuren sie auch in der Mediensozialisation künftiger Generationen junger Zuschauer*innen, aber auch in der Medienerziehung von Eltern hinterlassen wird. Viele spannende Fragen für die kommunikationswissenschaftliche und medienpädagogische Forschung.

Wir gratulieren der Sesamstraße und wünschen ihr, dass die Redaktion sich ihre Leidenschaft erhält, ein gutes und unterhaltsames Fernsehprogramm für Kinder zu machen. HERZLICHEN GLÜCKWUNSCH!

Quellen

Berghaus, Margot; Kob, Janpeter; Marencic, Helga; Vowinckel, Gerhard (1978): Vorschule im Fernsehen. Ergebnisse der wissenschaftlichen Begleitforschung zur Vorschulserie Sesamstraße. Weinheim und Basel: Beltz Verlag.
Kob, Janpeter (1976). Lehren aus Sesamstraße. In: Internationale Zeitschrift für Medienpsychologie und Medienpraxis, Jg. 10, H. 1/2, S. 115-122.
Kob, Janpeter (1978): Lehren aus der ‘Sesamstraße’. In: Berghaus, Margot; Kob, Janpeter; Marencic, Helga; Vowinckel, Gerhard (1978): Vorschule im Fernsehen. Ergebnisse der wissenschaftlichen Begleitforschung zur Vorschulserie Sesamstraße. Weinheim und Basel: Beltz Verlag, S. 191-199.
Neuss, Norbert (2001) (Hrsg.): Teletubbies und Co. Schadet Fernsehen unseren Kindern? Weinheim: Beltz Verlag.
Wagner, Hans-Ulrich (2013): Die „Sesamstraße“: Ein Pionier des Kinderfernsehens. Online: https://www.ndr.de/der_ndr/unternehmen/chronik/sesamstrasse2167_page-2.html [7.1.2013]
Weitzel, Jürgen (1976): Zur deutschen Bearbeitung der “Sesam”-Straßenszenen. In: Fernsehen und Bildung. Internationale Zeitschrift für Medienpsychologie und Medienpraxis, Jg. 10, H. 1/2, S. 110-114.

Foto: NDR/Sesame Workshop

Nein, Elon Musk, so geht Plattformdemokratie nicht

01.12.2022

Nach einer Online-Abstimmung hat Elon Musk den Twitter-Account von Donald Trump wieder freigeschaltet mit den Worten: „The people have spoken. Trump will be reinstated. Vox Populi, Vox Dei”. Plattformdemokratie funktioniere anders, meint Prof. Dr. Matthias C. Kettemann.

Dieser Beitrag erschien zuerst auf verfassungsblog.de

Grundlage für Musks Entscheidung war eine Online-Abstimmung mit 15 Millionen Teilnehmer*innen, die 51,8% zu 48,2% für eine Entsperrung von Trumps Account ausgegangen ist. Die Knappheit des Ergebnisses ist bemerkenswert, weil zumindest die klassischen Follower von Musk eher libertär orientiert sind und auch Musk hat – zumindest solange es ihm nicht um Geld geht – einer unkritischen Glorifizierung des freien Meinungsaustauschs gehuldigt.

Das Problem liegt aber tiefer: So geht digitale Demokratie nicht, so geht Plattformregulierung nicht. Klar, in der „mediatisierten Demokratie” bedarf repräsentative Demokratie technischer Vermittlung, aber, wie Digitalforscherin Jeanette Hofmann schreibt, ist das „sich wandelnde Zusammenspiel von demokratischer Organisation und Kommunikationsmedien […] eine kontingente Konstellation”. Die Transformation der repräsentativen Demokratie ermögliche ein „Experimentieren mit neuen Formen demokratischen Handelns”. Dies hat Elon Musk nun zum Anlass genommen, mit Twitter-Volksabstimmungen zu experimentieren. Das ist natürlich leichter, als sich zu überlegen, wie mit Accounts umzugehen ist, die Regeln verletzen. Dies ist indes unumgänglich.

Meta hat es sich nicht so leicht gemacht: In einer profund recherchierten Studie der ersten beiden Jahre Aktivitäten des Meta Oversight Boards identifiziert Steven Levy für Wired, welche zentralen Konflikte sich bei der Plattform-Governance stellen und wie Meta mit dem Board ein Wagnis eingegangen ist, das sowohl positive wie auch negative Deutungen zulässt, jedenfalls aber eine mögliche Antwort auf die zentrale Frage der Plattform-Governance ist: Wie können die Regeln und Praxen der Online-Inhalteregulierung optimiert werden und dies gerade mit Blick auf bekannte Accounts?

Wir alle sind Stakeholder

Diese Fragen gehen uns alle etwas an. Man muss nicht Jürgen Habermas’ pessimistische Einschätzung des neuen Strukturwandels der Öffentlichkeit teilen (Vielstimmigkeit ohne kompetente Moderation ist schlecht), auch wenn die neue Kommunikationsrealität jedenfalls dem Modell quo ante (Meinungs-Governance als Elitenprojekt) vorzuziehen ist. Man muss aber anerkennen, dass Entscheidungen über Kommunikationsregeln und deren Durchsetzung durch eine breitere Beteiligung besser und differenzierter ausfallen und auch als legitimer angesehen werden. Wir alle haben ein „stake”, ein wertunterlegtes Teilhabeinteresse, an den Ergebnissen der Regulierung von Plattformen und an der Art, wie Plattformen selbst Regeln setzen und durchsetzen.

Klar, Onlinekommunikation ist komplex. Normative Ordnungen sind entweder öffentlich oder privat oder gemischt (hybrid). Private Ordnungen, die auf Verträgen beruhen, sind legitim und oft erfolgreich bei der Regulierung von Kommunikationsräumen. Plattformordnungen sind im Kern privat. Aber eben nicht nur: In den letzten Jahren sind sie zunehmend mit hybriden (öffentlichen) Elementen durchsetzt worden, da diese Kommunikationsräume zunehmend einen demokratischen Diskurs tragen.

Neue Modelle der Plattformdemokratie

Hybride normative Ordnungen sind sowohl durch private als auch öffentliche Merkmale gekennzeichnet, die sich auf die Eigentumsverhältnisse, Teilnehmer*innen, Ausrichtung und ihnen eingeschriebene Werte beziehen. Innerhalb hybrider Ordnungen stellen sich schwierige normative Fragen hinsichtlich der Anwendung von Grund- und Menschenrechten (Drittwirkung; horizontale Anwendung) und der Rolle, die Dritte (Nichtnutzer*innen, die Öffentlichkeit, die Gesellschaft) spielen sollten. Staaten regulieren zunehmend Onlinekommunikationsräume – und Plattformen experimentieren damit, Stakeholder-Beteiligung zuzulassen.

Hier sind seit einiger Zeit neue Modelle der Plattformdemokratie in Ausarbeitung, die auch schon im aktuellen Koalitionsvertrag Platz gefunden haben („Den Aufbau von Plattformräten werden wir voranbringen”, S. 14). Die NGO ARTICLE 19 veröffentlichte einen Bericht über ein Experiment mit einem Social Media Council in Irland. Harvard-Politikwissenschaftler Aviv Ovadya plädiert energisch für eine Demokratisierung von Plattformen durch Bürger*innenversammlungen. Meta hat angekündigt, im Dezember Community-Foren abhalten zu wollen, an denen fast 6.000 Menschen aus 32 Ländern und 24 Sprachen teilnehmen werden. Internationale Organisationen, wie die UNESCO, machen sich Gedanken darüber, wie die Kluft zwischen zentralisierter Regelsetzung und lokalen Stimmen bei der Moderation von Inhalten überbrückt werden kann (auch zum Nachhören).

Schnell mal seine Follower befragen, was sie von einer Account-Entsperrung halten, ist leicht. Diesen Ansatz zu kritisieren ebenso. Beides enthebt indes nicht von der Verantwortung, sich zu überlegen, welche Grundfrage der Verknüpfung von Plattformen und Demokratie hier gestellt wird.

Vox populi, vox Dei?

So einfach ist es mit der Stilisierung der Volksstimme zur alleinigen und primären Quelle der Legitimität von Entscheidungen nämlich nicht. Das lehren Jahrhunderte der kritischen Auseinandersetzung mit Legitimität, Rationalität und Repräsentativität. Das wusste übrigens schon Alcuin.

Alcuin, wie Oxfords „Essential Quotations” zu entnehmen ist, ist jener englische Gelehrter und Theologe des 8. Jahrhunderts, der als zentrale mittelalterliche Quelle für Vox populi, vox Dei gilt. Im Original liest man indes: Nec audiendi qui solent dicere, Vox populi, vox Dei, quum tumultuositas vulgi semper insaniae proxima sit. Nun muss Elon Musk nicht Latein können, eine Übersetzungsmaschine tut’s auch: Und man sollte nicht auf die Leute hören, die immer wieder behaupten, die Stimme des Volkes sei die Stimme Gottes, denn der Aufruhr der Menge ist immer sehr nahe am Wahnsinn.

‚Nahe am Wahnsinn’ wäre jetzt keine überschießende Beschreibung der erratischen Governance-Ansätze Musks in den letzten „terrible weeks“ auf Twitter. Indes ist, die Schweizer Verfassung nickt zustimmend, die Befragung des Volkes durchaus ein legitimes Mittel, um politische Entscheidungen zu treffen. Doch die Sicherstellung von guten Regeln und Moderationspraxen (und den normativen Regel-Algorithmen-Arrangements) in komplexen Plattformökosystemen kann man nicht zur Volksabstimmung stellen.

Nicht verrückt, aber nicht ausreichend rational

Verrückt ist es also nicht, das „Twitter-Volk” zu befragen, aber Plattformen müssen weit rationaler verwaltet werden. So leicht kann es sich Musk nicht machen. Governance von Plattformen macht nicht Spaß, wie evelyn douek schreibt, diese „cold dose of reality” wird Elon Musk noch zu spüren bekommen. Und leider wir alle auch. Das finden nicht alle schlecht: Mr. Beast, einer der erfolgreichsten Online-Content-Producer reagierte auf die Wiederfreischaltung von Trumps Konto mit einem Popcorn-Emoji.

Spannend wird’s, Zuschauen wird allerdings nicht reichen: Gerade jetzt ist die Plattformforschung gefragt – und die Regulatoren dies- und jenseits des Atlantiks. Auf den DSA und das Durchsetzungsinstrumentarium mit den Digital Service Coordinators kommt einiges an normativer Arbeit zu. Elon Musk indes hat schon etwas Neues vor. Sein aktuelles Versprechen: „best coverage by far” der Fußballweltmeisterschaft.

Headerbild: Gordon Johnson / pixabay

Digitale Demokratie by Design: Was Habermas Stört und Elon Musk freut

29.11.2022

Die Regeln für Plattformen sind vorhanden und auch in Geltung. Angesichts der Eigengesetzlichkeiten der Plattformwirtschaft fehlt es jedoch an der effektiven Anwendung und Durchsetzung dieser Regeln. Prof. Dr. Matthias C. Kettemann diskutiert den Zusammenhang und gibt Einblicke in den aktuellen Stand der Debatte.

Dieser Beitrag ist zuerst auf te.ma erschienen.

Jürgen Habermas ist unzufrieden. Als vor 60 Jahren sein Strukturwandel der Öffentlichkeit[1] erschien, sah er die individuelle Kommunikation und die partizipative Kultur in Gefahr durch Massenmedien, Film, Funk und Fernsehen. Passive Zuhörer*innen und Zuschauer*innen würden sich nicht mehr demokratisch engagieren, sondern nur noch konsumieren. Fast forward ins Jahr 2020: Film, Funk und Fernsehen verlieren an Publikum, die Kommunikation ist so partizipativ wie nie zuvor. Ist für Habermas ein goldenes Zeitalter deliberativer Politik angebrochen? Mitnichten: Im jüngst erschienenen Neuen Strukturwandel der Öffentlichkeit und die deliberative Politik[2] identifiziert er eine neue Gefahr, nämlich, dass sich die politische Öffentlichkeit in den stark und sehr individuell kuratierten Plattformen gar nicht mehr finden kann.

Zugespitzt heißt das: Während es vor einem halben Jahrhundert wegen mächtiger Medien keine eigene Meinung mehr gab, gibt es nun vor lauter Meinungen keine öffentliche Meinung mehr. Wir alle kommunizieren, können es aber nicht wirklich. In Habermas’ Worten: „Wie der Buchdruck alle zu potenziellen Lesern gemacht hatte, so macht die Digitalisierung heute alle zu potenziellen Autoren. Aber wie lange hat es gedauert, bis alle lesen gelernt hatten?”[3]

Nicht gesagt, aber gemeint: Wir sind noch nicht reif dafür, zu allem eine Meinung zu haben und zu äußern. Das erscheint (wenn auch an anderen Stellen wieder abgeschwächt) doch demokratiepolitisch bedenklich, zumal die demokratische Herausforderung wohl nicht im 80. Facebook-Katzenfoto, dem TikTok-Tanz oder dem überästhetisierten Instagram-Dessert zu verorten ist. Es sind nicht primär die vielen Inhalte, die Meinungsbildungsprozesse herausfordern, sondern die Eigengesetzlichkeiten der Plattformwirtschaft mit ihren auf Wertextraktion optimierten Empfehlungsalgorithmen.

Step 1: Solve Free Speech


Elon Musk ist auch unzufrieden. Er wird 45 Milliarden Dollar ausgeben, um den Kurznachrichtendienst Twitter zu kaufen. Das ist viel Geld. Und er hat viel mit Twitter vor: Er möchte aus dem besonders unter Politiker*innen und Medienmenschen beliebten (weltweit aber vergleichsweise kleinen) Dienst das digitale Äquivalent eines öffentlichen Forums machen und free speech sicherstellen. Wäre das eine Entwicklung, die Habermas gefallen könnte? Eher nicht, und da hilft auch nicht, dass Axel Springer-CEO Mathias Döpfner Musk in privaten Nachrichten beipflichtet und ihm etwas blauäugig schreibt: „Step 1.) Solve Free Speech”.

Leider ist das nicht so einfach. Zunächst ist die Sicherung von free speech eine regulatorische Herausforderung, die nicht gelöst werden kann; sie ist ein sogenanntes wicked problem. Auch die öffentliche Gesundheit oder der Klimawandel können nicht gelöst werden. Notwendig sind vielmehr parallel zu ergreifende, individuell schützende und strukturstabilisierende Maßnahmen. Zur Sicherung von Meinungsäußerungsfreiheit und eines lebhaften politischen Diskurses (denn die institutionelle Dimension der free speech wird oft gerne vergessen) ist gerade nicht ein Weniger an Regulierung und ein Mehr an Freiheit nötig. Wenn Elon Musk, Donald Trump und Kanye West (dessen Inhalte bei Instagram wegen antisemitischer Äußerungen in ihrer Verbreitung reduziert bzw. entfernt wurden) wieder auf Twitter zulässt, liegt darin wohl nur formal ein Gewinn an Meinungsfreiheit. Das kann man schön an den Phänomenen von Desinformation (Was darf gesagt werden?), Deplatforming (Wer bestimmt, wer eine Stimme hat?) und Deliberation (Wie machen wir die Kommunikationsräume demokratischer?) zeigen.

Recht und Regeln

Zunächst aber: Welches Recht, welche Regeln gelten in Online-Kommunikationsräumen, und wie werden sie durchgesetzt? Grundsätzlich gelten die Allgemeinen Geschäftsbedingungen der Plattformen, ihre Gemeinschaftsstandards; das ist in privaten Offline-Räumen, wie im Aldi um die Ecke, auch nicht anders. In der Tat sind Facebook und TikTok aber nicht wie der Aldi, da die Regelsetzung und Regeldurchsetzung – durch menschliche wie weit überwiegend algorithmische Moderation – Teil des Plattformangebots sind. Die Regeln, die algorithmische Aufmerksamkeitslenkung und die Moderation sind zusammen genommen die “special sauce” der jeweiligen Plattform, ihr Coca-Cola-Rezept. (Daher sind sie auch gegenüber Transparenzanforderungen an die automatisierten Empfehlungssysteme eher zurückhaltend). Die internen Regeln – dies darf nicht vergessen werden – sind ein Teil des Plattformdesigns, das auch Empfehlungsalgorithmen und die Praxis der Plattformregulierung umfasst.

Sodann gilt – im deutschen Rechtsraum, den man auch nicht verlässt, wenn man Online-Angebote nutzt – deutsches Recht. Plattformen, die hier aktiv sind, müssen sich daher an deutsches Recht halten. Dass manche, wie Telegram, dies nicht tun, ist kein Geltungsproblem, sondern ein Problem der effektiven Anwendung bzw. Rechtsverfolgung. (Hier nach neuem Recht zu rufen, ist regelmäßig nicht zielführend; besser ist die Professionalisierung der forensischen Ausbildung der Polizei sowie finanziell gut ausgestattete Schwerpunktstaatsanwaltschaften).

Die Plattformen haben zu einem großen Teil nationales Recht in ihre internen Regeln überführt, sodass sie regelmäßig nur nach Gemeinschaftsstandards prüfen (was etwa die niedrigen Meldequoten von Verstößen gegen das Netzwerkdurchsetzungsgesetz erklärt). Manche Inhalte verstoßen nur gegen interne Regeln, sind also nicht rechtswidrig – wie etwa der größte Teil von Desinformation, manche Schimpfwörter und Nacktheit. Auch diese Inhalte – „lawful, but awful” – können besonders im Aggregat, und wenn sie algorithmisch verstärkt werden, zu einem Problem werden. An diesen Inhalten entzündet sich die Debatte um die „Zensur” durch Plattformen (die keine „Zensur” ist, zumindest nicht im Rechtssinn, weil Zensur nur von Behörden ausgeübt werden kann). Hinsichtlich dieser Inhalte können Plattformen, was unlängst der Bundesgerichtshof bestätigt hat, strenger sein, als dies das Gesetz vorschreibt. Sie müssen lediglich bei der Moderation bestimmte Verfahrensrechte einhalten, etwa die User, deren Inhalte sie löschen möchten, informieren: ex post, wenn es um einzelne Inhalte geht, ex ante, wenn ein ganzer Account dran glauben soll.

Desinformation: Wer weiß schon, was wahr ist

Elon Musk will mehr Freiheit auf Twitter. Er meint damit alle Inhalte, die legal sind. Das ist ein Problem, denn der größte Teil von Desinformation – wie etwa falsche Aussagen zur Effektivität von Corona-Impfungen – ist nicht illegal, sondern einfach sozial abträglich. In einem Gutachten für die Landesmedienanstalt Nordrhein-Westfalen haben Expert*innen des Leibniz-Instituts für Medienforschung aus Hamburg aufgezeigt, warum eine Regulierung von Desinformation zu schwierig ist. Zum einen ist Wahrheitsfindung keine Aufgabe des Staates, sondern ein gesellschaftlicher Prozess kommunikativer Konstruktion; zum anderen sind diskursunterstützende Ansätze nötig, die über klassische Regelungsformen nicht verfolgt werden können. Selbst Fact-Checking-Verfahren, Hinweise und Warnungen können für rechtmäßige Inhalte nicht zur gesetzlichen Pflicht gemacht werden. Die Expert*innen schlagen stattdessen vor, Maßnahmen zur Vertrauensförderung in journalistisch-redaktionell gestaltete Inhalte durch Forderungen zur Einhaltung von Sorgfaltspflichten zu setzen. Entsprechende Pflichten könnten dann auch für nicht-journalistische Akteure mit hoher Meinungsbildungsrelevanz – Politiker*innen, Influencer*innen – gelten.

In diese Richtung geht auch Jürgen Habermas im Neuen Strukturwandel. Er fordert Mindeststandards für die Qualität von Online-Texten. Das mag zwar als grundsätzliche Forderung vertretbar sein, lässt sich aber, wie hier ausgeführt, rechtlich nicht bewerkstelligen (wie übrigens für Texte im Offline-Bereich auch nicht). So erscheint es doch schwierig, die von Habermas angedachte Haftung der Plattformen für die Verbreitung von falschen Informationen europa- und verfassungsrechtskonform auszugestalten. In jedem Fall setzt der Rechtsakt über Digitale Dienste (DSA) hier neue Akzente und erhöht die Rechenschaftspflicht der Plattformakteure, die etwa jährlich berichten müssen, welche Maßnahmen sie gegen Inhalte treffen, die demokratiegefährdend oder gesundheitsschädigend sind. Darüber hinaus haben Plattformen ein wachsendes Eigeninteresse, gegen koordinierte inauthentische Kommunikationen vorzugehen, und haben zuletzt etwa nach dem Angriff Russlands auf die Ukraine gezeigt, dass sie sehr schnell reagieren können, um Desinformation – hier durch die russischen Staatsmedien – zu entfernen. Das bringt uns zum Deplatforming.

Deplatforming

Das Internet verschafft jedem von uns ein Podium. Aber wissen wir es zu nutzen? Nein, meint Jürgen Habermas, der Traum von der direkten deliberativen Demokratie, so Habermas, sei ausgeträumt. Doch dürfen die Plattformen entscheiden, wem das Podium entzogen wird?

Wie gezeigt, sind Plattformen grundsätzlich berechtigt, von den Nutzer*innen eines Netzwerks die Einhaltung bestimmter Kommunikationsstandards zu verlangen, die über die Anforderungen des nationalen Rechts hinausgehen. Das haben für den deutschen Rechtsraum mehrfach Höchstgerichte bestätigt. Sie können sich das Recht vorbehalten, bei einem Verstoß gegen ihre Gemeinschaftsstandards Beiträge zu entfernen und das betreffende Nutzerkonto zu sperren. Um jedoch einen interessengerechten Ausgleich zwischen den kollidierenden Grundrechten zu schaffen, ist es erforderlich, dass sich die Plattformen in den Geschäftsbedingungen verpflichten, die betroffenen Nutzer*innen zumindest nachträglich über die Entfernung eines Beitrags und vorab über eine beabsichtigte Sperrung des Benutzerkontos zu informieren, ihnen den Grund für die Maßnahme mitzuteilen und ihnen Gelegenheit zur Stellungnahme zu geben, woraufhin gegebenenfalls eine neue Entscheidung ergeht. Gerade die Pflicht zur Begründung von Entscheidungen, die algorithmisch prädeterminiert sind, ist noch nicht fertig gedacht.

Der Freiheitsschutz ist auch dem Bundesgerichtshof wichtig: „Die Grundrechte von Facebook sind mit denen der Nutzer so abzuwägen, dass die Grundrechte der Nutzer die größtmögliche Wirkung entfalten.“[4] Erstens muss es objektive Gründe für die Entfernung von Inhalten und die Sperrung von Nutzerkonten geben. Obwohl Facebook für die allgemeine Kommunikation und den Informationsaustausch genutzt wird, darf das Netzwerk nicht willkürlich bestimmte (z.B. politische) Meinungen verbieten. Ein Verbot politischer Werbung wäre jedoch noch in Ordnung. Ein komplettes Verbot politischer Äußerungen wäre nach dieser Lesart ein Verstoß gegen die Kommunikationsrechte der Nutzer*innen. Umgekehrt müssen die Gemeinschaftsstandards objektive und klare Regeln enthalten, die wenig bis keinen Spielraum für Interpretationen lassen. Mit anderen Worten: Wenn Facebook etwas verbieten will, sollte jeder verstehen können, worum es sich dabei handelt.

Die Welt ist schwierig genug. Zumindest die Regeln müssen klar sein. Die zweite Anforderung des Gerichts an die Moderation von Inhalten zielt auf die Größe von Facebook ab: Wenn ein Unternehmen die freie Meinungsäußerung von Millionen von Menschen einschränken will (wie ein Staat), muss es sich an die Anforderungen eines ordentlichen Verfahrens halten (wie ein Staat). Das ist „Grundrechtsschutz durch Verfahren“.

Deliberative Demokratie im Netz

Blicken wir nach vorne: Mit Sorge sieht Jürgen Habermas eine Gesellschaft, die zerborsten in „Halböffentlichkeiten“ ihre gemeinsamen Bezugspunkte verliert. Die Räume, in denen kommuniziert wird, scheinen eine eigenartige „[…] anonyme Intimität zu gewinnen: Nach bisherigen Maßstäben können sie weder als öffentlich noch als privat, sondern am ehesten als eine zur Öffentlichkeit aufgeblähte Sphäre einer bis dahin dem brieflichen Privatverkehr vorbehaltenen Kommunikation begriffen werden.”[5] Wir sagen dazu „hybride Räume”, weil private Regeln und öffentlichkeitsrelevante Kommunikation zusammenfallen. Und in genau diesen Räumen wird die Zukunft der digital vermittelten Demokratie verhandelt.

Doch wer soll nun die Demokratie im digitalen Zeitalter retten? Für Jürgen Habermas ist es klar: der Staat. In einem ebenfalls im Neuen Strukturwandel abgedruckten Essay schließt er mit einer Erinnerung an die Verantwortung des Verfassungsrechts für die Stabilisierung der Wahrheitsordnung einer Gesellschaft: „Es ist keine politische Richtungsentscheidung, sondern ein verfassungsrechtliches Gebot, eine Medienstruktur aufrechtzuerhalten, die den inklusiven Charakter der Öffentlichkeit und einen deliberativen Charakter der öffentlichen Meinungs- und Willensbildung ermöglicht.”[6]

Das trifft zu: Der Staat wird in der komplexen Gesellschaft von heute nicht primär als Gefährder von Freiheit, sondern auch als deren Garant gesehen. Diese Garantiefunktion ist gerade in einer Demokratie besonders wichtig. Demokratien beruhen darauf – hier sind wir wieder auf Habermas’ ureigenem Spielfeld –, dass sich alle Bürger*innen kommunikativ entfalten können. Dazu braucht es einer Kommunikationsordnung, die gegen Gefahren von innen wie außen abgesichert ist. Die Kommunikationsfreiheit und die Medienfreiheiten sind also in einem System verschiedener Verbürgungen zu verorten. Wie die Hamburger Medienrechtler Keno Potthast und Prof. Dr. Wolfgang Schulz in einem Gutachten für die Berlin-Brandenburgischen Akademie der Wissenschaften schreiben, braucht die Demokratie im Lichte des Grundgesetzes den Staat zur Sicherung des Funktionierens einer freien und offenen, individuellen und öffentlichen Meinungsbildung.

Die Zukunft der Demokratie im Digitalen

Der Staat allein ist indes nicht genug: Die Plattformen haben erkannt, dass sie ihre Regeln und Moderationspraxen zunehmend legitimieren müssen, um sich gesellschaftlichem Druck und regulatorischer Kontrolle zu entziehen. Aktuell testen sie verschiedene Modelle: Ein großes soziales Netzwerk hat ein Oversight Board eingerichtet, das bei inhaltlichen Entscheidungen und algorithmischen Empfehlungen helfen soll. Das gleiche soziale Netzwerk experimentiert mit deliberativen Prozessen in großem Maßstab. Ein Spiele-Label experimentiert mit Spielerräten, die den Programmierern helfen sollen, spannende Spieldesign-Entscheidungen zu treffen. Der Beirat des deutschen öffentlich-rechtlichen Fernsehens möchte ein Bürgergremium einrichten, um mehr Einfluss auf Programmentscheidungen zu nehmen. Die größte Online-Wissensplattform der Welt, Wikipedia, lässt seit ihrer Gründung ihre User über inhaltliche Konflikte entscheiden.

All diese Beispiele haben ein grundlegendes Ziel: Es soll sichergestellt werden, dass Entscheidungen über Kommunikationsregeln und deren Durchsetzung durch eine breitere Beteiligung besser und differenzierter ausfallen und als legitim angesehen werden. Das setzt natürlich auch eine informierte Öffentlichkeit voraus, die bereit ist, sich zu beteiligen, die interessiert ist, die erkennt, dass wir alle Stakeholder der sich entwickelnden neuen Medienrealität sind. Wir haben ein „stake”, ein wertunterlegtes Teilhabeinteresse, an den Ergebnissen der Regulierung von Plattformen. Vor diesem Hintergrund ist ein Publikationsorgan wie te.ma bedeutsam, besonders mit Blick auf die systematische Verknüpfung zwischen Wissenschaften und Öffentlichkeit.

Titelbild: Marcelo Martins / unsplash.com

Literatur

[1] Jürgen Habermas: Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft. Suhrkamp, Berlin, 1962.
[2] Jürgen Habermas: Ein neuer Strukturwandel der Öffentlichkeit und die deliberative Politik. Suhrkamp, Berlin, 2022.
[3] Ebd., S. 46.
[4] Bundesgerichtshof zu Ansprüchen gegen die Anbieterin eines sozialen Netzwerks, die unter dem Vorwurf der „Hassrede“ Beiträge gelöscht und Konten gesperrt hat [Pressemeldung]. Bundesgerichtshof, 2021, abgerufen am 12. Oktober 2022.
[5] Habermas, Neuer Strukturwandel, S. 62.
[6] Ebd., S. 67.

Newsletter

Infos über aktuelle Projekte, Veranstaltungen und Publikationen des Instituts.

Jetzt abonnieren