Twitter-Alternative mit Problemen: Was bei Mastodon besser laufen muss
28.11.2022
Seit Elon Musk Twitter übernommen hat, schauen sich viele User*innen nach Alternativen um. Mastodon tritt als Gewinner auf. Die Plattform hätte nun die Chance, neue Wege nachhaltiger Content-Governance zu pilotieren und zum Experimentierraum für demokratische Diskurse zu werden, finden Lena Hinrichs und Prof. Dr. Matthias C. Kettemann.
Toots statt Tweets, Föderation statt Zentralisierung, Non-Profit statt Profitlogik, Macht für alle statt Machtkonzentration bei einem erratischen Eigentümer. Mastodon ist dezentral aufgebaut, was bedeutet, dass es verschiedene Server (Instances) gibt, auf denen sich die Nutzenden registrieren können. Die verschiedenen Instances gehören unterschiedlichen Personen oder Gemeinschaften, meist Freiwilligen. Das reduziert die Abhängigkeit von großen Unternehmen und bringt den Vorteil, dass die eigenen Daten keinem Unternehmen gehören, welches diese verkauft. Jedoch legt man seine Daten in die Hände der jeweiligen privaten Admins des Servers, auf dem man sich anmeldet. Welche Verpflichtungen diese treffen, ist noch unklar. Hiermit geht jedoch auch die Werbe- und Trackingfreiheit des Netzwerks einher.
Die dezentralisierte Struktur von Mastodon ermöglicht es Nutzenden, samt ihren Accounts und Einstellungen auf andere Instances umzuziehen, ohne Follower zu verlieren oder selbst einen eigenen Instance zu gründen. Da Mastodon auch seinen Quellcode offengelegt hat, ist die Hemmschwelle, eine neue Instance zu erstellen, niedriger. Allerdings besteht das Risiko, dass dies durch Gruppen missbraucht wird, wie bei der Ansiedlung von Gab.ai (einer rechtsextremen Gruppierung, die mittlerweile von den meisten Instances auf Mastodon geblockt ist) geschehen.
Ein öffentliches Forum?
Die jeweiligen Inhaber der Instances legen selbst fest, welche Moderationsregeln auf ihrem Server gelten sollen, sodass die Nutzenden sich aussuchen, wie sie moderiert werden wollen. Inzwischen betreiben auch deutsche Behörden Instanzen. Dies ist rechtlich nicht unkomplex, denn sie sind bei der Moderation ihrer Inhalte an die Grundrechte gebunden und sind verpflichtet, so diese Moderation als Informationstätigkeit gesehen wird, gewisse Qualitätskriterien einzuhalten. Die Moderation kann gerechtfertigt sein, wenn ein sachlicher Grund hierfür vorliegt und dies verhältnismäßig ist. Die Befugnisse deutscher Behörden sind somit weiter als in den USA, wo die Betreibung einer Instanz als Eröffnung eines “public forums” gesehen werden könnte, was staatliche Moderationstätigkeit verbieten würde (dies in analoger Anwendung der, indes kritisierten, Entscheidung Knight/Trump). Der Unterschied besteht bei Mastodon darin, dass staatliche Akteure die Moderationsregeln gänzlich selbst schaffen. Wie deutsche Behörden mit dieser Möglichkeit umgehen, bleibt abzuwarten.
Innere Demokratisierung von Mastodon noch in Kinderschuhen
Auch Rechtsschutz gegen Moderationsentscheidungen besteht nicht. Eine höhere oder weitere Instanz, an die man sich wenden kann, wenn man mit einer Entscheidung unzufrieden ist, gibt es nicht. Dabei könnten ganz neue Arten föderierter Content Governance über die Instanzen hinweg pilotiert werden, etwa durch Zusammenschlüsse verschiedener Instanzen in Moderationsfragen, der gemeinsamen Übernahme von Standards, wie der Santa Clara Principles, der analogen Anwendung der Verpflichtungen aus dem Digital Services Acts (DSA) oder dem Aufbau von Nutzendenbeiräten.
Mastodon-Anhänger hingegen begegnen dem Fehlen höherer Instanzen in der Moderation mit dem grundlegenden Argument der Instanzstruktur: gefalle einem die Moderation auf einem Server nicht, könne man ja umziehen. Dieses Argument lässt außer Acht, dass die „alten” Inhalte, die auf dem ersten Server geteilt wurden, nicht mitkommen. Einmal auf einem Server in der Community eingerichtet, könnte es zudem vor allem für das Klima der Community von Vorteil sein, wenn sich auch andere User*innen als die Serverinhaber in der Moderation engagieren und diese mit verändern können. Die innere Demokratisierung von Mastodon steckt noch in den Kinderschuhen.
Wenig bekannt: Transparenz als Herausforderung
Moderationsentscheidungen werden selten transparent mitgeteilt. Die Administrator*innen prüfen die Meldungen und haben eine Reihe von Tools zur Verfügung, um hierauf zu reagieren. Auf der Instanz mastodon.social etwa soll das Löschen von Inhalten oder Blocken von Personen ultima ratio sein. Eine Verpflichtung für andere Instanzen, ähnlich zu verfahren, besteht aktuell nicht. Aus dem NetzDG und aus dem DSA lässt sich eine solche Pflicht aufgrund der (noch) geringen Größe der meisten Instanzen nicht ableiten. Sollte dies jedoch der Fall sein, ergeben sich erhebliche rechtliche Risiken für die Serverinhaber aus einem DSA, der nicht mit Blick auf nichtkommerzielle, föderierte Plattformen geschrieben wurde.
Vieles sichtbar: Mängel im Privatsphärenschutz
Anfänglichen Beobachtungen zufolge tendieren die Moderierenden in einigen Instanzen dazu, sehr aktiv einzugreifen. Zudem können Autor*innen eines Inhalts selbst eine Triggerwarnung des Posts hinzufügen. Auch die Nutzenden können die Inhalte, die ihnen angezeigt werden, einschränken und die Sichtbarkeit eigener Inhalte individuell einstellen. Durch diese Funktionen lassen sich „Direktnachrichten“ verschicken: die Sichtbarkeit eines Posts lässt sich so einschränken, dass nur eine oder ein paar Personen diesen sehen können. Dadurch, dass es sich jedoch um einen gewöhnlichen Post handelt, wird der Inhalt unverschlüsselt auf dem Server gespeichert, sodass die Inhaber des Instances jederzeit Zugriff darauf haben. Mastodon reagierte hierauf, indem es eine Ende-zu-Ende-Verschlüsselung ankündigte.
Individualisierung der Inhaltesuche
Der Feed der Nutzenden ist chronologisch organisiert. Es gibt mehrere Feeds, die teils nur servereigene, teils serverübergreifende Inhalte anzeigen, was die Nutzung komplexer macht. Auch die Suchfunktion zeigt automatisch nur Accounts an, die auf dem eigenen Server liegen. Sucht man nach Personen auf anderen Servern, muss man den jeweiligen Server mit angeben.
Dies kann auch zur Zentralisierung des Fediverses führen: schon jetzt konzentrieren sich viele Nutzende Inhalte auf einige ausgewählte Instances. Dann jedoch trägt das Argument der Stabilität des Fediverses nur bedingt, denn so führt auch der Ausfall eines Servers zu einer erheblichen Störung des Netzwerks.
Antivirale Kultur
Die Unübersichtlichkeit Mastodons ist gerade durch die Community Mastodons gewollt. Das antivirale Design ist Programm: dadurch, dass Inhalte schwerer auffindbar sind, verlangsamt sich die Konversation. Es entsteht ein Aufwand, um ins Gespräch einzusteigen, der dazu führt, sich intensiver und weniger emotional mit dem Inhalt auseinanderzusetzen. Genau diese Kultur ist für viele der Mastodon-User:innen ausschlaggebend. Features, die dem entgegenstehen, werden von der Community schnell abgelehnt, wie die serverübergreifende Suche nach Inhalten. Ein Vorteil kann das für Gruppen sein, die befürchten, auf einer öffentlicheren Plattform angegriffen zu werden, wenn sie sich über Diskriminierungserfahrungen austauschen. Die erschwerte Auffindbarkeit ihrer Inhalte kann sie davor schützen.
Das demokratische Potenzial ernstnehmen
Über die letzten 20 Jahre sind die großen Social Media Plattformen zu Regelmacher*innen, Regeldurchsetzer*innen und Richter*innen ihrer eigenen Entscheidungen geworden. Sie haben Kommunikationsräume geschaffen, in denen der demokratische Diskurs den Anforderungen der Aufmerksamkeitsökonomie unterworfen wird. Elon Musk zeigt uns nun, wozu das führen kann. Sind föderierte Netzwerke wie Mastodon der bessere Weg?
Wie gezeigt, hat Mastodon viele Vorteile, löst aber nicht das Versprechen der Demokratisierung der Regelsetzung und -durchsetzung durch Dezentralisierung ein. Schließlich sollten wir mehr gesellschaftliche Gruppen in die Entwicklung von Regeln dafür einbeziehen, was online gesagt werden darf. Die deutschen Akademien der Wissenschaften forderten kürzlich die Beteiligung von „Vertretern staatlicher und zivilgesellschaftlicher Stellen sowie (…) von Nutzern (…) an Entscheidungen über Grundsätze und Verfahren der Inhaltskuration“. Auch die deutschen Regierungsparteien bekannten sich im Koalitionsvertrag dazu, „die Einrichtung von Plattformräten“ voranzutreiben. Zuletzt hat die Bundesregierung in der Beantwortung einer kleinen Anfrage der CDU/CSU-Bundestagsfraktion im Juni erneut bestätigt, dass sie sich “aktiv in die Entwicklung von Konzepten zum Aufbau von Plattformräten ein[bringe]” und dass Plattformräte “eine sinnvolle Ergänzung zum Rechtsrahmen darstellen” könnten.
Mastodon könnte die Demokratisierung von Plattformregeln pilotieren, indem es User*innen niederschwellig in die Moderation miteinbezieht. Föderierte Netzwerke haben großes demokratisches Potenzial. Mastodon löst dieses aber (noch) nicht ein.
Eine längere Fassung dieses Beitrags erscheint auf LTO – Legal Tribune Online.
Titelbild: Battenhall / unsplash.com
Letzte Aktualisierung: 17.02.2025
Forschungsprogramm:
FP 2 Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen