BRC105 Wie gelingt gute Content Moderation?

Menschen und Maschinen treffen in Sekundenschnelle Entscheidungen darüber, welche Inhalte in sozialen Medien sichtbar bleiben und welche entfernt werden. Content Moderation – also die Regulierung von Online-Inhalten – gehört damit zu den zentralen Herausforderungen digitaler Kommunikation.

In dieser BredowCast-Folge geht es um die Interaktion zwischen menschlichen Moderator*innen und automatisierten Systemen sowie um die Frage, wie diese „Zusammenarbeit“ verbessert werden kann.

Zu Gast ist Prof. Dr. Matthias C. Kettemann, Leiter des Forschungsprogramms „Regelungsstrukturen und Regelbildungen in digitalen Kommunikationsräumen“ am HBI und Leiter des Projekts „Human In The Loop“ am Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG). Sein Plädoyer für gelingende Content Moderation: „So viel automatisiert wie möglich, so viel menschlich wie nötig.“

Aufbauend auf seinen Forschungsarbeiten am HBI hat Matthias Kettemann gemeinsam mit Katharina Mosene (HBI), Maurice Stenzel, Philipp Mahlow, Daniel Pothmann, Sarah Spitz sowie Expert*innen aus Wissenschaft, Behörden, NGOs und Plattformunternehmen am Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) einen Verhaltenskodex entwickelt: den Code of Conduct „Strengthening Trust“. Sein Ziel ist es, das Vertrauen in automatisierte Moderationssysteme zu stärken. Dafür definiert der Kodex Maßnahmen für faire, transparente und nachvollziehbare Moderationsprozesse auf digitalen Plattformen.

Im Podcast erläutert Matthias Kettemann diese Maßnahmen:

    • Transparenz: Die Regeln für die Mensch-Maschine-Interaktion müssen von den Plattformen offengelegt werden und nachvollziehbar sein.
    • Menschliche Notbremse: In hochgefährlichen Kommunikationssituationen sollen Inhalte frühzeitig(er) menschlichen Moderator*innen gezeigt werden.
    • Automatisierte Moderation zurückfahren bei komplexen Inhalten, darunter kontroversen Konfliktthemen: Bei Humor, politisch sensiblen Themen oder Begriffen, deren Bedeutung vom Kontext abhängen, soll die automatisierte Moderation reduziert werden, um Übermoderation zu vermeiden.
    • Ausreichende Kontextinformationen für Moderator*innen: Datenschutz darf nicht verhindern, dass Moderator*innen ausreichend Hintergrundinformationen erhalten, um fundierte Entscheidungen treffen zu können.
    • Faire und nicht-diskriminierende Empfehlungssysteme: Sicherung von Informationsqualität und Informationsdiversität, darunter auch die Verbreitung von Nischeninteressen.

Der Kodex soll den Digital Services Act durch praxisnahe, branchenspezifische Standards ergänzen. So dient er auch dem Schutz derjenigen, die täglich über die Sichtbarkeit problematischer Inhalte entscheiden. Anpassungen in der Präsentation von Inhalten – etwa Farbe, Größe oder Schärfe – können beispielsweise psychische Belastungen deutlich reduzieren, erläutert Matthias Kettemann im BredowCast.

Publikationen

Eigenständige Werke (Studien, Working Papers):

Kettemann, M. C./Mosene, K./Stenzel, M./Mahlow, P./Pothmann, D./Spitz, S. (2025), Code of Conduct on Human-Machine Decision-Making in Content Moderation. Alexander von Humboldt Institute for Internet and Society.
https://graphite.page/coc-strengthening-trust/

Heldt, A. P./Dreyer, S./Schulz, W./Seipp, T. J. (2021), Normative Leitbilder der Europäischen Medienordnung: Leitvorstellungen und rechtliche Anforderungen an die Governance für eine demokratische Öffentlichkeit, (Arbeitspapiere des Hans-Bredow-Instituts, 54). Hamburg: Verlag Hans-Bredow-Institut.
https://doi.org/10.21241/ssoar.71716

Susi, M./Benedek, W./Fischer-Lessiak, G./Kettemann, M. C./Schippers, B./Viljanen, J. (2022), Governing Information Flows During War: a Comparative Study of Content Governance and Media Policy Responses After Russia’s Attack on Ukraine (GDHRNet Working Paper, 4). Hamburg: Verlag Hans-Bredow-Institut.
https://doi.org/10.21241/ssoar.78580

Mansell, R./Durach, F./Kettemann, M. C./Lenoir, T./Tripathi, G. P./Tucker, E., Information Ecosystems and Troubled Democracy: The State of Knowledge on News Media, AI and Data Governance (Göterborg: Nordicom, 2025).
Open access: https://norden.diva-portal.org/smash/get/diva2:2011448/FULLTEXT01.pdf

Buchbeiträge

Mast, T./Kettemann, M. C./Schulz, W., Private ordering of media organisations and platform operators, in: Puppis/Mansell/Van den Bulck, Handbook of Media and Communication Governance (Elgar 2024), S. 260–273.
https://doi.org/10.4337/9781800887206.00030

Kettemann, M. C./Sekwenz, M.-T., Pandemics and Platforms: private Governance of (Dis)Information in Crisis Situations, in: Kettemann/Lachmayer, Pandemocracy in Europe (Hart 2021), S. 263–282.
https://doi.org/10.5040/9781509946396.ch-013

Aufsätze

Schulz, W./Ollig, C., Hybrid Speech Governance, JIPITEC 14 (2023), 560–579.
https://www.jipitec.eu/jipitec/article/view/22

Wagner, B./Kettemann, M. C./Tiedeke, A. S./Rachinger, F./Sekwenz, M.-T., Mapping interpretations of the law in online content moderation in Germany, Computer Law & Security Review 55 (2024).
https://doi.org/10.1016/j.clsr.2024.106054

Kettemann, M.C., & Tiedeke, A.S. (2020). Back up: can users sue platforms to reinstate deleted content?, Internet Policy Review, 9 (2020).
https://doi.org/10.14763/2020.2.1484

Stenzel, M./Mosene, K./Efferenn, F., Inside Content Moderation: Mensch, Maschine und unsichtbare Arbeit (Digital Society Blog 2025)
https://doi.org/10.5281/zenodo.17415009

Maranhao, J./Campos, R./Kettemann, M. C./Abrusio, J./Sartor, G., Como regular a moderação privada de conteúdo nos novos espaços públicos? (Consultor Jurídico Blog 2020),
https://www.conjur.com.br/2020-set-01/direito-digitalcomo-regular-moderacao-privada-conteudo-novos-espacos-publicos/

Mast, T./Oermann, M./Schulz, W., Doing Internet Governance: Constructing Normative Structures Inside and Outside of Intermediary Organisations (GigaNet 2016), https://dx.doi.org/10.2139/ssrn.2909367

Letzte Aktualisierung: 18.11.2025

Newsletter

Infos über aktuelle Projekte, Veranstaltungen und Publikationen des Instituts.

Jetzt abonnieren