BRC105 Wie gelingt gute Content Moderation?

Menschen und Maschinen treffen in Sekundenschnelle Entscheidungen darüber, welche Inhalte in sozialen Medien sichtbar bleiben und welche entfernt werden. Content Moderation – also die Regulierung von Online-Inhalten – gehört damit zu den zentralen Herausforderungen digitaler Kommunikation.

In dieser BredowCast-Folge geht es um die Interaktion zwischen menschlichen Moderator*innen und automatisierten Systemen sowie um die Frage, wie diese „Zusammenarbeit“ verbessert werden kann.

Zu Gast ist Prof. Dr. Matthias C. Kettemann, Leiter des Forschungsprogramms „Regelungsstrukturen und Regelbildungen in digitalen Kommunikationsräumen“ am HBI und Leiter des Projekts „Human In The Loop“ am Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG). Sein Plädoyer für gelingende Content Moderation: „So viel automatisiert wie möglich, so viel menschlich wie nötig.“

Aufbauend auf seinen Forschungsarbeiten am HBI hat Matthias Kettemann gemeinsam mit Katharina Mosene (HBI), Maurice Stenzel, Philipp Mahlow, Daniel Pothmann, Sarah Spitz sowie Expert*innen aus Wissenschaft, Behörden, NGOs und Plattformunternehmen am Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) einen Verhaltenskodex entwickelt: den Code of Conduct „Strengthening Trust“. Sein Ziel ist es, das Vertrauen in automatisierte Moderationssysteme zu stärken. Dafür definiert der Kodex Maßnahmen für faire, transparente und nachvollziehbare Moderationsprozesse auf digitalen Plattformen.

Im Podcast erläutert Matthias Kettemann diese Maßnahmen:

    • Transparenz: Die Regeln für die Mensch-Maschine-Interaktion müssen von den Plattformen offengelegt werden und nachvollziehbar sein.
    • Menschliche Notbremse: In hochgefährlichen Kommunikationssituationen sollen Inhalte frühzeitig(er) menschlichen Moderator*innen gezeigt werden.
    • Automatisierte Moderation zurückfahren bei komplexen Inhalten, darunter kontroversen Konfliktthemen: Bei Humor, politisch sensiblen Themen oder Begriffen, deren Bedeutung vom Kontext abhängen, soll die automatisierte Moderation reduziert werden, um Übermoderation zu vermeiden.
    • Ausreichende Kontextinformationen für Moderator*innen: Datenschutz darf nicht verhindern, dass Moderator*innen ausreichend Hintergrundinformationen erhalten, um fundierte Entscheidungen treffen zu können.
    • Faire und nicht-diskriminierende Empfehlungssysteme: Sicherung von Informationsqualität und Informationsdiversität, darunter auch die Verbreitung von Nischeninteressen.

Der Kodex soll den Digital Services Act durch praxisnahe, branchenspezifische Standards ergänzen. So dient er auch dem Schutz derjenigen, die täglich über die Sichtbarkeit problematischer Inhalte entscheiden. Anpassungen in der Präsentation von Inhalten – etwa Farbe, Größe oder Schärfe – können beispielsweise psychische Belastungen deutlich reduzieren, erläutert Matthias Kettemann im BredowCast.

Veröffentlicht am: 13.11.2025

Newsletter

Infos über aktuelle Projekte, Veranstaltungen und Publikationen des Instituts.

Jetzt abonnieren