Neuer Kodex für Mensch-Maschine-Entscheidungsprozesse in der Content Moderation

Prof. Dr. Matthias C. Kettemann, Leiter des Forschungsprogramms „Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen“, stellte am 10. November Vertreter*innen europäischer Aufsichtsbehörden sowie nationalen Digital Services Coordinators (DSCs) einen Verhaltenskodex für Mensch-Maschine-Entscheidungsprozesse in der Content Moderation vor.

Ziel des Kodex‘ „Strengthening Trust“ – entwickelt am Alexander von Humboldt Institut für Internet und Gesellschaft im Projekt „Human in the Loop” unter Beteiligung von Matthias C. Kettemann und Katharina Mosene – ist es, den Digital Services Act (DSA) durch praxisnahe, branchenspezifische Standards zu ergänzen. Dafür werden Leitlinien für faire, transparente und nachvollziehbare Moderationsprozesse auf digitalen Plattformen und großen Online-Diensten definiert.

Hier geht es zum Verhaltenskodex (Code of Conduct) in englischer Sprache.

Warum ist ein Verhaltenskodex notwendig?

„Gut funktionierende Inhaltemoderation ist wichtig zur Sicherung einer Online-Kommunikationswelt, in der Terrorismus und Hassrede keinen Platz haben. Das können Menschen nicht alleine schaffen. Maschinen – also automatisierte Filter – aber auch nicht. Deshalb braucht es ein verantwortliches Zusammenspiel beider Seiten. Gesetze wie der Digital Services Act (DSA) sind wichtig, aber auch Standards helfen dabei, die Praxen von Plattformen zu verbessern. Genau wie der Kodex zu Desinformation, der schon viele Jahre Erfolge zeigt, möchte auch unser Verhaltenskodex, der auf empirischen Untersuchungen beruht und im Rahmen eines intensiven Prozesses mit allen Stakeholdern diskutiert wurde, echte Mehrwerte schaffen”, erklärt Matthias C. Kettemann und ergänzt: „Es ist ein außergewöhnlicher Moment, dass zentrale europäische Aufsichtsbehörden diesem Code of Conduct nun auf höchster Ebene Aufmerksamkeit schenken. Forschungsbasierte, konsensuale Standards sind in der Plattformregulierung europaweit auf dem Weg, Maßstab zu werden – zum Schutz von Meinungsfreiheit, Vielfalt und demokratischer Teilhabe.“

Plattformen wie Meta und TikTok prüfen täglich, welche Beiträge sichtbar bleiben, entfernt oder eingeschränkt werden. Ziel dieser Content Moderation ist es, schädliche Inhalte wie Hassrede, Gewalt oder Desinformation zu begrenzen. Gleichzeitig sollen Meinungsfreiheit und Vielfalt im digitalen Raum dabei geschützt werden. Aufgrund der enormen Menge an täglich produzierten Inhalten setzen Plattformen auf semi-automatisierte Entscheidungsprozesse in der Content Moderation: KI-Systeme erkennen und filtern schädliche und problematische Inhalte vor, während in komplexen oder kulturell sensiblen Fällen weiterhin menschliche Moderator*innen entscheiden. Zusätzlich bestimmen algorithmische Empfehlungsmechanismen, welche Inhalte im Feed verstärkt ausgespielt oder kaum sichtbar werden. Dieses Zusammenspiel stößt in der Praxis an Grenzen – etwa bei Fairness, Nachvollziehbarkeit, Kontrolle und dem Schutz von Grundrechten.

Was regelt der Verhaltenskodex?

Der Verhaltenskodex (Code of Conduct) definiert zehn klare Leitlinien für faire, transparente und nachvollziehbare Moderationsprozesse auf digitalen Plattformen und großen Online-Diensten. Ziel ist es, das Vertrauen in menschlich-maschinelle Entscheidungen in der Content Moderation zu stärken. Zugleich adressiert der Verhaltenskodex Herausforderungen in den Bereichen Diskriminierungsschutz, Datensicherheit, psychische Gesundheit von menschlichen Moderator*innen, Feedbackprozesse und unabhängige Kontrolle. Zwar legt der Digital Services Act (DSA) rechtliche Mindeststandards fest, doch bleiben viele praktische Anforderungen offen. Der Code of Conduct liefert dafür konkrete normative Leitlinien.

Die zentralen Leitlinien umfassen unter anderem:

  • die systematische Prüfung der Risiken und Auswirkungen automatisierter Systeme
  • Schutzmaßnahmen für marginalisierte Gruppen vor Diskriminierung und digitaler Gewalt
  • die Einhaltung hoher Datenschutzstandards
  • die Berücksichtigung der psychischen Gesundheit von menschlichen Moderator*innen
  • klare und zugängliche Feedback- und Beschwerdestrukturen für Nutzer*innen
  • eine verantwortungsbewusste Gestaltung und Weiterentwicklung der Technik
  • unabhängige Kontroll- und Evaluationsmechanismen

Jede Leitlinie enthält überprüfbare Umsetzungsvorschläge für Plattformen.

An wen richtet sich der Verhaltenskodex?

Der Verhaltenskodex richtet sich primär an Plattformbetreiber und internationale Anbieter digitaler Dienste. Er ist außerdem relevant für Aufsichtsbehörden, politische Entscheidungsträger*innen und zivilgesellschaftliche Organisationen.

Wie wurde der Verhaltenskodex entwickelt?

Der Verhaltenskodex entstand im Forschungsprojekt „Human in the Loop?“ am Alexander von Humboldt Institut für Internet und Gesellschaft, mit dem das HBI eng kooperiert. Er greift auf Vorarbeiten von Matthias Kettemann am HBI zurück, wissenschaftliche Analysen, Fallstudien und die Beteiligung externer Expert*innen aus Zivilgesellschaft, Plattformunternehmen, Rechtswissenschaft, EU-Behörden und NGOs.

Das Projekt wird von der Stiftung Mercator gefördert.

Weiterführende Informationen: https://graphite.page/coc-strengthening-trust/#background

Fotocollage: HIIG

Veröffentlicht am: 11.11.2025

Newsletter

Infos über aktuelle Projekte, Veranstaltungen und Publikationen des Instituts.

Jetzt abonnieren