Kennzeichnung von bearbeiteten (Influencer-)Fotos: Erforderlichkeit, Wirkungsvoraussetzungen, Regelungsansätze

Müssen, sollen, dürfen digital bearbeitete Fotos in sozialen Medien gekennzeichnet werden? Im Auftrag der Kommission für Jugendmedienschutz (KJM) untersucht das HBI die Notwendigkeit einer gesetzlichen Kennzeichnungspflicht für bearbeitete Fotos und Videos.

Vor dem Hintergrund potenzieller negativer Auswirkungen manipulierter Bilder auf das Körperbild, insbesondere von Jugendlichen, analysiert ein interdisziplinäres Team am HBI den aktuellen Stand der Wirkungsforschung, die Erfahrungen mit bestehenden Regelungen in anderen Ländern (Israel, Frankreich und Norwegen) und identifiziert die Voraussetzungen für wirksame Kennzeichnungen. Falls nötig, erarbeitet das interdisziplinäre Projektteam auf Basis der Erkenntnisse einen Vorschlag für eine angemessene gesetzliche Regelung in Deutschland.

Das Gutachten soll politischen Entscheidungsträgern eine fundierte Grundlage für mögliche regulatorische Maßnahmen im Bereich digitaler Bildmanipulation bieten.

Hintergrund und Gutachtenfragen

Die fortschreitende Digitalisierung und der Aufstieg sozialer Medien haben die Mediennutzung und die Art und Weise, wie Menschen miteinander interagieren, grundlegend verändert. Insbesondere der rasante Aufstieg von Plattformen wie Instagram oder TikTok hat zu einem erheblichen Anstieg von visuellem Content in Form von nutzergenerierten Fotos und kurzen Videos geführt, die häufig bearbeitet oder retuschiert sind – auch, weil unter anderem die Plattformen selbst niedrigschwellige Möglichkeiten für den Einsatz von Effekten und Filtern anbieten. Viele Creator*innen, Influencer*innen, Celebrities und auch gewöhnliche Nutzer*innen bearbeiten ihre Fotos, um ein idealisiertes Bild von sich selbst zu präsentieren. Während dies in einigen Fällen als künstlerischer Ausdruck oder Marketingstrategie verstanden werden kann, bergen retuschierte Darstellungen Risikopotenziale für einzelne Personen, Personengruppen und die Gesellschaft insgesamt.

Wo soziale Medien als (neue) Sozialisationsinstanz fungieren und Darstellungen zu den Themen Aussehen, Selbstdarstellung und Geschlechterrollen (besonders) relevant für Kinder und Jugendliche sind, können ubiquitäre bearbeitete Fotos unrealistische Schönheitsideale vermitteln. Jugendliche und ältere Kinder, die sich in der Phase der Identitätsentwicklung befinden, sind besonders anfällig für visuelle und von idolisierten Personen vermittelte Botschaften in sozialen Medien, auch und gerade angesichts der dortigen Feedback-Kultur durch Likes und Kommentare, die vermeintliche Schönheitsideale verstärken und perpetuieren. Gleichzeitig sind sie – wie die meisten Erwachsenen auch – oft nicht in der Lage, die Diskrepanz zwischen den retuschierten Darstellungen und der Realität zu erkennen, was zu einem verzerrten Fremd- und Selbstbild führen kann. Der Druck, einem bestimmten Aussehen zu entsprechen, kann zu niedrigem Selbstwertgefühl, Körperunzufriedenheit und Folgeproblemen wie Essstörungen oder dem Wunsch nach kosmetischen Eingriffen führen.

Die angerissene Problematik wird durch die zunehmende Nutzung von Anwendungen generativer Künstlicher Intelligenz (KI) weiter verstärkt: Die KI-Technologien ermöglichen es, Bilder nicht nur zu retuschieren, sondern auch vollständig künstlich zu erzeugen. Dies erschwert die Unterscheidung zwischen authentischen und manipulierten Bildern zusätzlich. Die zunehmende Verwendung solcher Technologien in der Medienproduktion kann dazu führen, dass die Grenzen zwischen Realität und Fiktion noch schwieriger zu bestimmen sind.

Vor diesem Hintergrund wird die Notwendigkeit einer gesetzlichen Kennzeichnungspflicht für bearbeitete Fotos und Videos diskutiert. Der Ansatz dabei ist, dass eine solche Pflicht dazu beitragen könnte, Transparenz und Aufmerksamkeit auf der Seite der Rezipient*innen zu schaffen und so bestenfalls die retuschierten Darstelllungen innewohnenden Beeinträchtigungspotenziale zu reduzieren. In mehreren Ländern sind entsprechende Vorschriften bereits in Kraft, darunter in Israel (2013), Frankreich (2019) und Norwegen (2021). Derartige neue Ordnungsrahmen werden diskutiert unter dem Begriff der „body image laws“.

Gleichzeitig stellt sich die Frage, wie eine solche Kennzeichnungspflicht wirksam und praktikabel umgesetzt werden kann, ohne künstlerische Freiheiten, die Meinungsfreiheit oder kommerzielle Interessen unverhältnismäßig einzuschränken.

Projektdetails

Überblick

Laufzeit Beginn: 2024; Laufzeit Ende: 2024

Forschungsprogramm: FP 3 Wissen für die Mediengesellschaft

Kompetenzbereich:

Kompetenzbereich Aufwachsen in digitalen Medienumgebungen

Ansprechpartner

Stephan Dreyer

Dr. Stephan Dreyer

Senior Researcher Medienrecht & Media Governance

Leibniz-Institut für Medienforschung │ Hans-Bredow-Institut (HBI)
Rothenbaumchaussee 36
20148 Hamburg

 

Ähnliche Projekte & Publikationen

Cover einer Publikation
Publikation Gesprächsklimabericht

Informations-Ökosysteme und bedrohte Demokratie

Schwächen Informations-Ökosysteme die Demokratie und fördern sie die virale Verbreitung von Falsch- und Desinformation? In der englischsprachigen Studie „Information Ecosystems and Troubled Democracy: A Global Synthesis of the State of Knowledge on New Media, AI and Data Governance" bewerten Matthias C. Kettemann, Robin E. Mansell, Flavia Durach, Théophile Lenoir, Rob Procter, Gyan Tripathi und Emily Tucker die Rolle verschiedenster Akteure im Informations-Ökosystem.

Mit Dall-E generierte Illustration eines Newsrooms, den ein Roboter und ein Mensch betreten
Projekt Projekt der DFG-Forschungsgruppe ComAI

Automatisierung der Nachrichten und journalistische Autonomie

Das Projekt im Rahmen der DFG-Forschungsgruppe ComAI untersucht kommunikative KI im Journalismus durch eine Analyse der damit verbundenen Herausforderungen für journalistische Autonomie auf interaktionaler, organisationaler und gesellschaftlicher Ebene.

Handydisplay mit mehren App-Icons Chat GPT
Projekt Projekt der DFG-Forschungsgruppe ComAI

Die Verrechtlichung kommunikativer KI

Das Projekt erforscht die rechtlichen Rahmenbedingungen für kommunikative Bots (insbesondere ChatGPT) und Social Bots (insbesondere X und Facebook) – zum einen aus kommunikationsrechtlicher Sicht, zum anderen aus der Sicht sich abzeichnender KI-Regulierung.

Cover des Impulspapiers
Publikation Impulspapier für die Friedrich-Ebert-Stiftung

Resilienz des deutschen Mediensystems stärken

Tobias Mast beschreibt in der Publikationsreihe "FES Impuls" der Friedrich-Ebert-Stiftung die rechtlichen und strukturellen Grundlagen des öffentlich-rechtlichen Rundfunks und fordert Reformen, um seine Unabhängigkeit langfristig zu sichern.

Cover des Arbeitspapiers Nr. 74 "Jahr der Nachricht"
Publikation Arbeitspapier Nr. 74 zum Download

Erfahrungen mit Praxisaktionen im Jahr der Nachricht 2024

Mit dem Projekt "Jahr der Nachricht 2024“ im Rahmen der Initiative #UseTheNews sollten junge Menschen mit unterschiedlichen journalistischen Angeboten und Aktivitäten erreicht und mit Journalismus in Beziehung gebracht werden. Leonie Wunderlich und Sascha Hölig haben erforscht, welche Berührungspunkte junge Menschen mit der Kampagne sowie diesen Aktivitäten hatten.

Cover des Heftes 4 der Zeitschrift "Medien & Kommunikationswissenschaft"
Publikation Open Access verfügbar

M&K 4/2024 erschienen

Die Artikel in M&K 4/2024 beschäftigen sich u. a. mit den Themen Mediengebrauchsforschung, Satire und mit der Rolle der Nachrichtenagenturen. Alle Inhalte sind im Open Access über die eLibrary des Nomos-Verlages verfügbar.

Cover des Berichts "Cross-Plattform-Forschung"
Publikation Bericht zum Download

Cross-Plattform-Forschung: Methoden der Datengewinnung und Analyse

Mit welchen Methoden und Strategien übergreifende Mehrplattform-Social-Media-Daten analysiert werden können, haben Philipp Kessling, Mattes Ruckdeschel, Felix Victor Münch und Gregor Wiedemann im Rahmen des Kooperationsprojektes NOTORIOUS – die Rolle von Prominenten in Desinformationskampagnen erarbeitet.

Erste Seite des Online-Artikels
Publikation Dossier der Bundeszentrale für Politische Bildung

KI in den Sozialen Medien

Im Online-Dossier "Wenn der Schein trügt – Deepfakes und die politische Realität" der Bundeszentrale für politische Bildung (bpb) erklärt Jan-Hinrik Schmidt, wie Social-Media-Plattformen auf Technologien des maschinellen Lernens zurückgreifen, um Inhalte zu kuratieren und zu moderieren.

Cover des Arbeitspapiers Nr. 73 SIKID
Publikation Arbeitspapier zum Download

Rechtslage zur empirischen Forschung mit Kindern

Keine Datenverarbeitung ohne informierte Einwilligung der Betroffenen: So lautet ein Fazit von Sünje Andresen, Stephan Dreyer und Neda Wysocki, die sich mit den rechtlichen Berührungspunkten und Unwägbarkeiten bei der empirischen Forschung mit Kindern befasst haben.

Cover SIKID Kompass
Publikation Open Access verfügbar

Handlungsoptionen zur Erhöhung der Sicherheit von Kindern im digitalen Raum

Kinder und Jugendliche sind in Online-Welten erheblichen Sicherheitsrisiken ausgesetzt. Der SIKID-Kompass zeigt Handlungsoptionen zur Verzahnung von Akteuren und Maßnahmen im Jugendmedienschutz auf, basierend auf den Ergebnissen des Projekts „Sicherheit von Kindern in der digitalen Welt“ (SIKID).

1 2 3 15

Seite 1 von 15

Newsletter

Infos über aktuelle Projekte, Veranstaltungen und Publikationen des Instituts.

Jetzt abonnieren