Ideen von Jugendlichen für ein sicheres Internet

Cybermobbing, Grooming und Hate Speech – Viel wird darüber diskutiert, wie es angesichts dieser Gefahren gelingen kann, Heranwachsenden eine sichere und selbstbestimmte Nutzung digitaler Medien zu ermöglichen. Die, um die es geht, kommen dabei nur selten zu Wort. Im Projekt “Sicherheit für Kinder in der digitalen Welt” haben wir deshalb Schüler*innen direkt nach ihren Ideen und Bedürfnissen gefragt.

von Kira Thiel und Claudia Lampert

Kinder und Jugendliche wachsen heute ganz selbstverständlich mit digitalen Medien auf. Das bietet einerseits Chancen in Bezug auf Informationssuche, Beziehungspflege und Persönlichkeitsentwicklung, birgt andererseits aber auch Risiken. Repräsentative Studien wie  der Jugendmedienschutzindex zeigen, dass ein beträchtlicher Anteil der Kinder und Jugendlichen in Deutschland online bereits Beleidigung, Belästigung, Hass oder sexuelle Grenzverletzungen erlebt hat. Weitere Studien, wie etwa die qualitative Befragung von Jugendlichen im Rahmen des Projekts „SIKID – Sicherheit für Kinder in der digitalen Welt“, legen nahe, dass solche Erfahrungen für Betroffene sehr belastend sein können. Vor diesem Hintergrund beschäftigt sich das Verbundprojekt aus interdisziplinärer Sicht mit der Frage, wie die Sicherheit für Kinder und Jugendliche im Internet erhöht und potenzielle Belastungen reduziert bzw. vermieden werden können. Neben Plattformbetreibern, (medien-)pädagogischen Fachkräften, Nichtregierungsorganisationen und Akteuren aus dem Bereich des Jugendmedienschutzes kommen im Projekt auch diejenigen zu Wort, die es unmittelbar betrifft: Kinder und Jugendliche.

Co-Creation-Workshops: Online-Sicherheit aus Sicht von Jugendlichen

Soll Kinder- und Jugendmedienschutz vom Kind aus gedacht werden, wie es unter anderem im jugendpolitischen Strategieprozess von Bund und Ländern vorgesehen ist, ist es elementar, junge Menschen in die Diskussion um Online-Sicherheit einzubeziehen und ihre Wünsche und Ideen ernst zu nehmen. Ein geeignetes Vorgehen hierfür stellen ko-kreative Ansätze dar, die es ermöglichen, Jugendliche als Expert*innen ihrer Lebenswelt zu Wort kommen zu lassen und in einem offenen, kreativen Rahmen Lösungsvorschläge für gesellschaftlich relevante Themen zu entwickeln.

Im Herbst 2023 wurden vier ganztägige sogenannte „Co-Creation-Workshops“ mit Schüler*innen der 8. und 9. Klasse an zwei Hamburger Schulen (je zwei an einem Gymnasium und einer Stadtteilschule) durchgeführt, die von jeweils zwei Projektmitarbeiter*innen moderiert wurden.

Zunächst wurde in einer Kritik- und Reflexionsphase anhand persönlicher Erfahrungen der Jugendlichen sowie hypothetischer Szenarien gemeinsam der Status Quo reflektiert und auf diese Weise die Einschätzung der Jugendlichen zu Cybermobbing, Hate Speech und sexuellen Grenzverletzungen eingefangen. In einem nächsten Schritt, der Utopie-Phase, sammelten die Jugendlichen Ideen und Wünsche, wie in der Zukunft ein sicheres Internet für Jugendliche aussehen könnte. Im letzten Teil des Workshops, der Umsetzungsphase, ging es schließlich darum, ausgewählte Ideen zu konkretisieren. Hier stand die Frage im Mittelpunkt, was verschiedene Akteure aus Sicht der Jugendlichen ganz konkret tun könnten, um ihre Wünsche und Visionen umzusetzen.

Insgesamt lassen sich die Vorschläge der Jugendlichen in drei Kategorien differenzieren: (1) Ideen, die direkt die Plattformbetreiber adressieren, (2) Ansätze, die auf Unterstützung und Beratung abzielen und schließlich (3) Ansätze, die dazu beitragen können, das Wissen und die Kompetenzen von Jugendlichen zu erweitern. Die entstanden Ideen werden im Folgenden nach diesen Kategorien vorgestellt.

1) Sichere Plattformen: Strengere Regeln und Konsequenzen für Fehlverhalten

Eine zentrale Rolle bei der Umsetzung von Sicherheitsmaßnahmen im Internet spielen die Plattformen mit ihrer Infrastruktur, ihren Funktionen und Meldemöglichkeiten. Aus Sicht der Jugendlichen ist dank technischer Möglichkeiten zur Verwaltung der eigenen Kontakte (z. B. Blockieren, Melden, Stummschalten, Privatsphäre-Einstellungen) bereits ein gewisses Maß an Kontrollierbarkeit und Sicherheit gegeben. Mit Blick auf die anbieterseitigen Meldemöglichkeiten wünschten sich viele Jugendliche allerdings mehr Transparenz und Konsequenz, da sie in der Vergangenheit häufig den Eindruck hatten, dass ihre Meldungen ins Leere gelaufen waren und die gemeldete Person nicht gesperrt wurde.

Zur Frage, wie die Aufdeckung und Ahndung von Fehlverhalten in Zukunft konsequent(er) umgesetzt werden könnten, brachten die Jugendlichen vielfältige Ideen ein. Zunächst einmal sei es wichtig, in einer Art Vertrag klare und verbindliche Regeln für alle Nutzenden festzulegen. Darin müsse auch klar definiert werden, welche „Strafe“ bei Nicht-Einhaltung der Regeln droht. Bezüglich des „Strafmaßes“ wurde in einem Workshop ein detaillierter Stufenplan diskutier und ausgearbeitet, der unterschiedlich harte Strafen (z. B. Dauer der Sperrung des Nutzerkontos) für unterschiedlich schlimme Vergehen vorsieht.

Regelverstöße könnten z. B. durch den Einsatz von künstlicher Intelligenz, beispielsweise in Form einer Chatkontrolle, aufgedeckt werden. So schlugen einige Jugendliche den Einsatz KI-basierter Programme vor, die Beleidigungen und sexuelle Inhalte erkennen, bevor sie verschickt werden und den/die Verfasser*in automatisch sperren. Eine andere Gruppe wünschte sich, dass Schimpfwörter und Beleidigungen durch eine Art Autokorrektur automatisch in eine positive Nachricht umgewandelt werden.

Weitere Ideen und Lösungsvorschläge der Jugendlichen, wie Plattformen für mehr Sicherheit sorgen können, setzten am Alter der Nutzenden an. Einige der befragten Jugendlichen plädierten dafür, das in den Nutzungsbedingungen festgelegte Mindestalter, das bei vielen Social-Media-Diensten aktuell bei 13 Jahren liegt, auf 16 oder 18 Jahre anzuheben. In diesem Zusammenhang kam zudem der Vorschlag auf, getrennte Versionen der Apps für ältere und jüngere Nutzende anzubieten, z. B. eine Instagram-Variante für Volljährige und eine gesonderte App (Instagram Kids) für Minderjährige. Da die plattformseitige Abfrage des Alters allerdings nur dann zur Online-Sicherheit Heranwachsender beitragen kann, wenn das angegebene Alter auch stimmt/ wenn das Alter auch wahrheitsgemäß angegeben wurde, äußerten einige Jugendliche den Wunsch nach einer Altersverifikation und -kontrolle durch die Plattformbetreiber. Auf diese Weise könnten aus ihrer Sicht einerseits Personen, die zu jung sind, ausgeschlossen und andererseits Erwachsene, die ein falsches Alter angeben und sich möglicherweise als Jugendliche ausgeben, identifiziert werden. Auf die Nachfrage, wie eine solche Altersverifikation konkret aussehen könnte, wurden eher diffuse Ideen geäußert, unter anderem eine regelmäßige Überprüfung aller Profile durch ein „Filterprogramm“ oder eine durch die Plattformen geregelte Ausweiskontrolle.

Grundsätzlich waren sich alle Workshop-Gruppen einig: Plattformen sollten strenger sein! Nutzende, die gemeldet wurden oder die durch eine falsche Altersangabe auffallen, sollten aus ihrer Sicht konsequent – eventuell auch unterstützt durch die Möglichkeiten künstlicher Intelligenz – gesperrt werden und es sollte nach der Sperrung nicht ohne weiteres möglich sein, sich einen neuen Account anzulegen.

2) Unterstützung und Beratung: Wenig Hürden, mehr Sichtbarkeit

Mit Blick auf die Frage, welche Unterstützungs- und Beratungsmöglichkeiten es für junge Menschen geben sollte, die online eine negative (Interaktions-)Erfahrung gemacht haben, äußerten die Jugendlichen in den Workshops Wünsche nach verschiedenen Angeboten, die je nach Ausrichtung und Ausgestaltung auf unterschiedliche Bedarfe reagieren.

Einerseits wurden Formate mit präventivem Charakter genannt, die darauf abzielen, Kinder und Jugendliche – insbesondere Internetanfänger*innen – für die Risiken von sozialen Medien, Messengerdiensten und Online-Spiele zu sensibilisieren und ihnen Tipps und Handlungsmöglichkeiten für den Ernstfall an die Hand zu geben. Daneben äußerten einige Schüler*innen einen Bedarf an Angeboten, die darauf ausgerichtet sind, das eigene Selbstbewusstsein zu stärken. Entsprechende Inhalte sollten aus Sicht der Jugendlichen vor allem im schulischen Kontext, beispielsweise im Rahmen von Projektwochen, punktuellen Unterrichtseinheiten oder in einem eigenen Schulfach „Umgang mit Hass im Netz“, oder in außerschulischen (Online-)Workshops vermittelt werden. Letztere sollten für die Teilnehmenden kostenlos sein und staatlich finanziert werden.

Mit Blick auf Angebote, die der emotionalen Entlastung nach einer negativen oder belastenden Erfahrung dienen, wurden seelsorgerische und psychologische Angebote als mögliche Anlaufstellen thematisiert. Insbesondere Hotlines und Webseiten mit Beratungsmöglichkeiten kamen hier zur Sprache und wurden von mehreren Gruppen vertiefend ausgearbeitet. Dabei stellten die Jugendlichen heraus, dass diese idealerweise sowohl telefonische als auch schriftliche Möglichkeiten der Kontaktaufnahme bieten sollten. Eine Gruppe fand es sinnvoll bzw. hilfreich, wenn Berater*innen selbst Erfahrungen mit Mobbing gemacht haben. In diesem Zusammenhang wurden außerdem Selbsthilfegruppen und Austauschmöglichkeiten für Jugendliche, die ähnliche Erfahrungen gemacht haben, thematisiert. Eine Workshop-Gruppe entwickelte beispielsweise ein Konzept für eine Selbsthilfegruppe, die im wöchentlichen Rhythmus in der Schule angeboten wird und Betroffenen von Cybermobbing – angeleitet durch eine geschulte Lehrkraft – die Möglichkeit bietet, sich über ihre Erfahrungen auszutauschen.

Auf die Frage, wie solche Angebote idealerweise erreichbar und auffindbar sein sollten, betonten viele Jugendliche, dass es mehr Werbung und Sichtbarkeit bräuchte.

3) Wissen und Können: Nicht nur Medienkompetenz, sondern auch Resilienz

Da Jugendmedienschutz im Spannungsfeld aus Teilhabe und Schutz – insbesondere mit Blick auf dynamische, schwer zu regulierende Kommunikations- und Interaktionsräume – keine absolute Sicherheit bieten kann, brauchen Kinder und Jugendliche bestimmte Fähigkeiten und Wissen, um Risiken zu verringern und im Ernstfall mit belastenden Online-Erfahrungen umgehen zu können. Im Zusammenhang mit Krisen fällt dabei oftmals auch auf den Begriff der Resilienz verwiesen, der sich auf die psychische Widerstandsfähigkeit bezieht und eine „gesunde und altersgemäße Entwicklung trotz ernsthafter Gefährdungen im Sinne von ungünstigen Lebensumständen oder kritischen Lebensereignisse“ beschreibt. Die Förderung von Resilienz zielt entsprechend darauf, Online-Nutzer*innen zu befähigen, die Möglichkeiten der digitalen Medien zu nutzen und gleichzeitig das eigene Wohlbefinden zu schützen. Voraussetzung hierfür ist aus Sicht der befragten Jugendlichen vor allem ein ausgeprägtes Risikobewusstsein und Wissen über Möglichkeiten der Risikovermeidung bzw. -reduzierung (s. auch Modell des Intelligenten Risikomanagements). Laut einigen Teilnehmenden sei es entsprechend wichtig, Kinder frühzeitig dafür zu sensibilisieren, was online auf sie zukommen könnte, und ihnen beizubringen, wie sie dies verhindern können (z. B. fremden Menschen im Internet nicht ohne weiteres vertrauen). Auch die Fähigkeit, die möglichen Folgen bestimmter Online-Nutzungspraktiken abzuschätzen, wurde in einem Workshop thematisiert. So sollte Kindern beispielsweise bewusst sein, dass die Angriffsfläche größer wird, je mehr sie online posten und von sich preisgeben.

Für den Fall einer negativen oder gar belastenden Erfahrung bräuchten Kinder und Jugendliche zudem Kenntnisse über Handlungs- und Bewältigungsmöglichkeiten. Dazu zählen den Teilnehmenden zufolge neben dem Wissen über technische Möglichkeiten auf den einzelnen Plattformen (z. B. wie man Kontakte blockiert, löscht oder meldet) auch das Wissen über Anlaufstellen, an die man sich wenden kann.

Darüber hinaus sei in Online-Umgebungen, die sich häufig durch eine aggressive, „toxische“ Gesprächsatmosphäre auszeichnen, eine gewisse Robustheit bzw. Widerstandsfähigkeit gefragt. Diese umfasst aus Sicht der Teilnehmenden ein gefestigtes Selbstbewusstsein und die Fähigkeit, gemeine Kommentare zu ignorieren und sich von Hass und Beleidigungen emotional zu distanzieren.

Danach gefragt, wer für die Vermittlung dieser Kompetenzen zuständig sein sollte, wurden vor allem Eltern und Lehrkräfte, aber auch medienpädagogische Fachkräfte (z. B. Workshopleiter*innen) und Freund*innen genannt.

Online-Sicherheit als Gemeinschaftsaufgabe

Die in den Workshops entwickelten Ideen und Lösungsansätze verdeutlichen: Kindern ein gutes Aufwachsen mit digitalen Medien zu ermöglichen, ist eine Gemeinschaftsaufgabe, die ein Zusammenwirken verschiedener Akteure erfordert. Die Perspektiven und Ideen Jugendlicher sind dabei vor allem hilfreich, um relevante Sicherheitslücken zu identifizieren, zu verstehen, welche Art von Unterstützung sich junge Menschen im Umgang mit Online-Interaktionsrisiken wünschen und wie Hilfsangebote konzipiert sein müssen, um ansprechend für sie zu sein. Wenn es darum geht, unter Abwägung rechtlicher, schutz- und teilhabeorientierter Perspektiven konkrete (technische) Maßnahmen zu entwickeln, um die Plattformen zu regulieren, stoßen Jugendliche allerdings an ihre Grenzen. Hier sind vor allem Politik und Plattformbetreiber gefragt, die Online-Umgebungen (und rechtlichen Rahmenbedingungen) so zu gestalten, dass junge Menschen die Möglichkeiten erproben und Chancen digitaler Medien nutzen können, ohne nachhaltig belastende Erfahrungen zu machen.

Das Projekt

Die hier beschriebenen Co-Creation-Workshops wurden als Teil des vom Bundesministerium für Bildung und Forschung geförderten Projekts “Sicherheit für Kinder in der digitalen Welt” durchgeführt, das in Kooperation mit dem Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Eberhard Karls Universität Tübingen und der Technischen Universität Berlin aktuelle Fragen der zivilen Sicherheit von Kindern in Onlineumgebungen und dabei speziell Sicherheitsgefährdungen durch Interaktionsrisiken in den Blick nimmt. Ziel ist es, mögliche Ansätze zur Regulierung, Strafverfolgung, Prävention und Medienmündigkeit interdisziplinär aus sicherheits- und medienethischer, kinderrechtlicher sowie juristischer und psychologischer Perspektive zu erforschen und auf diese Weise Kinder und ihre Rechte online zu stärken. Weitere Projektergebnisse und Informationen finden sich unter www.sikid.de.

Ein besonderer Dank gilt Sünje Andresen und Paulina Domdey vom Leibniz-Institut für Medienforschung sowie Felix Paschel und Yannick Epple von der Technischen Universität Berlin für die Unterstützung bei der Durchführung der Workshops sowie den Lehrkräften für die Organisation und den Jugendlichen für die engagierte Beteiligung und ihren kreativen Input.

Referenzen

  • Hasebrink, U., Lampert, C., & Thiel, K. (2019). Online-Erfahrungen von 9- bis 17-Jährigen. Ergebnisse der EU Kids Online-Befragung in Deutschland 2019. 2. überarb. Auflage. Hamburg: Verlag Hans-Bredow-Institut.
  • Rönnau-Böse, M., Fröhlich-Gildhoff, K., Bengel, J., & Lyssenko, L. (2022). Resilienz und Schutzfaktoren. Leitbegriffe der Gesundheitsförderung und Prävention. Glossar zu Konzepten, Strategien und Methoden. https://doi.org/10.17623/BZGA:Q4-I101-2.0
  • Thiel, K., & Lampert, C. (2023). Wahrnehmung, Bewertung und Bewältigung belastender Online-Erfahrungen von Jugendlichen: Eine qualitative Studie im Rahmen des Projekts „SIKID – Sicherheit für Kinder in der digitalen Welt“. Arbeitspapiere des Hans-Bredow-Instituts. https://doi.org/10.21241/SSOAR.86633

 

Letzte Aktualisierung: 09.07.2024

Projektbezug:

Sicherheit für Kinder in der digitalen Welt: Regulierung verbessern, Akteure vernetzen, Kinderrechte umsetzen

Beteiligte Personen:

Newsletter

Infos über aktuelle Projekte, Veranstaltungen und Publikationen des Instituts.

Jetzt abonnieren