Was passiert, wenn künstliche Intelligenz (KI) Teil gesellschaftlicher Kommunikation wird? Das untersucht die Forschungsgruppe „Kommunikative KI“ in zehn Teilprojekten mit unterschiedlichen Schwerpunkten an vier Standorten in Deutschland und Österreich. Das von der DFG und dem FWF geförderte Verbundprojekt ist 2025 gestartet und läuft bis Ende 2028.
Eines der drei Teilprojekte hier am HBI untersucht unter dem Titel „Journalismus: Die Automatisierung der Nachrichten und journalistische Autonomie“, wie sich Journalismus KI aneignet – und umgekehrt. Im BredowCast sprechen Prof. Dr. Wiebke Loosen, Antonia Eichenauer und Jonah Wermter über die Erkenntnisse nach dem ersten Forschungsjahr.
Im Zentrum des Gesprächs steht der Begriff der Aneignung. Gemeint ist damit nicht die rein technische Nutzung von KI im journalistischen Alltag. Stattdessen beschreibt Aneignung einen aktiven, wechselseitigen Wandlungsprozess: Im Zuge der kommunikativen Interaktion mit KI können sich Produktionsweisen, -normen und auch das Selbstverständnis des Journalismus verändern. Das Projekt stellt dabei nicht die Frage nach dem Grad einer vermeintlichen „Intelligenz“ der Maschinen, sondern nach den kommunikativen Prozessen, in die sie eingebunden werden.
Daran knüpft der Begriff Agency an, der im weitesten Sinne die Handlungsfähigkeit und die Handlungsmacht von Journalist*innen beschreibt. Gemeint ist die Freiheit, den eigenen Willen einzubringen und mitzugestalten, wie mit KI gearbeitet wird. Da Agency immer in organisatorische und gesellschaftliche Strukturen eingebettet ist, stellt sich die Frage, wie sie sich vor dem Hintergrund von zunehmendem ökonomischem Druck, technologischer Entwicklungen und organisationalen Vorgaben verändern wird.
In den durchgeführten Gruppendiskussionen mit Journalist*innen über ihre eigenen Arbeitsweisen mit, Wahrnehmungen von und Zukunftsvorstellungen für den Einsatz von kommunikativer KI in ihrem Berufsfeld zeigte sich ein ambivalentes Bild: Einerseits existiert die Idealvorstellung, KI könne repetitive oder belastende Aufgaben übernehmen, während die „eigentlichen“ journalistischen Kernaufgaben beim Menschen bleiben. Andererseits gibt es ernstzunehmende Sorgen: Wer der Maschine – etwa einem Large Language Model (kurz LLM) – Umformulierungen, Formulierungen und ganze Denkprozesse überlässt, arbeitet mitunter zwar vielleicht (!) schneller, riskiert aber auch einen Verlust an Eigenständigkeit und eine Verschiebung von Qualitätsmaßstäben, weg von der Frage, wann ein Text gut ist, hin zu der Frage, wann ein Text gut genug ist. Die Ambivalenz verdichtet sich in einem prägnanten Zitat aus den Diskussionen: „Ich habe die Befürchtung, ich schraube mir mein eigenes Gehirn raus.“ Darin zeigt sich die Befürchtung, dass KI nicht nur assistierend unterstützen, sondern langfristig Fähigkeiten verlagern, Arbeitsweisen verändern und damit auch journalistische Autonomie sowie Rollenbilder anders definieren kann.
Ein Normalisierungsprozess, der journalistische Arbeitsprozesse verändert, geschieht bereits. Wie genau sich Journalismus jedoch bis 2028 – bis zum Abschluss des Forschungsprojekts – verändern wird, ist noch offen. Dabei ist das Spannungsverhältnis zwischen technischer Machbarkeit und „kultureller Trägheit“ ebenso zu berücksichtigen wie die fortlaufende Verschiebung von Diskussionsschwerpunkten: Stand noch im vergangenen Jahr die Frage nach Kennzeichnungen im Vordergrund, rückt inzwischen zunehmend das Thema Vertrauen in den Fokus.