Code des Algorithmus von X veröffentlicht

X (ehemals Twitter) hat nun den Quellcode der Software veröffentlicht, die Posts für den „For You“-Feed der Nutzer*innen auswählt und bewertet. Erkennbar ist, dass der Feed überwiegend durch KI bestückt wird, deren Datengrundlage unklar ist. Für das Science Media Center haben Dr. Gregor Wiedemann und weitere Expert*innen in einem Statement erläutert, warum die Veröffentlichung daher nicht sehr aussagekräftig ist.

Hintergrund von der Seite des Science Media Centers

Im „For You“- oder „Für dich“-Feed werden Nutzerinnen und Nutzern nicht nur Posts der Accounts angezeigt, denen sie folgen, sondern auch Posts anderer Accounts. Dieser Feed ist die der Standard-Einstellung beim Öffnen der Plattform, man kann manuell auf den „Following“ Feed wechseln, in dem nur Posts von Accounts angezeigt werden, denen man folgt. Wie die Posts des „For You“ Feeds ausgewählt werden, ist im Detail nicht klar. Außerdem ist die Rolle der Größe der postenden Accounts, der Zahl der Likes und Reposts oder der Ähnlichkeit zu anderen Accounts, denen man folgt, unklar. Daher kam es immer wieder zu Vorwürfen gegen die Plattform. Zum Beispiel wurde kritisiert, Elon Musk würde seine persönliche Reichweite erhöhen – und auch die von Accounts, die ihm oder seinen Einstellungen nahestehen. Andersherum gab es auch Kritik, die Reichweite von Accounts, die konträre Meinungen vertreten, werde eingeschränkt.

Diese Kritik ist nicht neu. Auch unter Jack Dorsey, als X noch Twitter hieß und anders funktionierte, war nicht klar, nach welchen Kriterien der Algorithmus Posts in ihrer Reichweite bestärkte oder einschränkte. Damals fühlten sich viele republikanische und konservative Nutzerinnen und Nutzer in ihrer Reichweite beschränkt.

Ob die Veröffentlichung eines Teils des X-Codes nun Klarheit bringt, ist allerdings fraglich. Zum einen ist unklar, welche Rolle das KI-Modell Grok genau bei der Priorisierung der Posts für den „For You“ Feed spielt. Code von Grok-1 ist zwar auch auf Github veröffentlicht, dort fehlen allerdings Informationen zu Trainingsdaten und dem endgültigen Modell, wie es in X integriert ist. Diese Daten sind sensibel und es ist nicht überraschend, dass sie nicht veröffentlicht werden – was zur Frage führt, wie transparent die Funktionsweise eines sozialen Mediums oder eines großen KI-Modells überhaupt sein kann. Außerdem ist es wahrscheinlich, dass nicht das veröffentlichte Grok-Modell im Algorithmus zum Einsatz kommt, sondern ein spezialisiertes Modell.

Außerdem scheint auch die Angabe der Gewichtungen für die Priorisierung und Reichweite von Posts auf X in der Veröffentlichung auf GitHub zu fehlen. Damit ist nicht klar, wieso bestimmte Posts wie prominent angezeigt werden.

Um einen ersten Eindruck zu erhalten, was veröffentlicht wurde, was nicht, und welche Erkenntnisse über die Funktionsweise des „For You“ Feeds man aus dieser Veröffentlichung ziehen kann, hat das SMC Expertinnen und Experten um eine erste Einschätzung gebeten.

Statement von Dr. Gregor Wiedemann

Senior Researcher Computational Social Sciences, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI), Hamburg

„Der aktuell veröffentlichte Quellcode zum Empfehlungsalgorithmus von X ist ein weniger transparenter Schritt, als man zunächst vermuten könnte. In früher veröffentlichten Versionen waren Bevorzugungen der Posts von Elon Musk und Messungen zu eher republikanischen gegenüber demokratischen Posts mit potenziellem Einfluss auf die Zusammenstellung der personalisierten ‚For You‘ Feeds der Nutzer*innen direkt ersichtlich. In der jetzt einsehbaren Version steuert ein Transformer-basiertes Ranking-Modell auf Basis von Grok die Auswahl. Verzerrungen und Bevorzugungen für rechtsextreme Inhalte und Verschwörungstheorien sind nun nicht mehr direkt im Quellcode verankert, sondern in das Maschinen-Modell eingebaut. Dieses hat in seinem Training gelernt: Was viel Aufmerksamkeit in Form von Likes, Antworten oder Retweets erzeugt, ist potenziell interessant für Andere. Populistische und rechte Akteure erreichen einen überproportionalen Anteil solcher Interaktionen durch emotionalisierende Inhalte, Pöbeleien, toxische Sprache und Desinformation. Diese verleiten uns schnell zu Reaktionen von Zustimmung bis Empörung. Um seiner Plattform den Rechtsdrall zu verleihen, den X aktuell jeder Person offen zeigt, die sich neu anmeldet, muss Elon Musk seine Programmierer*innen gar nicht mehr anweisen, seine Weltsicht direkt in den Algorithmus zu übersetzen. Es reicht, dass seine KI gelernt hat: Was Ärger auslöst, hält die Leute auf der Plattform. Ein ausgeglichener, vielfältiger und sachlicher Diskurs, in dem Nutzer*innen demokratisch für beste Lösungen streiten, wird so nicht ermöglicht.“

Veröffentlicht am: 27.01.2026

Newsletter

Infos über aktuelle Projekte, Veranstaltungen und Publikationen des Instituts.

Jetzt abonnieren