Warum KI Social Media noch toxischer macht

KI verändert Soziale Netzwerke: Algorithmen können Millionen Beiträge generieren, die auf maximale Reaktion ausgelegt sind. Das verstärkt die Spirale aus Aufmerksamkeit, Polarisierung und toxischem Verhalten.

Social Media wird toxisch – KI macht es noch schlimmer

In Deutschland nutzen 2025 rund 65,5 Millionen Menschen soziale Netzwerke und verbringen dort täglich im Schnitt 1 Stunde 41 Minuten. © Pexels

Soziale Netzwerke sind längst nicht mehr aus dem Alltag wegzudenken. Sie sind Nachrichtenquelle, Debattenraum und Treffpunkt in einem. Doch die Diskussion um ihre Schattenseiten reißt nicht ab. Immer wieder steht die Frage im Raum, warum vermeintlich soziale Plattformen so schnell zu Orten von Polarisierung und Anfeindungen werden.

Ein Forschungsteam der Universität Amsterdam hat für ihre Studie nun einen ungewöhnlichen Ansatz gewählt, um dieser Frage nachzugehen. Die Wissenschaftler bauten ein eigenes Netzwerk auf, bevölkert mit 500 KI-Agenten, die sich wie echte Nutzer verhielten. Das Ergebnis ihrer Simulation fällt ernüchternd aus.

Gleich und gleich gesellt sich gern

Die Forscher Petter Törnberg und Maik Larooij beobachteten ihr soziales Netzwerk über 10.000 Zeitschritte. Diese entsprechen in etwa Jahrzehnten realer Social-Media-Nutzung – genug Zeit, damit sich stabile Muster wie Echokammern – oft auch als Blasen oder Bubbles bezeichnet – und extreme Stimmen herausbilden. Das Ergebnis wiederholte sich in allen fünf Durchläufen: Schon die grundlegenden Funktionen von Posten, Reposten und Folgen genügten, damit das System toxische Muster bildete.

Diese Muster sind selbst in einem minimalistischen Modell ohne komplexe Empfehlungssysteme erkennbar.

Petter Törnberg

In kurzer Zeit vernetzten sich die KI-Agenten fast nur noch mit Gleichgesinnten. Es entstanden abgeschlossene Echokammern, die kaum noch von außen durchdrungen wurden. Damit einher ging eine massive Ungleichheit in der Verteilung von Aufmerksamkeit. Die Forscher berechneten den Gini-Koeffizienten, ein Maß für Ungleichheit. Er lag bei den Followern bei 0,83, bei den Reposts sogar bei 0,94. Die Konsequenz:

  • Zehn Prozent der Nutzer sammelten 75 bis 80 Prozent aller Follower.
  • Zehn Prozent der Beiträge erhielten 90 Prozent aller Reposts.

Extreme Stimmen erhalten mehr Reichweite

Die Analyse zeigte außerdem, dass extreme Haltungen besonders sichtbar wurden. Nutzer mit zugespitzten Positionen bekamen häufiger Follower und mehr Reposts.

Damit verfestigte sich ein Kreislauf: Je emotionaler und polarisierender die Inhalte, desto größer die Reichweite. Die Forscher nennen dieses Phänomen „social media prism“. Es sorgt dafür, dass Extreme überrepräsentiert sind, während moderate Stimmen untergehen.

Reformideen führen in Sackgassen

Um Lösungen zu testen, setzten die Forscher sechs verschiedene Eingriffe ein.

  • Chronologischer Feed: verringerte Ungleichheit, erhöhte aber die Sichtbarkeit extremer Stimmen
  • Abwertung dominanter Inhalte: senkte Ungleichheit leicht, änderte aber nichts an der Polarisierung
  • Bevorzugung fremder Meinungen: brachte kaum Effekte, Nutzer bevorzugten weiterhin Gleichgesinnte
  • Brückenalgorithmen: schwächten die Polarisierung, erhöhten jedoch die Ungleichheit der Sichtbarkeit
  • Verbergen von Likes oder Follower-Zahlen: führte zu mehr Aktivität, ohne strukturelle Verbesserungen
  • Verzicht auf Biografien in Empfehlungen: hatte praktisch keinen Effekt

Das Fazit der Forscher: „Verbesserungen sind nur bescheiden, keine Intervention beseitigt die Grundprobleme.“

Innere Strukturen machen Social Media toxisch

Nach Ansicht von Törnberg und Larooij liegt der Kern des Problems tiefer. Es gehe nicht nur um Algorithmen, sondern um die Architektur sozialer Netzwerke. Die Dynamik des Teilens und Folgens schafft Muster, die sich selbst verstärken. Törnberg ergänzt: „Die affektive, emotionale Handlung, etwas zu reposten, formt die Netzwerkstruktur, die dann wiederum bestimmt, welche Inhalte man in Zukunft sieht.“

Das Zusammenspiel von reaktivem Engagement und Netzwerkbildung schafft einen selbstverstärkenden Kreislauf.

Diese Probleme sind womöglich nicht bloß algorithmisch induziert, sondern in der Architektur sozialer Plattformen strukturell verankert. Damit stellen die Forscher klar, dass einfache Anpassungen nicht genügen. Ein grundlegendes Umdenken in der Gestaltung sozialer Medien sei notwendig.

Warum KI toxische Dynamiken anheizt

Die Risiken steigen durch neue Technologien. KI-Systeme sind in der Lage, Millionen Inhalte zu erzeugen, die gezielt auf Empörung und maximale Aufmerksamkeit abzielen. Diese Fähigkeit verschärft toxische Dynamiken zusätzlich.

Hinzu kommt, dass solche Inhalte in Sekundenschnelle verbreitet werden können und damit jede Debatte überfluten. Für Nutzer bedeutet das, dass extreme Stimmen künftig noch lauter und präsenter wirken könnten.

Kurz zusammengefasst:

  • Eine Simulation der Universität Amsterdam zeigt: Soziale Netzwerke erzeugen von selbst Echokammern, extreme Ungleichheit und überhöhte Sichtbarkeit radikaler Stimmen.
  • Sechs getestete Reformen lindern die Probleme kaum und haben oft Nebenwirkungen.
  • Die Ursache liegt in der Architektur der Plattformen selbst; neue KI-Technologien verschärfen diese Dynamiken, indem sie massenhaft provokante Inhalte erzeugen.

Übrigens: Empörung wirkt wie ein Brandbeschleuniger – je wütender ein Post, desto schneller verbreiten sich Falschmeldungen im Netz. Mehr dazu in unserem Artikel.

Bild: © Pexels

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert