Wenn Meinungen nicht mehr echt sind – wie KI-Schwärme Debatten manipulieren

Was in Kommentarspalten wie echte Zustimmung wirkt, kann künstlich erzeugt sein. KI-Schwärme verbreiten Desinformation, indem sie Debatten im Alltag unauffällig lenken.

KI-Schwärme können Desinformation durch scheinbare Zustimmung verstärken und Debatten verzerren, warnen Forscher.

KI-Schwärme bestehen aus vielen künstlichen Profilen, die miteinander interagieren und so den Eindruck echter Debatten erzeugen. Tatsächlich steuert ein Akteur das Zusammenspiel im Hintergrund. © Unsplash

Schon bald könnten neue Formen künstlicher Intelligenz den Eindruck breiter Zustimmung erzeugen und öffentliche Debatten unauffällig verzerren. Davor warnt ein internationales Forschungsteam, an dem auch der Sozialdatenforscher David Garcia von der Universität Konstanz beteiligt ist. Die Forschenden beschreiben in ihrer Analyse eine neue Qualität gezielter Meinungsmanipulation, bei der KI genutzt wird, um Desinformation über scheinbaren Konsens besonders wirkungsvoll zu verbreiten. Im Mittelpunkt stehen sogenannte KI-Schwärme – koordinierte Gruppen künstlicher Profile, die Diskussionen imitieren und Mehrheiten vortäuschen können.

Dabei handelt es sich nicht um einfache Programme, die wiederholt identische Inhalte posten. KI-Schwärme bestehen aus vielen digitalen Identitäten mit Gedächtnis, eigenem Stil und klar verteilten Rollen. Sie reagieren aufeinander, widersprechen sich, verstärken Argumente oder wechseln gezielt den Ton. Für Außenstehende wirkt das wie eine normale, lebendige Diskussion. Tatsächlich lenkt ein einzelner Akteur das Zusammenspiel im Hintergrund.

Künstlicher Konsens durch KI-Schwärme verstärkt Desinformation

Menschen orientieren sich an dem, was sie als Mehrheitsmeinung wahrnehmen. Wer glaubt, eine Position sei weit verbreitet, stuft sie eher als akzeptabel oder plausibel ein. Diesen psychologischen Effekt nutzen KI-Schwärme gezielt aus. Sie erzeugen keinen einzelnen Irrtum, sondern ein dauerhaftes Klima scheinbarer Zustimmung.

Jonas R. Kunst von der BI Norwegian Business School, Mitautor der Studie, warnt: „Die Gefahr besteht nicht mehr nur in Fake News, sondern darin, dass die Grundlage des demokratischen Diskurses – unabhängige Stimmen – zusammenbricht, wenn ein einzelner Akteur Tausende von einzigartigen, KI-generierten Profilen kontrollieren kann.“

Die Folgen zeigen sich schrittweise. Begriffe verändern ihre Bedeutung. Themen gewinnen oder verlieren Gewicht. Bestimmte Sichtweisen wirken plötzlich selbstverständlich, andere geraten an den Rand öffentlicher Debatten.

Wenn falsche Inhalte andere Systeme prägen

Die Auswirkungen reichen über soziale Netzwerke hinaus. KI-Schwärme können das Internet gezielt mit erfundenen oder verzerrten Behauptungen füllen. Diese Inhalte fließen später in die Trainingsdaten neuer Systeme ein. So übernehmen auch reguläre KI-Anwendungen falsche Annahmen, ohne dass Nutzer oder Entwickler es sofort bemerken.

Dieses Risiko ist real. Analysen legen nahe, dass ähnliche Methoden bereits eingesetzt werden. Der technische Aufwand bleibt vergleichsweise gering, die Reichweite dagegen hoch. Genau diese Kombination macht die neue Form der Desinformation besonders problematisch.

Die Grenze zwischen Mensch und Maschine verschwimmt

Frühere Bot-Netze ließen sich oft anhand klarer Muster erkennen. Gleiche Texte, gleiche Zeiten, gleiche Quellen. KI-Schwärme arbeiten anders. Sie erzeugen unterschiedliche Inhalte, passen Themen und Sprache an und bleiben dennoch koordiniert. Dadurch verschwimmen die Grenzen zwischen menschlicher Debatte und technischer Steuerung.

„Über die Täuschungen oder die Sicherheit von einzelnen Chatbots hinaus müssen wir neue Gefahren erforschen, die sich aus der Interaktion von vielen KI-Akteuren ergeben“, beschreibt Garcia die Herausforderung. Der Blick müsse auf das Verhalten ganzer Gruppen gerichtet sein, nicht auf einzelne Beiträge. Deshalb plädiert die Studie für ein Umdenken bei der Moderation digitaler Räume. Statt einzelne Posts isoliert zu bewerten, sollen Muster im Hintergrund sichtbar gemacht werden. Genannt werden unter anderem:

  • Ungewöhnlich abgestimmtes Verhalten: Viele Beiträge erscheinen zur gleichen Zeit, greifen dieselben Themen auf oder argumentieren auffällig ähnlich.
  • Hinweise zur Herkunft: Nutzer sollen erkennen können, ob ein Beitrag wahrscheinlich von einer KI erstellt wurde und nicht von einer echten Person.
  • Weniger Geldanreize: Für automatisch erzeugte Likes, Kommentare oder Klicks soll es kein Geld mehr geben, damit sich solche Manipulationen nicht lohnen.

Ziel ist es, gezielte Manipulation sichtbar zu machen, ohne echte Meinungen zu unterdrücken oder die freie öffentliche Diskussion einzuschränken.

Kurz zusammengefasst:

  • Das größte Risiko von Desinformation liegt nicht in einzelnen Falschmeldungen, sondern in künstlichen Mehrheiten: KI kann viele scheinbar unabhängige Stimmen koordinieren und so den Eindruck breiter Zustimmung erzeugen, der Meinungen und Debatten unauffällig verschiebt.
  • Diese KI-Schwärme wirken glaubwürdig, weil sie echten Diskussionen ähneln: Viele digitale Identitäten reagieren aufeinander, übernehmen Rollen und bleiben dennoch zentral gesteuert, was sie deutlich schwerer erkennbar macht als frühere Bot-Netze.
  • Die Wirkung reicht über soziale Netzwerke hinaus: Solche Systeme können auch andere KI beeinflussen, indem sie Trainingsdaten verzerren, weshalb neue Schutzstrategien nötig sind, die koordiniertes Gruppenverhalten erkennen statt einzelne Beiträge zu prüfen.

Übrigens: Eine aktuelle PISA-Sonderauswertung zeigt, dass viele Jugendliche in Deutschland Schwierigkeiten haben, Online-Informationen kritisch zu prüfen und Fake News zu erkennen. Welche Rolle Defizite bei Medienkompetenz, Schule und sozialem Hintergrund dabei spielen – mehr dazu in unserem Artikel.

Bild: © Unsplash

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert