ChatGPT verschiebt unsere Meinungen – Europas Regeln kommen zu spät

KI beeinflusst die Meinungsbildung, indem sie Argumente gewichtet und Perspektiven verschiebt. Eine Analyse zeigt Lücken in Europas Regulierung.

Mann sitzt am Laptop

KI-Systeme wie ChatGPT verschieben unsere Meinungen, indem sie Perspektiven gewichten – ein Einfluss, den Europas Regeln bisher nur teilweise erfassen. © Unsplash

Viele nutzen KI längst wie einen Ratgeber im Alltag. Ob Geld, Gesundheit oder Konflikte im Job – Antworten kommen schnell und wirken plausibel. Dabei beeinflusst KI die Meinungsbildung oft stärker, als vielen bewusst ist. Denn KI zeigt nicht einfach alle Seiten. Sie gewichtet Argumente und lässt andere weg. Das passiert ohne Hinweis und bleibt oft unbemerkt.

Antworten wirken neutral, passen sich dem Ton der Frage an und erzeugen leicht den Eindruck von Ausgewogenheit. Tatsächlich verschieben sich Perspektiven im Hintergrund. Eine Analyse im Fachjournal Communications of the ACM unter Beteiligung der Technischen Universität Berlin beschreibt diesen Effekt nun genauer.

Wie KI die Meinungsbildung unbemerkt lenkt

Die Forscher sprechen von „Kommunikationsbias“. Gemeint ist eine systematische Verzerrung in KI-Antworten. Bestimmte Sichtweisen tauchen häufiger auf. Andere fehlen oder bleiben im Hintergrund. Das liegt nicht nur an falschen Daten. Es hängt stark davon ab, wie Antworten formuliert werden. Studienleiter Stefan Schmid erklärt: „Sprachmodelle liefern nicht nur Informationen. Sie strukturieren auch, welche Argumente sichtbar werden und welche Deutungen plausibel erscheinen.“ Diese Struktur prägt, wie Nutzer Themen wahrnehmen.

Ein wichtiger Punkt ist das Verhalten der Systeme selbst. Sprachmodelle passen sich oft an Nutzer an. In der Forschung heißt das Sycophancy. Die KI spiegelt Erwartungen oder Meinungen zurück. Antworten wirken dadurch besonders stimmig. Wichtige Gegenargumente fehlen dann häufiger. Im Ergebnis entsteht ein Problem: Wer sich auf solche Antworten verlässt, übernimmt oft unbewusst die vorgegebene Argumentationsstruktur. Große Sprachmodelle werden damit zur zentralen Schnittstelle zwischen Mensch und Information.

KI lenkt oft einseitig

Die meisten Antworten enthalten keine klar falschen Aussagen. Das macht das Problem schwer greifbar. Aussagen können korrekt sein und trotzdem einseitig wirken. Typische Muster sind:

  • Ein Argument wird ausführlich erklärt
  • Ein anderes erscheint nur kurz
  • Manche Perspektiven fehlen ganz

Hinzu kommt ein technischer Effekt. KI lernt aus vorhandenen Daten. Wenn bestimmte Sichtweisen dort häufiger vorkommen, verstärken sie sich automatisch. Zusätzlich greifen Schutzmechanismen ein. Inhalte werden gefiltert oder abgeschwächt. Auch das verändert die Balance. Die Autoren warnen deutlich: KI kann „bestehende Vorurteile verstärken und bestimmte Perspektiven fördern, Echo-Kammern schaffen und gesellschaftliche Polarisierung verschärfen“. Für Nutzer entsteht dabei oft ein trügerisches Gefühl von Vollständigkeit.

Europas Regeln greifen bei KI noch zu kurz

Europa hat bereits mehrere Gesetze für digitale Systeme eingeführt. Dazu gehören der AI Act und der Digital Services Act. Beide setzen auf Transparenz, Sicherheit und Kontrolle. Die Studie zeigt jedoch eine klare Lücke. Die eigentliche Wirkung von KI auf Meinungen wird nur indirekt erfasst. Es geht meist um Risiken oder illegale Inhalte. Die stille Verschiebung von Perspektiven bleibt außen vor.

Im Text heißt es: Keines der Regelwerke wurde dafür entwickelt, „dass große Sprachmodelle die grundlegenden Weltbilder und sozialen Perspektiven von Bürgern beeinflussen“. Auch die Struktur der Gesetze spielt eine Rolle:

  • Der AI Act setzt vor allem vor der Nutzung an
  • Der DSA greift erst bei sichtbaren Problemen
  • Verzerrungen gelten meist als Nebenwirkung

Die Forscher sehen deshalb Handlungsbedarf. Sprachmodelle seien eine eigene Kategorie von KI. Sie wirken direkt auf Wahrnehmung und Entscheidungen im Alltag.

Marktmacht verstärkt den Effekt zusätzlich

Ein weiterer Punkt ist der Markt. Wenige große Anbieter dominieren die Entwicklung von Sprachmodellen. Sie kontrollieren Daten, Technik und Zugänge. Das hat Folgen. Wenn viele Menschen ähnliche Systeme nutzen, verbreiten sich bestimmte Muster besonders stark. Andere Perspektiven geraten ins Hintertreffen. Die Autoren fordern deshalb:

  • mehr Wettbewerb zwischen KI-Anbietern
  • mehr Transparenz bei Trainingsdaten
  • regelmäßige Prüfungen auf Verzerrungen
  • klare Kontrollmechanismen nach dem Start

„Es braucht ein Informationsökosystem, in dem Vielfalt, Nachvollziehbarkeit und Wettbewerb mitgedacht werden“, sagt Rechtswissenschaftler Adrian Kuenzler.

Kurz zusammengefasst:

  • KI beeinflusst die Meinungsbildung, indem sie entscheidet, welche Argumente sichtbar werden und wie überzeugend sie wirken.
  • Verzerrungen entstehen durch Daten, Technik und Anpassung an Nutzer – und bleiben oft unbemerkt.
  • Europas KI-Regeln erfassen diese subtile Wirkung bisher nur unzureichend, besonders bei Einfluss auf Weltbilder und Entscheidungen.

Übrigens: Neue Studien zeigen, dass KI in Konflikten oft Zustimmung statt Widerspruch liefert und damit unbemerkt die eigene Sicht stärkt. Das kann Entscheidungen verzerren und Beziehungen belasten. Mehr dazu in unserem Artikel.

Bild: © Unsplash

What do you feel about this?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert