KI versteht die Jugendsprache nicht – und versagt beim Schutz vor Mobbing

KI versteht die Sprache von Jugendlichen oft falsch – und übersieht dabei Beleidigungen und versteckte Angriffe in sozialen Medien.

KI versteht Jugendsprache nicht – Mobbing bleibt oft unbemerkt

Weil KI und Eltern jugendliche Begriffe oft falsch deuten, bleiben viele verletzende Botschaften in Chats und sozialen Netzwerken unbemerkt. © Pexels

Sie klingt locker, kreativ und oft unverständlich: Die Sprache vieler Jugendlicher entwickelt sich so rasant, dass die meisten Erwachsenen kaum noch Schritt halten können. Neue Begriffe tauchen auf, verändern ihre Bedeutung oder verschwinden nach wenigen Wochen wieder. In Chats, Games und sozialen Netzwerken entstehen so eigene Codes – eine Kommunikationswelt, die sich Außenstehenden schnell entzieht. Doch genau dort, im digitalen Alltag junger Menschen, sollen KI-Systeme heute für Sicherheit sorgen. Eine neue Studie zeigt: KI versteht die Jugendsprache oft nicht – und erkennt dadurch digitale Beleidigungen, Mobbing oder Ausgrenzung nicht.

KI und Eltern scheitern gleichermaßen an Jugendsprache

Das Forschungsteam untersuchte, wie gut KI-gestützte Moderationssysteme heute funktionieren. Getestet wurden unter anderem Chat GPT-4, Claude, Gemini und Llama 3. Sie gelten als die besten verfügbaren Sprachmodelle. Doch beim Erkennen jugendlicher Ausdrücke erreichten sie nur eine Trefferquote von 68 Prozent.

Dieser Wert entsprach exakt dem Verständnisniveau von Eltern. Auch sie konnten die Bedeutung vieler Begriffe nicht richtig einschätzen. Besonders schlecht schnitten die KI-Systeme bei subtilen Beleidigungen oder versteckter Belästigung ab.

Wenn Worte Schutz brauchen – aber niemand versteht sie

Jugendliche verwenden Begriffe oft doppeldeutig oder ironisch. Manche Aussagen sind scherzhaft gemeint, andere verschleiern ernste Botschaften. Nur wer diese Kommunikationswelt wirklich kennt, erkennt die Unterschiede. Die Studie zeigt: Jugendliche selbst konnten die Begriffe am besten einordnen. In der Studie heißt es deshalb:

Die Ergebnisse unterstreichen die dringende Notwendigkeit verbesserter KI-Sicherheitssysteme, um junge Nutzer besser zu schützen.

Viele Jugendliche vertrauen sich im Ernstfall niemandem an – auch nicht ihren Eltern. Sie fühlen sich missverstanden, besonders wenn es um digitale Themen geht.

Was fehlt: Ein echtes Gespür für Bedeutung

Auf Plattformen wie Discord, TikTok oder in Online-Games nutzen Jugendliche ihre eigene Sprache. Beispiel: Das Wort „NPC“ bedeutet ursprünglich „Nicht-Spieler-Charakter“. Doch im Chat steht es oft für Menschen, die als geistlos, uninteressant oder willenlos gelten. Ohne sozialen Kontext bleibt diese Abwertung für Algorithmen unsichtbar. Jugendsprache lebt von Tempo und Kreativität. Begriffe entstehen, verändern sich und verschwinden wieder. Wer nicht Teil dieser Dynamik ist, verliert schnell den Anschluss.

Künstliche Intelligenz kann analysieren, sortieren und filtern. Aber sie versteht keine Zwischentöne. Genau das wäre jedoch nötig, um Kinder im Netz zu schützen. Denn Sprache wirkt nicht allein durch Worte, sondern durch Kontext, Stimmung und Beziehung. Die Forscher schlagen deshalb vor, KI gezielter mit realen Sprachbeispielen aus Jugendkontexten zu trainieren. Das soll helfen, Bedeutungen besser zu erfassen.

Die Studie macht deutlich: Auch die besten KI-Systeme sind derzeit kaum besser als Erwachsene ohne Vorwissen. Plattformen, auf denen sich viele junge Nutzer bewegen, müssen ihre Schutzmechanismen daher dringend verbessern. Denn wenn niemand versteht, was online wirklich passiert, bleibt Mobbing oft unbemerkt.

Kurz zusammengefasst:

  • KI erkennt die schnelllebige und doppeldeutige Jugendsprache nur unzureichend – selbst die besten Systeme erreichen beim Verstehen jugendlicher Begriffe nur eine Trefferquote von 68 Prozent.
  • Besonders bei subtiler Belästigung oder versteckter Ausgrenzung versagen KI-Modelle und bleiben damit als Schutzmechanismus hinter den Erwartungen zurück.
  • Jugendliche selbst verstehen ihre Sprache am besten – weder Erwachsene noch Technik können bislang zuverlässig entschlüsseln, was in der digitalen Kommunikation wirklich passiert.

Übrigens: In deutschen Klassenzimmer wächst das Misstrauen gegenüber KI: Viele Lehrkräfte sehen in Tools wie ChatGPT eine Gefahr für kritisches Denken und soziales Verhalten. Mehr dazu in unserem Artikel.

Bild: © Pexels

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert