Interne Berichte legen manipulative Strategien offen: Wie TikTok Jugendliche in den „Kaninchenbau“ lockt

Neue Beweise decken auf, wie TikTok Jugendliche in die Abhängigkeit treibt und dabei negative psychische Folgen in Kauf nimmt.

Interne Berichte decken perfide Strategien von TikTok auf. © Unsplash

Interne Berichte decken perfide Strategien von TikTok auf. © Unsplash

Vor kurzem veröffentlichte juristische Schriftsätze zeichnen ein beunruhigendes Bild des Social-Media-Giganten TikTok. Interne Aussagen von Mitarbeitern legen offen, dass der Konzern offenbar bewusst in Kauf nimmt, Jugendliche in eine digitale Abhängigkeit zu treiben und schädlichen Inhalten auszusetzen. Die Kritik richtet sich dabei nicht nur gegen den Algorithmus, der Nutzer stundenlang fesselt, sondern auch gegen unzureichende Sicherheitsmaßnahmen.

Interne Berichte enthüllen Missstände

Die von mehreren US-Generalstaatsanwälten gesammelten Beweise basieren laut CNN auf internen Dokumenten, Memos und Slack-Chats. So berichten Jonathan Haidt und sein leitender Wissenschaftler Zach Rausch für Haidts‘ Blog After Babel von zahlreichen Bespielen und beziehen sich dabei eigenen Angaben zufolge auf interne Dokumente. Laut dem Blog-Beitrag zieht TikTok gezielt Jugendliche an, da diese als „goldenes Publikum“ gelten. Laut eines Mitarbeiters ziele die Plattform darauf ab, die Zeit pro Nutzer zu maximieren – oft auf Kosten von Schlaf, Bildung und sozialen Bindungen. Eine interne Präsentation aus dem Jahr 2021 bezeichnete diese Strategie als „Wettlauf um Aufmerksamkeit“.

Eine zentrale Rolle spielt dabei der Algorithmus von TikTok. Dieser wurde von internen Quellen als so effektiv beschrieben, dass Nutzer „in einer Art Kaninchenbau“ gefangen seien. Ein Mitarbeiter gab dazu bekannt:

Unser Erfolg basiert darauf, dass wir Nutzer durch Automatisierung und Personalisierung binden, was ihre Entscheidungsfreiheit stark einschränkt.

Anonymer Mitarbeiter von TikTok

Starker Algorithmus, schwache Moderation

Die Moderationsmechanismen von TikTok stehen ebenfalls stark in der Kritik. Eine interne Untersuchung ergab, dass bis zu 50 Prozent schädliche Inhalte, darunter die Verherrlichung sexueller Gewalt gegen Minderjährige, durch die Filter schlüpfen. Eine noch besorgniserregendere Zahl: 100 Prozent der Inhalte, die Minderjährige fetischisieren, erreichen ungefiltert die Plattform.

Auf LinkedIn zeigen sich viele Nutzer schockiert über diese Enthüllungen. Die LinkedIn-Nutzerin Bella Davis-Riemer, die sich zu den Veröffentlichungen äußerte, betonte: „Schädliche Inhalte gibt es auf fast allen sozialen Medien. Doch viele Eltern wissen nicht, wie gefährlich das tatsächlich sein kann.“ Sie forderte die Entwicklung wirksamerer Werkzeuge, um diese Probleme anzugehen.

Psychische Belastungen nehmen zu

Neben der Suchtthematik verursacht die Nutzung von TikTok laut internen Dokumenten auch psychische Belastungen. Mitarbeiter berichten von einer Häufung negativer Folgen wie Ängsten, Schlafmangel und verminderten sozialen Fähigkeiten. Eine interne Untersuchung ergab, dass viele Nutzer sich durch den Algorithmus in depressive „Filterblasen“ gedrängt fühlen, in denen vor allem negative Inhalte erscheinen. Ein Mitarbeiter schilderte: „Nach wenigen Minuten bekam ich ausschließlich Videos, die sich mit Traurigkeit und Selbstzweifeln beschäftigten.“

James Hadfield, ein weiterer LinkedIn-Kommentator, weist darauf hin, dass diese Probleme nicht nur TikTok betreffen: „Das ist ein generelles Problem der sozialen Medien. TikTok wird nur herausgegriffen, weil es gerade im Fokus der politischen Debatte steht.“

Warum elterliche Kontrolle oft nicht reicht

TikTok wirbt mit Funktionen, die Eltern mehr Kontrolle über die App-Nutzung ihrer Kinder geben sollen. Doch interne Berichte zeigen, dass diese „Parental Controls“ wenig bewirken. Die Kontrollfunktion wird kaum genutzt und viele der größten Gefahren werden nicht erfasst. Statt die Bildschirmzeit sinnvoll zu begrenzen, tragen diese Einstellungen laut interner Analysen vielmehr dazu bei, das Image der Plattform aufzupolieren.

Juli Spencer kommentierte dazu auf LinkedIn:

Das Problem sind unklare und unübersichtliche Einstellungen. Kinder sollten lernen, selbst Grenzen zu setzen – aber die Plattformen erschweren das massiv.

LinkedIn-Nutzerin Juli Spencer

Das könnte dich auch interessieren:

Warum Engagement über Sicherheit steht

Ein Grund für die schleppenden Verbesserungen: TikTok priorisiere laut After Babel das Engagement, also die Zeit, die Nutzer in der App verbringen. Selbst wenn Sicherheitsbedenken laut würden, zögere das Unternehmen, Änderungen umzusetzen, die die Nutzungsdauer verringern könnten. Ein Mitarbeiter brachte es auf den Punkt:

Wenn wir Änderungen machen, achten wir darauf, dass die wichtigen Kennzahlen nicht sinken.

Anonymer Mitarbeiter von TikTok

Was du dir merken solltest:

  • TikTok wird vorgeworfen, bewusst Jugendliche mit süchtig machenden Algorithmen anzusprechen und dadurch Schlaf, Bildung und soziale Kontakte zu beeinträchtigen.
  • Interne Berichte zeigen, dass die Moderation versagt und schädliche Inhalte, darunter Gewalt und sexuelle Inhalte, ungefiltert auf die Plattform gelangen.
  • Trotz Funktionen zur elterlichen Kontrolle priorisiert das Unternehmen das Nutzerengagement und verzichtet auf wirksame Maßnahmen, um die Bildschirmzeit junger Nutzer sinnvoll zu begrenzen.

Bild: © Unsplash

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert