Digitaler Knochenjob: Content-Moderatoren erheben schwere Vorwürfe gegen Meta
Content-Moderatoren in Afrika entfernten für den Meta-Konzern lange unter extremen psychischen Belastungen strafbare Inhalte auf Facebook.
Die wachsende Bedeutung von sozialen Medien und künstlicher Intelligenz hat eine Schattenindustrie von Niedriglohnarbeitern hervorgebracht: Content-Moderatoren, Datenannotierer und Klickarbeiter prüfen und klassifizieren potenziell strafbare Inhalte im Auftrag großer Tech-Konzerne wie Meta, dem Mutterkonzern hinter Facebook. Doch diese Arbeit forderte von ihnen einen hohen Tribut.
Das „Ding“-Magazin hat der Ausbeutung von digitalen Schwerarbeitern eine ganze Ausgabe gewidmet und Betroffene zu Wort kommen lassen. Der SPIEGEL hat Auszüge aus den Erfahrungsberichten zweier ehemaliger Angestellter veröffentlicht. Aufgrund strenger Geheimhaltungsvereinbarungen, die sie daran hindern, offen über ihre Arbeit zu sprechen, wurden einige Namen zwar anonymisiert – ihre Identität konnte jedoch vom SPIEGEL verifiziert werden.
Erfahrungen aus vier Jahren Content-Moderation
Kauna Malgwi berichtet, dass sie vier Jahre als Content-Moderatorin arbeitete. Sie war beim Unternehmen Sama angestellt, ihr Auftraggeber war aber Facebook – auf dem Flur in ihrem Büro war das „F“-Logo des Konzerns sichtbar angebracht. Anfangs erschien ihr die Arbeit machbar und unkompliziert. Ihre Aufgabe war es, Facebook-Beiträge auf Regelverstöße zu prüfen und gegebenenfalls zu löschen.
Bald darauf sah sie sich jedoch zunehmend mit belastenden Inhalten konfrontiert: Gewalt, Selbstmord, Hassreden und Kindesmissbrauch wurden Teil ihres täglichen Arbeitsalltags. Nach einigen Monaten litt Malgwi unter Panikattacken und Angstzuständen. Sie entwickelte Asthma und musste einen Inhalator benutzen. Ihre Schlaflosigkeit führte zu einer Behandlung mit Antidepressiva und sie nahm stark ab.
Frauen waren besonders stark betroffen
Malgwi schildert, dass die Arbeit für Frauen besonders traumatisierend gewesen sei, weil sich viele der gewalttätigen Darstellungen gegen Frauen richteten. Sie spricht von Terrorvideos des IS und Gewalt in Partnerschaften. Frauen erlitten oft schwere gesundheitliche Folgen. Sie erwähnt Kolleginnen, die ohnmächtig wurden, stark abnahmen oder Fehlgeburten erlitten.
Ihre lokalen Vorgesetzten hätten laut Malgwi nie das Ausmaß der Belastung verstanden. Facebook sei hingegen bewusst gewesen, wie drastisch die Arbeit sei. Sie vermutet, dass die Arbeit aus diesem Grund an Orte ausgelagert werde, die global weniger Aufmerksamkeit erregen.
Die wahren Motoren künstlicher Intelligenz
Ein weiterer Erfahrungsbericht kommt von einer anonymen 26-jährigen Angestellten. Sie beschreibt, dass sie nach langer Jobsuche eine Stelle bei Sama in Kenia annahm. Ihre Arbeit bestand darin, KI-Systeme zu trainieren. Besonders belastend war ein Projekt, bei dem sie täglich acht Stunden lang verstörende Videos klassifizieren musste. Diese Videos zeigten meist misshandelte Kinder.
Auch sie kämpfte mit den psychischen Folgen der Arbeit. Ihre Produktivität sank, da sie mehr Pausen benötigte. Ihre Vorgesetzten hätten ihr klargemacht, dass viele ihren Job übernehmen würden, wenn sie die Ziele nicht erreichte. Alle in ihrem Team entwickelten psychische Störungen, zwei Kolleginnen verloren ihre Ehen.
Zerstörte Familien im Namen des Fortschritts
Der psychische Stress beeinträchtigte schließlich auch ihre Rolle als Mutter. Ihr Bruder bemerkte den schlechten Gesundheitszustand ihrer Kinder und sie gestand ihm, dass der Job ihre Familie ruiniert habe. Sie entschied, ihre Kinder zu ihrem Bruder zu bringen, um sie zu schützen.
Heute, so sagt sie, sehe sie Social-Media-Kommentare, die künstliche Intelligenz als großen Durchbruch feiern, und denke dabei nur an ihre zerstörte Familie. Sie fordert bessere psychologische Betreuung und Schulung für Content-Moderatoren und Datenannotierer.
Reaktionen von Sama und Facebook
Sama weist die Vorwürfe zurück und behauptet, von den geschilderten Vorfällen nichts zu wissen. Mitarbeiter seien ausreichend geschult und betreut worden. Man habe regelmäßig nach ihrem Wohlbefinden gefragt und ihnen den Austausch mit Therapeuten ermöglicht. Zudem sei Sama bereits im März 2023 aus der Content-Moderation ausgestiegen.
Facebooks Mutterkonzern Meta äußerte sich nicht konkret zu den Vorwürfen, verwies jedoch auf ein laufendes Gerichtsverfahren, in dem ehemalige Content-Moderatoren gegen Meta und Sama klagen. Meta betonte, dass Partnerunternehmen klare Vorgaben für therapeutische Unterstützung erhalten und Geheimhaltungsvereinbarungen es den Moderatoren erlaubten, mit Ärzten über ihre Arbeit zu sprechen. Zudem erklärte das Unternehmen, dass man bei der Content-Moderation nicht mehr mit Sama zusammenarbeite.
Was du dir merken solltest:
- Content-Moderatoren in Afrika, die mit dem Herausfiltern strafbarer Inhalte von Social-Media-Plattformen wie Facebook von Meta beauftragt werden, sind oft traumatischen Inhalten wie Gewalt und Missbrauch ausgesetzt.
- Viele Beschäftigte – die Vorwürfe richten sich im speziellen gegen das Unternehmen Sama, das von Facebook mit der Moderation der Plattform beauftragt wurde – sagen aus, dass sie im Zuge ihrer Arbeit schwere psychische und gesundheitliche Probleme entwickelt haben.
- Das Unternehmen Sama beteuerte auf Anfrage, man wisse nichts von den Vorfällen und dass ausreichende Schulungen und Unterstützungen vorhanden seien, während der Facebook-Konzern Meta auf einen bereits laufenden Prozess gegen Sama verwies und darauf, dass man die Zusammenarbeit mit dem Unternehmen auf Ebene der Content-Moderation bereits beendet habe.
Bild: © Vecteezy
1 thought on “Digitaler Knochenjob: Content-Moderatoren erheben schwere Vorwürfe gegen Meta”