
NAIROBI – Trevin Brownies erster Tag als Content-Moderator für Facebook ist ihm in Erinnerung geblieben, als er im unscheinbaren Büro eines Subunternehmers in der kenianischen Hauptstadt Nairobi arbeitete.
„In meinem ersten Video war es ein Mann, der Selbstmord beging … Neben ihm spielte ein zwei- oder dreijähriges Kind. Nachdem sich der Typ erhängt hatte, bemerkte das Kind nach etwa zwei Minuten, dass etwas nicht stimmte.“ sagte der 30-jährige Südafrikaner und erinnerte sich an die herzzerreißende Reaktion des Jugendlichen.
„Es hat mich krank gemacht… Aber ich habe weitergearbeitet.“
Drei Jahre lang schaute er sich täglich Hunderte gewalttätige, hasserfüllte Videos an und entfernte sie von Facebook.
Brownie und mehr als 180 seiner ehemaligen Kollegen verklagen nun Meta, die Muttergesellschaft von Facebook, wegen des Schadens, den sie in der ersten großen Sammelklage wegen Inhaltsmoderation seit 2018 erlitten haben.
Er arbeitete in Nairobi für Sama, ein kalifornisches Unternehmen, das von Meta beauftragt wurde, zwischen 2019 und 2023 Facebook-Inhalte für Subsahara-Afrika zu moderieren.
Sama hat inzwischen angekündigt, dass es sein Content-Moderationszentrum in Nairobi schließen wird, in dem Mitarbeiter aus einer Reihe afrikanischer Länder eingestellt wurden, die insbesondere aufgrund ihrer Kenntnisse der lokalen Sprachen eingestellt wurden.
Brownie sagte, er habe alle Arten von Schrecken gesehen – „mehr als 100 Enthauptungen“, „Organraub von Menschen“, „Vergewaltigungen und Kinderpornografie“, „Kindersoldaten, die auf den Krieg vorbereitet werden“.
„Menschen tun Menschen Dinge an, die ich mir nie hätte vorstellen können. Die Menschen haben keine Ahnung von den kranken Videos, die gepostet werden, und wissen nicht, wovor sie davonkommen.“
– Rechtsstreitigkeiten –
Heute ist Brownie in einen von drei Fällen gegen Meta in Kenia im Zusammenhang mit der Moderation von Inhalten verwickelt.
Er und weitere 183 entlassene Sama-Mitarbeiter fochten ihre „rechtswidrige“ Entlassung an und forderten eine Entschädigung mit der Begründung, dass ihre Gehälter die Risiken, denen sie ausgesetzt waren, und die Schädigung ihrer psychischen Gesundheit nicht berücksichtigten.
Der Petition zufolge verlieren durch die Sama-Schließung in Nairobi bis zu 260 Moderatoren ihren Job.
Die Rechtsoffensive begann mit einer Klage, die im Mai 2022 vor einem Gericht in Nairobi von einem ehemaligen Content-Moderator, Daniel Motaung, eingereicht wurde und sich über schlechte Arbeitsbedingungen, betrügerische Einstellungsmethoden, unzureichende Bezahlung und mangelnde psychologische Unterstützung beschwerte.
Meta sagte, es wolle sich nicht zu den Einzelheiten der Fälle äußern, teilte AFP jedoch mit, dass es von seinen Subunternehmern verlange, rund um die Uhr psychologische Unterstützung bereitzustellen.
Von AFP gebeten, auf die Behauptungen zu antworten, sagte Sama, es sei „nicht in der Lage“, sich zu laufenden Fällen zu äußern.
– „Inhalt heruntergespielt“ –
Zeugenaussagen, die AFP im April von mehreren ehemaligen Moderatoren von Sama-Inhalten gesammelt hat – die zu den Klägern im Entlassungsverfahren gehören – stützen Motaungs Behauptungen.
Zwei von ihnen, die 2019 von Sama, damals noch Samasource genannt, eingestellt wurden, sagten, sie hätten auf Angebote reagiert, in Callcentern zu arbeiten, die von Bekannten oder Personalvermittlungszentren weitergegeben worden waren.
Sie sagen, dass sie erst bei der Unterzeichnung ihrer Verträge – die Vertraulichkeitsklauseln enthielten – erfahren hätten, dass sie als Content-Moderatoren arbeiten würden.
Trotzdem stellten Amin und Tigist (deren Namen geändert wurden) ihre neuen Rollen nicht in Frage und erwogen auch nicht, aufzuhören.
„Ich hatte keine Ahnung, was ein Content-Moderator ist, ich hatte noch nie davon gehört“, sagte Tigist, eine Äthiopierin, die aufgrund ihrer Kenntnisse der amharischen Sprache eingestellt wurde.
„Die meisten von uns wussten nichts vom Unterschied zwischen einem Callcenter und einem Content-Moderationszentrum“, bestätigte Amin, der auf dem somalischen „Markt“ arbeitete.
Aber die nächste Gruppe von Rekruten, sagte er, erhielten Angebotsschreiben, in denen klar dargelegt wurde, dass es sich um eine Stelle als Inhaltsmoderator handelte.
Am ersten Schulungstag wurden die Moderatoren noch bevor ihnen die zu überprüfenden Bilder gezeigt wurden, daran erinnert, dass sie Geheimhaltungsvereinbarungen (NDAs) unterzeichnet hatten.
„Während des Trainings haben sie den Inhalt heruntergespielt, was wir sehen würden… Was sie uns im Training gezeigt haben, war nichts im Vergleich zu dem, was wir sehen würden“, sagte Amin.
Als sie mit der Arbeit begannen, „begannen die Probleme“.
– „Mein Herz wurde zu einem Stein“ –
Acht Stunden am Tag saßen die Moderatoren vor ihren Bildschirmen und scrollten durch Hunderte von Beiträgen, einer schockierender als der andere.
„Wir wählen nicht aus, was wir sehen, es kommt einfach zufällig herein: Selbstmordvideos, drastische Gewaltdarstellungen, sexuelle Ausbeutung von Kindern, Nacktheit, gewalttätige Aufstachelung … Sie strömen in das System“, sagte Amin.
Die Moderatoren, mit denen AFP sprach, gaben an, dass ihnen eine „durchschnittliche Bearbeitungszeit“ von 55 bis 65 Sekunden pro Video auferlegt wurde, was zwischen 387 und 458 „Tickets“ pro Tag entspricht.
Wenn sie zu langsam seien, riskierten sie eine Verwarnung oder sogar einen Abbruch, hieß es.
Meta sagte in einer E-Mail an AFP, dass Inhaltsprüfer „nicht verpflichtet sind, eine bestimmte Anzahl von Beiträgen zu bewerten, keine Quoten haben und nicht unter Druck gesetzt werden, voreilige Entscheidungen zu treffen.“
„Wir erlauben und ermutigen die Unternehmen, mit denen wir zusammenarbeiten, ihren Mitarbeitern die Zeit zu geben, die sie brauchen, um bei der Überprüfung eines Inhalts eine Entscheidung zu treffen“, heißt es weiter.
Keiner der Content-Moderatoren, mit denen AFP sprach, hätte sich vorstellen können, welche negativen Auswirkungen diese Arbeit auf sie haben würde.
Sie geben an, aus Geldmangel weder Psychologen noch Psychiater konsultiert zu haben, erzählen aber von Symptomen einer posttraumatischen Belastungsstörung.
Brownie sagte, er habe jetzt „Angst vor Kindern wegen der Kindersoldaten, der Brutalität, die ich bei Kindern gesehen habe“.
Außerdem fühle er sich an überfüllten Orten unwohl, „wegen all der Selbstmordvideos, die ich gesehen habe“.
„Früher war ich ein Partyfreak … Ich war jetzt seit drei Jahren nicht mehr in einem Club. Ich kann nicht, fürchte ich.“
Amin sagte, es habe auch körperliche Auswirkungen gegeben – sein Gewicht sank von 96 Kilo (212 Pfund) zu Beginn auf etwa 70 Kilo heute.
Die Moderatoren sagen, sie seien taub vor Entsetzen oder Tod geworden. „Mein Herz … wurde zu Stein. Ich fühle nichts“, sagte Tigist.
– „Brauchte das Geld“ –
Meta sagte gegenüber AFP, es habe „klare Verträge mit jedem unserer Partner, die unsere Erwartungen in einer Reihe von Bereichen detailliert beschreiben, einschließlich der Verfügbarkeit persönlicher Beratung und zusätzlicher Unterstützung für diejenigen, die anspruchsvolleren Inhalten ausgesetzt sind“.
„Wir verlangen von allen Unternehmen, mit denen wir zusammenarbeiten, dass sie ab dem ersten Arbeitstag rund um die Uhr Vor-Ort-Unterstützung mit geschulten Ärzten, einen Bereitschaftsdienst und Zugang zu privater Gesundheitsversorgung bieten.“
Die Inhaltsmoderatoren behaupten jedoch, dass die von Sama durch „Wellnessberater“ angebotene Unterstützung nicht den Anforderungen entsprach, mit vagen Interviews, wenig Nachbereitung und Bedenken hinsichtlich der Vertraulichkeit ihres Austauschs.
„Die Beratungsgespräche waren überhaupt nicht hilfreich. Ich sage nicht, dass sie nicht qualifiziert waren, aber ich denke, sie waren nicht qualifiziert genug, um mit Leuten umzugehen, die Inhalte moderieren“, sagte Amin.
Trotz ihrer Traumata sagen die Mitarbeiter von Sama, sie seien geblieben, weil sie das Geld brauchten.
Sie zahlen 40.000 Schilling (285 US-Dollar) im Monat – und weitere 20.000 Schilling für Nicht-Kenianer – und ihr Gehalt ist mehr als das Doppelte des Mindestlohns.
„Von 2019 bis heute hatte ich keine Chance, irgendwo einen anderen Job zu bekommen, obwohl ich viel versucht habe, mich zu bewerben. Mir blieb keine andere Wahl, als hier zu bleiben und zu arbeiten, deshalb bin ich so lange geblieben“, sagte Amin.
– „Frontlinie der Verteidigung“ –
Laut denjenigen, die mit AFP sprachen, sagte Brownie, die Moderatoren hätten sich „Bewältigungsmechanismen“ zugewandt, wobei einige Drogen wie Cannabis konsumierten.
Brownie, einst ein Fan von Komödien, widmete sich zunehmend Horrorfilmen und sagte, dies sei eine Möglichkeit, die Realität zu verwischen.
„Dadurch versuchte ich mir vorzustellen, dass das, womit ich es zu tun hatte, nicht real war – obwohl es real ist“, sagt er und fügt hinzu, dass er auch eine Sucht nach dem Ansehen gewalttätiger Bilder entwickelt habe.
„Aber einer der größten Bewältigungsmechanismen war, dass wir davon überzeugt sind, dass dieser Job so wichtig ist.“
„Ich hatte das Gefühl, dass ich mich selbst fertigmachen würde, aber aus den richtigen Gründen … dass sich das Opfer für das Wohl der Gemeinschaft gelohnt hat.“
„Wir sind die vorderste Verteidigungslinie für Facebook … wie die Polizei der sozialen Netzwerke“, sagt er – und verweist auf die Arbeit, die unter anderem darin besteht, Werbung für illegale Drogen zu stoppen und „Ziele“ auf Menschen zu entfernen, die Morddrohungen oder Belästigungen ausgesetzt sind.
„Ohne uns können soziale Netzwerke nicht existieren“, fügt er hinzu. „Niemand wird Facebook öffnen, wenn es nur voller grafischer Inhalte ist, in denen Drogen, Erpressung und Belästigung verkauft werden …“
– „Wir haben etwas Besseres verdient“ –
„Es ist schädlich und wir opfern (uns) für unsere Gemeinschaft und für die Welt … Wir verdienen eine bessere Behandlung“, sagt Tigist.
Keiner von ihnen sagte, dass er sich noch einmal für den Job anmelden würde.
„Meine persönliche Meinung ist, dass kein Mensch dies tun sollte. Dieser Job ist nicht für Menschen“, sagt Brownie und fügt hinzu, dass er sich wünschte, dass diese Aufgabe von künstlicher Intelligenz erledigt werden könnte.
Meta sagte seinerseits: „Technologie hat und wird weiterhin eine zentrale Rolle bei unseren Maßnahmen zur Durchsetzung von Inhalten spielen.“
Keiner dieser Content-Moderatoren hat bisher über seine Arbeit gesprochen, nicht einmal mit seinen Familien – nicht nur wegen der Geheimhaltungsvereinbarungen, sondern auch, weil niemand „verstehen kann, was wir durchmachen“.
„Wenn die Leute zum Beispiel wissen, dass ich Pornografie gesehen habe, werden sie mich verurteilen“, sagt Tigist.
Sie äußerte sich gegenüber ihrem Mann vage über die Arbeit.
Ihren Kindern verheimlichte sie alles: „Ich möchte nicht, dass sie wissen, was ich getan habe. Ich möchte nicht, dass sie sich vorstellen, was ich gesehen habe.“