Unsichtbar: Die schmutzige Arbeit philippinischer Content-Moderatoren für Facebook & Co

Unsichtbar: Die schmutzige Arbeit philippinischer Content-Moderatoren für Facebook & Co
Unsichtbar: Die schmutzige Arbeit philippinischer Content-Moderatoren für Facebook & Co

Ein anderer Blick auf die Welt. Die Content-Moderatoren der philippinischen Firma TaskUs sichten Websites und Siocial Media Portale für US-Konzerne wie Facebook und Google.

Brutaler Sex, Tierquälerei, Selbstmordattentäter und Enthauptungen. Was schlecht bezahlte Content- Moderatoren täglich leisten, um Facebook & Co sauber zu halten. Eine Reportage hinter den Kulissen.

Gratisessen, Shuttlebusse und die Putzerei im Haus. Amerikanische Technologiekonzerne wissen, wie sie Mitarbeiter motivieren. Ein wesentliches Stück ihrer Dienstleistung aber wird in 11.000 Kilometern Entfernung erbracht - in einem heruntergekommenen Viertel in Bacoor, 20 Kilometer südwestlich von Manila, Philippinen, im zweiten Stock einer aufgelassenen Volksschule. Im kahlen Treppenhaus machen Mitarbeiter gerade gedankenverloren ihre Rauchpause. Drinnen am Flur hat sich ein gelangweilter Security-Mann vor einem Tisch postiert, auf dem sich Aktenmappen stapeln.

Hinter ihm tut sich ein großer Raum auf, vollgestopft mit Computertischen. Dort treffe ich Michael Baybayan, einen aufgeweckten 21-Jährigen mit rotbraunem Haar. Das hier sieht nicht nach einem Start-up-Büro aus. Auch die Dinge, die man auf den Bildschirmen sieht, sind nicht das, womit sich Start-ups typischerweise so beschäftigen: Es scheint ein zweizackiger Dildo zu sein, der eine Vagina spreizt, die Betonung liegt auf "scheint“. Eigentlich zeigt der herangezoomte Ausschnitt nur Fleisch und transparentes rosa Plastik, bevor Baybayan es mit einem schnellen Mausklick verschwinden lässt.


Mehr als 100.000 Content-Moderatoren halten soziale Netzwerke, mobile Apps und Cloud-Dienste sauber

Baybayan ist Teil einer riesigen Armada, die "Content-Moderation“ betreibt, die problematisches Material von den sozialen Netzwerken entfernt. Seit sich immer mehr Menschen darüber verbinden, sind sie auch intimer geworden. Die Anbieter sehen sich mit einem Problem konfrontiert, das sie salopp das "Oma-Problem“ nennen. Wo sich die Welt trifft, finden auch Wahnsinnige, Rassisten, Kriminelle oder Stalker eine willkommene Bühne. Und die Großeltern würden sich bald nicht mehr einloggen auf Facebook & Co, wenn ihre Familienfotos eingeklemmt wären zwischen grausigen russischen Autounfällen und Hardcore-Pornos.

Seit sich die Netzwerke zum Milliarden-Dollar-Geschäft ausgewachsen haben und in der Mitte der Gesellschaft angekommen sind, hängt ihr Ruf und mittelbar auch ihr Geschäft von der Fähigkeit ab, wie sie mit diesem sehr speziellen Content umgehen. So versuchen sie eben, sicherzustellen, dass die Oma das Bild nie zu Gesicht bekommt, das Baybayan da gerade vernichtet hat.

Digitale Müllabfuhr

Firmen wie Facebook oder Twitter sind angewiesen auf diese Leute, die den Abschaum einer Gesellschaft wegräumen, um uns zu schützen. Und dafür braucht es ganze Legionen: einen riesigen unsichtbaren Pool menschlicher Arbeitskraft. Hemanshu Nigam, ehemaliger Security-Officer bei MySpace, führt heute den Online-Sicherheitsberater SSP Blue. Er schätzt die Zahl der Content-Moderatoren, die Netzwerke, mobile Apps und Cloud-Dienste säubern, "auf mehr als 100.0000“. Das sind in etwa doppelt so viele wie Google Mitarbeiter hat oder fast zwölf Mal so viele wie Facebook.

Immer mehr dieser Arbeit wird auf den Philippinen erledigt. Als frühere US-Kolonie haben die Leute eine kulturelle, historische Naheverbindung und verstehen, was Amerikaner abstößt und irritiert. Und - die Moderatoren kosten einen Bruchteil des US-Lohns. Ryan Cardeno hat für Microsoft auf den Philippinen gearbeitet. Am Ende seines dreijährigen Engagements verdiente er 500 Dollar monatlich, angestellt beim Outsourcer Sykes. Letztes Jahr bot man ihm 312 Dollar für Moderation auf Facebook - selbst für dortige Standards schäbig.

Offiziell kein Thema

In der Volksschule in Bacoor sichten Baybayan und seine Kollegen Content für Whisper, ein Start-up aus Los Angeles, das von seinen Risikokapitalgebern mit 200 Millionen Dollar bewertet wurde, auf dem sich Nutzer anonym austauschen können. Sie arbeiten für eine amerikanische Outsourcing-Firma namens TaskUs. Es überrascht, dass Whisper einen Reporter hinter die Kulissen blicken lässt. Bei Microsoft, Google und Facebook wurden Fragen zur Content-Moderation mit halbherzigen Statements "zum Schutz der User, aber bitte keine Details“ abgeblockt. Viele Auftraggeber verpflichten ihre Dienstleister zu strengen Geheimhaltungsklauseln, die ihnen oft sogar untersagen, mit den Kollegen in der selben Outsourcing-Firma zu sprechen.

"Es gibt kein explizite Kampagnen, es zu verstecken, das passiert eher stillschweigend, subtil“, sagt Sarah Roberts, Medienstudentin von der Universität Western Ontario, eine der wenigen Wissenschaftlerinnen, die Content-Moderation als Wirtschaftsfaktor sieht. Firmen wollen die Handarbeit, die die Erlebnisse in den sozialen Medien erst möglich machen, nicht öffentlich machen. Roberts über das Motiv: "Das würde wohl unser Verständnis von Internet und Technologie als etwas Magisches, nicht Menschliches beeinflussen und irritieren.“


Firmen wollen Handarbeit, die die Erlebnisse mit den sozialen Medien erst ermöglichen, nicht öffentlich machen

Bei Whisper lässt man sich deshalb in die Karten schauen, weil CEO Michael Heyward die Moderation als Schlüssel und eines seiner Verkaufsargumente sieht. Whisper praktiziert die "aktive Moderation“, eine sehr arbeitsintensive Form, wo jeder Post in Echtzeit überprüft wird. Andere Firmen moderieren oft nur, wenn es bei bestimmten Usern bereits Hinweise auf einschlägige Aktivitäten gibt, das nennt man dann passives, reagierendes Moderieren. "Wir bieten ein Forum, wo sich die Nutzer auch offen und verletzlich zeigen dürfen“, sagt er. "Aber ist die Zahnpaste erstmal aus der Tube …“

Wer Baybayan bei der Arbeit so zusieht, versteht, wie hart es für Whisper ist, die "Paste wieder in die Tube zu kriegen“. (Nach meinem Besuch hat Baybayan gekündigt. Das TaskUs-Büro in Bacoor wurde von einem Stoßtrupp der Polizei geschliffen, weil ihnen die Verwendung nicht lizenzierter Software vorgeworfen wurde. Die Content-Moderation zog nach Manila um).

Baybayan zieht eine Serie von Bildern auf, die sämtlich mit groben Balkenlettern überzogen sind, sie sehen aus wie Bilder aus der Frühzeit des Internets. Whisper funktioniert wie ein externalisiertes Ich, wo Bekenntnisse, Hass oder geheime Sehnsüchte ausgesprochen werden, die zu heiß (oder zu langweilig) für Facebook oder Twitter sind. Die Moderatoren sehen die Posts in Echtzeit. Roh und aus dem Kontext gerissen lesen sich die wie eine Konversation mit Tourette-Kranken. Bisexuelle Frauen in NY, die mit mir chatten wollen? Oder: Ich hasse irische Akzente. Oder: Ich habe mit meinem Stiefvater geschlafen und ihn erpresst, mir ein Auto zu kaufen.

Heikle Entscheidungen

Auf einer weißen Tafel steht, worauf die Moderatoren achten sollen: Pornografie, Blut, Minderjährige, Anmache, Körperteile in sexuellem Kontext, Rassismus. Wenn Baybayan einen potenziellen Fall sieht, klickt er sich rein und bestätigt das, dann löscht er es vom Account der Nutzers - und klickt zurück in die Übersicht. In 25 Minuten schaufelt er routiniert eine beeindruckende Menge an Penisbildern, exotischen Objekten in diversen Körperöffnungen, Schmähungen oder Aufforderungen zum Oralverkehr weg.


Jeder kommt an den kritischen Punkt. Meist passiert es zwischen dem dritten und fünften Monat.

Schwieriger ist da schon die Sache mit dem Agenturbild eines trainierten Männertorso, das mit folgendem Text beschriftet ist "Suche nach schwuler Erfahrung, 18, männlich“. Bekenntnis, versteckte Sehnsucht (erlaubt) oder direkte Anmache (verboten)? Baybayan - der wie die meisten TaskUs-Angestellten einen Collegeabschluss hat - kommt kurz in Grübeln. "Was ist die Intention“, fragt er. "Du musst zwischen Gedanken und Anwerbung unterscheiden.“ Dafür hat er wenige Sekunden. Permanent poppen neue Meldungen am Schirm auf, drücken die anderen weg. Er entscheidet sich für die Anmache und löscht. Irgendwo da draußen wurden vielleicht gerade die erotischen Phantasien eines Teenagers zerstört. Baybayan scrollt zurück an den Anfang und beginnt wieder zu scannen.


Auf einer weißen Tafel steht, wrauf die Moderatoren achten sollen: Pornografie, Blut, Minderjährige, Anmache, Körperteile in sexuellem Kontakt, Rassismus

Acht Jahre ist es her. Das Video, das ihn zum Aufhören bewegte, hat Jake Swearingen aber noch genau im Kopf. Er war 24 und jobbte in der San Francisco Bay Area, wo er bei einem neuen Start-up namens VideoEgg einen Job als Moderator bekam. Drei Tage nach Dienstantritt kam ihm das Video mit der Enthauptung in die Quere. "Verdammt, ich habe da eine Enthauptung“, schrie er damals. Ein älterer Kollege drehte sich um. "Oh“, fragt der "welches denn?“ In dem Moment entschied sich Swearingen, dass er kein Experte für Enthauptungen werden wollte. "Ich wollte nicht zurückschauen und sagen, dass ich auch einer der abgebrühten Menschen geworden bin, die schreckliche Dinge sehen und Witze darüber machen.“ Heute ist er Social-Media-Redakteur bei Atlantic Media.

Während der Großteil der Content-Moderation nach Übersee ausgelagert ist, wird einiges noch immer in den USA erledigt, vor allem von jungen Studenten wie Swearingen. Viele Firmen haben dafür ein Zwei-Stufen-System etabliert. Während die Basismoderation im Ausland passiert, werden komplexere Aufgaben, die mehr Verständnis des nationalen Kontexts erfordern, lokal durchgeführt. Die US-Moderatoren werden besser bezahlt als ihre Kollegen in Übersee. Ein junger Moderator für einen großen Technologiekonzern verdient in einer Stunde mehr als der philippinische an einem Tag. Mangels Alternative hoffen trotzdem viele Philippinos auf eine Karriere im Outsourcing-Geschäft. Bei Amerikanern ist so ein Job eher letzte Option - und Burn-out eine häufige Folge.

Der eine Punkt

"Jeder kommt an den kritischen Punkt. Meist passiert es zwischen dem dritten und fünften Monat“, sagt Rob, ein ehemaliger Content-Moderator von YouTube. "Du fragst dich: ‚Womit verbringe ich hier meine Tage?‘ Das ist schrecklich.“ Rob begann 2010 mit dem Job. Nach dem College zog er zu seiner Freundin in die Bay Area, wo sein Abschluss in Geschichte ungefähr so gefragt war wie ein Gesichtstattoo. Monate vergingen, und er wurde zusehends verzweifelter. Dann erhielt er einen Anruf von der Contractingfirma CDI. Der Anrufer wollte ihn für einen Job bei Google anwerben, als Videomoderator für YouTube. Google! Gut, er wäre zwar nur beim Subunternehmer angestellt, aber der Typ am Telefon erzählte ihm, das die Chance bestünde, den Job in eine echte Karriere zu verwandeln. Die Bezahlung - 20 Dollar die Stunde - war weit besser, als im Fast-Food-Lokal zu arbeiten. Er bekam einen Einjahresvertrag. "Ich war baff“, sagt er, "gute Bezahlung, und YouTube würde sich im Lebenslauf gut machen.“


Ein junger Moderator für einen großen Technologiekonzern verdient in einer Stunde mehr als der philippinische Durchschnittsarbeiter an einem Tag

In den ersten paar Monaten war das Video-Monitoring im YouTube-Hauptquartier in San Bruno nicht schlecht. Seine Kollegen hatten einen ähnlichen Hintergrund, viele Kunststudenten, die sich freuten, nicht total sinnfreie Jobs machen zu müssen. Sein Vorgesetzter war in Ordnung, und es gab sogar ein paar Sozialleistungen wie Gratismittagessen. Während seiner Acht-Stunden-Schicht saß Rob im Großraumbüro vor zwei Monitoren. Während er am einen Zehner-Chargen von Videos gleichzeitig scannte, konnte er am anderen tun, was er wollte. Er schaute sich die komplette Serie Battlestar Galactica an, während er parallel Gewaltvideos löschte. Mit den anderen zu reden, war ohnehin nicht seins. Er war auch ein bisschen fasziniert davon, ins Innenleben von YouTube zu schnuppern. Ungefähr 2010 beauftragte die Google-Rechtsabteilung die Moderatoren mit einem dringenden Job, die Hasspredigten des radikalen US-Islamisten Anwar-al-Awlaki zu löschen, nachdem eine Engländerin behauptet hatte, dass er sie zu einem Attentat auf einen Politiker inspiriert habe.

Preis der Arbeit

Als die Monate ins Land zogen, zeigte der harte Stoff seine Wirkung. Am schlimmsten für Rob war das Blut: brutale Straßenkämpfe, Tierquälerei, Selbstmordattentäter, Enthauptungen und die ärgsten Verkehrsunfälle. Der arabische Frühling war voll im Gange, die Aktivisten nutzten YouTube, um der Welt das brutale Vorgehen der Behörden zu zeigen. Die Moderatoren wurden angewiesen, solche "Nachrichten“-Videos mit einer Warnung zu versehen, auch wenn das eigentlich den Content-Richtlinien des Hauses widersprach. Die Nahaufnahmen von verletzten Demonstranten oder toten Straßenkämpfern gingen Rob und seinen Kollegen in Mark und Bein.

"Wenn jemand ein Video von einer Tierquälerei hochlud, war das ja meist der Quäler selbst, und der war auch noch stolz darauf“, sagt Rob. "Wenn du das weißt, trifft dich das viel härter, als wenn jemand das dokumentiert hat, um es der Welt zu zeigen. Du bekommst einen dunklen Blick in die menschliche Seele.“


Wenn jemand ein Video einer Tierquälerei hochlädt, war das ja meist der Quäler selbst, und der ist auch noch stolz darauf

Die Videos begannen, ihn auch nach der Schicht noch zu verfolgen. Er wurde immer verschlossener und leicht reizbar. Es gab zwar Ansprechpartner für so etwas bei YouTube, mit denen Moderatoren hätten theoretisch reden können. Aber Rob wusste nicht, wie man an die herankam. Er kannte auch niemanden, der sich ihnen anvertraut hätte. Stattdessen therapierte er sich selbst. Er begann, zu trinken, und nahm ordentlich zu. Es wurde ihm auch klar, dass er wohl nie ein echter Google-Angestellter werden würde. Nach ein paar Monaten hatte er sich zwar bei Google beworben, zum Vorstellungsgespräch kam es nicht, offiziell weil der Notendurchschnitt nicht gereicht hatte. Google bestritt das als ausschlaggebenden Faktor. Aber selbst wenn, sagt Rob, er habe gehört, dass es nur ganz wenige dieser Dienstnehmer ins Stammpersonal von Google geschafft hätten.

Ein paar Monate vor Vertragsende fand er einen anderen Job und kündigte. Als seine letzte Schicht geendet hatte, war er extrem erleichtert. Er setzte sich ins Auto, fuhr nach Hause zu seinen Eltern nach Orange County und schlief erst einmal drei Tage durch.


Gemessen an dem Umstand, dass oft mehr als die halbe Mannschaft von Netzwerk-Sites für die Content-Moderation eingesetzt werden muss, stimmen die seelischen Langzeitfolgen bedenklich.

Gemessen an dem Umstand, dass oft mehr als die halbe Mannschaft von Netzwerk-Sites für die Content-Moderation eingesetzt werden muss, stimmen die seelischen Langzeitfolgen dieser Arbeit bedenklich. Jane Stevenson war Anfang der Nullerjahre leitende Arbeitsmedizinerin bei der britischen Polizei, zu jener Zeit, als die großen internationalen Ermittlungen gegen Kinderpornografie begannen. Sie hat viele von den Bildern überwältigte Ermittler gesehen. Selbst nachdem sie ihren Job quittiert hatte, baten Behörden und Firmen sie wiederholt um Hilfe, wie sie mit den Folgeschäden umgehen sollten. So gründete sie eine Gesundheitsberatung für "High Pressure Industries“, wie sie das nennt. Dabei berät sie soziale Netzwerke in England: Und sie kennt die Herausforderungen der Content-Moderatoren in Bezug auf Kinderpornografie und Terrorismus.

Blinder Fleck

"Von dem Moment an, da du das erste Bild siehst, verändert sich etwas, für immer,“ sagt sie. Während die Behörden spezielle Programme aufgesetzt haben, wo es professionelle Hilfe von Psychologen und Therapeuten gibt, haben viele Technologiefirmen den Ernst der Lage noch nicht erkannt. "Da herrscht die Idee vor, dass das so etwas wäre wie ein Todesfall oder Belästigung am Arbeitsplatz, und dass die Leute damit schon fertig werden“, sagt sie. "Das erleben wir doch alle einmal, dass uns jemand nicht mag und das auch sagt. Das ist normal. Aber ist es normal, mit einem zweijährigen Kind Sex zu haben? Ist es normal, jemandem extrem langsam den Kopf abzuschneiden? Ich will sie nicht traumatisieren, aber Enthauptungen passieren nicht schnell. Ist das normal? Ist das etwas, mit dem sie rechnen?“

In Manila treffe ich Denise, die in Wirklichkeit anders heißt. Sie ist Psychologin und arbeitet für Content-Moderations-Firmen. "Das ist wie eine posttraumatische Belastungsstörung“, sagt sie, während wir aus ihrem Büro hinunter auf die verstopften Straßen Manilas schauen. Denise und ihre Leute haben ein ausgeklügeltes Monitoringsystem entwickelt für die Kunden. Angestellte werden einer Reihe psychologischer Tests unterzogen und regelmäßig daraufhin untersucht, was das permanente Starren in die dunkle Seite der Menschheit für Konsequenzen zeitigt. Es gibt Moderatoren, die nach stundenlangem Sichten von Pornografie unempfindlich werden, abstumpfen, keinen Kontakt mit ihrem Partner mehr wollen. Andere berichten vom übersteigerten Sexualtrieb. "Acht Stunden am Tag Pornos schauen, was würde das mit ihnen machen? Wie lange würden sie das aushalten?“


Die Brutalität gegenüber Kindern macht mich fertig.

In einem Einkaufszentrum in der Nähe treffe ich eine junge Frau, nennen wir sie Maria. Sie hat ihre Outsourcing-Firma für das Mittagessen verlassen. Dort sichtet sie für einen großen US-Cloud-Anbieter die Fotos und Videos. Maria ist für die Qualitätssicherung in ihrem Team zuständig, sie überprüft die Arbeit von Dutzenden Mitarbeitern, um sicherzugehen, dass auch ja nichts übersehen wurde. Das erfordert, dass sie die Videos anschauen muss, die andere Moderatoren markiert - "geflaggt“ - haben.

Kaffee zum Runterkommen. "Die Brutalität gegenüber Kindern macht mich fertig“, sagt sie. "Da muss ich aufhören, eine Pause machen, zu Starbucks gehen und einen Kaffee trinken.“ Sie lacht über den absurden Konnex zwischen schrecklichem Sexualverbrechen und überteuertem Caffè Latte. Die permanente Auseinandersetzung mit diesen Videos hat eine von Marias Kolleginnen paranoid gemacht. Wer jeden Tag in diese Abgründe blicken muss, den Nachweis menschlicher Grausamkeit sieht, wird extrem misstrauisch. Man beginnt sich unweigerlich zu fragen, was die Leute im eigenen Bekanntenkreis so auf ihren Festplatten haben. Zwei ihrer Mitarbeiter sind derart misstrauisch geworden, dass sie ihre Kinder nicht mehr länger bei den Babysittern lassen wollen. Manchmal kommen sie dann nicht zur Arbeit, weil sie keinen haben, der auf die Kids aufpasst.


Wer jeden Tag in diese Abgründe blicken muss, den Nachweis menschlicher Grausamkeit sieht, wird extrem misstrauisch

Maria wird von einem Video verfolgt, kurz nachdem sie mit dem Job begonnen hatte. "Da ist diese Frau“, sagt sie, ihre Stimme bricht. "zwischen 15 und 18, ich weiß es nicht genau. Sie sieht wie eine Minderjährige aus. Ein Typ mit Glatze steckt seinen Kopf in ihre Vagina. Ihre Augen sind verbunden, sie ist gefesselt und schreit und weint.“

Das Video war mehr als eine halbe Stunde lang. Nach einer Minute war Maria von Trauer und Wut überwältigt. Wie kann man so etwas einem anderen Menschen antun? Sie versuchte, den Typen zu erkennen. Glatze, scheinbar aus dem mittleren Osten, aber ansonsten komplett durchschnittlich. Das Gesicht des Bösen, so unscheinbar, dass man ihm im Einkaufszentrum wohl keinen zweiten Blick schenken würde.

Nach zweieinhalb Jahren im Monitoring beim Cloud-Speicher-Anbieter beschließt Maria, aufzuhören und eine Krankenpflegeausbildung zu machen. Sie rechnet damit, das sie das Video von diesem Mädchen noch lange nach ihrem Ausstieg begleiten wird. "Ich weiß nicht, ob ich das jemals vergessen kann“, sagt sie, "es ist so lange her, aber es fühlt sich an, als hätte ich es gestern gesehen.“

Der Artikel ist ursprünglich in der US-Ausgabe des Magazin "Wired" erschienen. Die deutsche Übersetzung wurde für FORMAT lizensiert.

Artikel aus FORMAT Nr. 6/2015
Zum Inhaltsverzeichnis und ePaper Download

Nokia Zentrale in Espoo, Finnland

Wirtschaft

Nokias Auferstehung: Finnen beleben Handy-Marke wieder

Technik

Apple knickt ein: Weg frei für iPhone-Entsperrung

Technik

Und Action: GoPro kauft zwei Video-Apps