The Cleaners: Interview mit den Regisseuren – „Wir schauen dem geschenkten Gaul ins Maul“

Anja Werth 25. April 2018 0
The Cleaners: Interview mit den Regisseuren – „Wir schauen dem geschenkten Gaul ins Maul“

Mit ihrem Dokumentarfilm „The Cleaners“ ist den beiden Regisseuren Hans Block und Moritz Riesewieck ein kritisches Werk über die im Dunkeln stattfindende Säuberung des Internets im Auftrag der großen Silicon Valley-Konzerne gelungen. Ihr Debütfilm zeigt auf schrecklich wunderbare Weise, wie hoch der Preis ist, den wir für die Digitalisierung und die Oberflächenreinlichkeit der Social Media-Plattformen zahlen. In einem Interview berichten die Regisseure von ihrer persönlichen Begegnung mit den Content Moderatoren, die das Internet tagtäglich „säubern“. Sie erklären außerdem, warum diese mächtige Schattenindustrie für unsere Demokratie so gefährlich ist.

Moritz, Dein Buch „Digitale Drecksarbeit“ ist vor Kurzem erschienen. Nun haben Hans und Du zu dem Thema „digitale Säuberung“ auch den Dokumentarfilm „The Cleaners“ gedreht, der weltweit auf überwältigende Resonanz trifft. Wie ist die Idee zu diesem Film entstanden?

Moritz: Hans und ich haben viel zu dem Thema recherchiert. Aus Zeitgründen hat sich ergeben, dass ich das Buch geschrieben und dann mit Hans den Film gedreht habe. Je nach Medium lässt sich ein anderer Fokus setzen. In dem Buch gehe ich vor allem der Frage nach, was es eigentlich bedeutet, wenn wir das „Böse“ löschen, statt kollektive Probleme zu lösen. Kommt es nicht sogar wie ein Bumerang wieder zurück? Wer entscheidet, was ins Internet kommt und was nicht? Durch den Film gelang es uns den Menschen hinter der „digitalen Säuberung“ näher zu kommen. Wir hatten eine sehr intensive Phase des Kennenlernens mit den Content Moderatoren und konnten so ein persönliches Verhältnis zu ihnen aufbauen. So konnten wir herauszufinden, was über ihr Denken entscheidet, und wie sie zu der Ideologie ihres Präsidenten stehen. Wichtig ist auch ihre Religion, denn es sind vorwiegend streng gläubige katholische Christen. Letztlich entscheidet jedoch ihr Bauchgefühl darüber, ob Bilder und Videos endgültig gelöscht werden, oder im Internet bleiben.

Mit dem Film entzündet Ihr natürlich eine äußerst kontroverse Debatte. Niemand möchte, dass sein Kind bei Youtube, Facebook oder Instagram grausame Kriegsbilder oder gar Enthauptungen in Echtzeit zu sehen bekommt. Gerade Instagram wirbt mit dem Slogan „Schöne Fotos entdecken“. Die Internetsäuberung von grausamem Bildmaterial ist ein maßgeblicher Erfolgsfaktor dieser Plattformen. Gleichzeitig erleben die Content Moderatoren die Kehrseite des Ganzen. Wie könnte man sie besser schützen?

Moritz: Ziel ist es sicher nicht, die Aufgabe der Content Moderatoren aufzugeben. Eine Filterung im Internet wird benötigt. Das Problem ist ein vielschichtiges, nämlich, dass diese Arbeit eine sehr große Verantwortung in sich trägt. Wir leben mittlerweile in einer digitalen Welt. Auf diesen Plattformen werden längst nicht mehr nur Urlaubsfotos hochgeladen, sondern auch politische Prozesse verhandelt und Debatten ausgetragen. Diese Plattformen stellen inzwischen ein wichtiges Tool für die Demokratie und die Gesellschaft dar. Umso wichtiger ist die Frage nach Verantwortung. Dass diese Aufgabe auf die Schultern junger Menschen in den Philippinen gepackt wird, die den Job meist aus Geldnot machen müssen, und an einen einzigen Standort outgesourct wird, ist natürlich verantwortungslos. Zudem hat diese Tätigkeit extreme Folgen für die Arbeiter, die täglich mehrere Stunden das Übel sichten müssen und keine richtige psychologische Betreuung haben. Das führt zu Traumatisierungen. Man müsste sie viel besser schützen, indem man für sie eine Umgebung schafft, in der sie angemessene Betreuung finden, ähnlich wie bei Soldaten, oder Polizisten, die Kinder-Pornographie-Videos angucken müssen.

Hans: Einige Firmen schicken die Content Moderatoren alle paar Monate zu Gruppensitzungen mit allen Angestellten, in denen sie sich austauschen sollen. Das ist aber völlig irrsinnig, weil es oftmals Themen gibt, die man in der Gruppe gar nicht diskutieren kann. Viele haben uns erzählt, sie hätten Angst in diesen Sitzungen offen zu reden, weil sie befürchteten ihren Job zu verlieren. Wenn jemand sozusagen nicht imstande ist diesen Job zu auszuführen, dann wird er eben aussortiert. Dadurch, dass es auf den Philippinen immer noch sehr schwer ist einen Job zu kriegen, liegt ein hoher Druck auf den Content Moderatoren den Job zu halten, auch wenn es ihnen dabei extrem schlecht geht. Es lässt sich hier –  böse gesagt – von menschlichem Kapital sprechen. Die Fluktuation bei diesen  Dienstleistungsfirmen ist sehr hoch.

In einer Szene erzählt eine junge Content Managerin, dass sie sich in der Schule immer sehr angestrengt habe, um später einen guten Job zu bekommen und nicht Müll wegräumen zu müssen. Während sie das sagt, steht sie vor einem großen Müllberg. Das Bild ist eine gute Metapher, denn im Grunde genommen räumt sie jetzt doch Müll weg, wenn auch auf andere Art und Weise.

Moritz: Ja, sie arbeitet zwar nicht auf einer analogen Müllhalde, wo die Schäden der Arbeiter am Körper sichtbar sind. Aber sie beseitigt digitalen Müll und das hinterlässt seelische Spuren. Es gab einen Suizidfall, bei dem gesagt wurde, das sei auf private Probleme zurückzuführen, obwohl wir aus anderen Quellen, nämlich von seinen Mitarbeitern, erfahren haben, dass derjenige zu viele Selbstverstümmelungsvideos und Live Streams von Suiziden begutachten musste. Die psychischen Schäden, die durch diese Tätigkeit hervor gerufen werden, lassen sich nur sehr schwer auf den Job zurückführen. Das ist die große Herausforderung bei dieser digitalen Form der Ausbeutung.

Euer Film zeigt auf, dass letztlich Unternehmen darüber entscheiden, was wir sehen dürfen und was nicht, und damit auch was wir denken. Vor allem Facebook bildet dabei eine maßgebliche Zensur. Welche Konsequenzen hat das für eine Gesellschaft, die sich heutzutage hauptsächlich durch Social Media über das Weltgeschehen informiert?

Hans: Es ist ein kleiner Kreis von Menschen, der im Silicon Valley hinter verschlossenen Türen die Richtlinien dieser sozialen Netzwerke beschließt. Wir haben ja Nicole Wong in unserem Film, die das jahrelang im Dienst von Google inklusive Youtube und Twitter getan hat und über ihre Erfahrungen berichtet. Wir wissen, dass Lobby- Gruppen versuchen auf diese Richtlinien Einfluss zu nehmen. Wir wissen auch, dass die Kriterien, nach denen aussortiert wird, extrem puritanisch ausgelegt sind, vor allem, wenn es um den Umgang mit Sex geht, der in den USA ganz anders als in Europa aussieht.

Wir wissen von der Terror-Liste, die direkt von der Homeland Security stammt. Da sind 37 Terror Organisationen auf dieser Liste, die – würde man die Russen, oder die Chinesen fragen – sich vielleicht ganz anders zusammensetzen würde. Es wird dann entschieden: Okay, diese Gruppierung wird als Terror-Gruppe eingestuft. Infolgedessen wird alles gelöscht, was von dieser Gruppe hochgeladen wird. Das ist völlig intransparent. Warum wird diese Liste nicht offen gelegt? Das sind Bereiche, in denen der Fehler schon im Silicon Valley beginnt. Kein Mensch dieser Welt kann sich anmaßen über sämtliche Konflikte weltweit und kulturelle Kontexte so gut Bescheid zu wissen, dass er innerhalb von Sekunden den Kontext eines Bildes verstehen kann. Nicht einmal Professorinnen und Professoren, die Kulturgeschichte studiert haben, können das. Es ist also ein Systemfehler, der dem Ganzen zugrunde liegt, wodurch jede Minute aufs Neue Gruppen stigmatisiert und ausgegrenzt, oder zum Schweigen gebracht werden. Das kann extreme Auswirkungen haben auf politische Konflikte. Genauso gut kann es auch extreme Folgen nach sich ziehen, wenn ein Inhalt nicht gelöscht wird.

Gab es während Eurer Arbeit an dem Film unangenehme Situationen und wenn ja, welche?

Moritz: Eine Kollegin wurde bei Recherchen vor Ort bedroht. Während sie mit einem Moderator im Gespräch war, wurde ein Foto von ihr gemacht und durch das ganze Unternehmen verschickt, mit der begleitenden Warnung, dass jeder, der mit dieser Person spricht, seinen Job riskiert. Es wird also sehr viel Druck auf die Mitarbeiter ausgeübt, damit sie aus dem Inneren der Unternehmen keine Auskünfte preisgeben. Indem wir als Gesellschaft anfangen wahrzunehmen, was dort stattfindet, wird immer mehr erkenntlich, dass keine wirklich objektiven Richtlinien existieren können, sondern alle Entscheidungen über das Bildmaterial willkürlich getroffen werden müssen, eben aus dem Bachgefühl heraus oder aus persönlicher Vorliebe. Das ist natürlich skandalös. Es hat ja einen Grund, warum Redaktionen manchmal mehrere Stunden oder gar Tage benötigen, um zu entscheiden, ob ein Bild oder Inhalt publiziert werden darf.

Hans: Wir haben mehrfach versucht Mitarbeiter von Facebook zu kontaktieren. Keiner von ihnen hat uns jemals geantwortet. Im Gegenteil: Wir waren auf dem Radar dieser Unternehmen. Unsere Social Media Accounts wurden gescannt, und es wurde beobachtet mit wem wir von diesen Firmen reden. Ein offener Dialog findet dort überhaupt nicht statt.

In Eurer Stellungnahme zu dem Film heißt es, es dürfe bei der Entscheidung über Demokratie und Meinungsfreiheit nicht ausschließlich die beiden Optionen Delete und Ignore geben, die den Content Moderatoren beim Umgang mit dem Bildmaterial zur Verfügung stehen. Nach welchen Regeln müssten die Content Moderatoren vorgehen, um die Social Media-Nutzer zu schonen und gleichzeitig Meinungsfreiheit zu gewährleisten?

Moritz: Die ganze Architektur dieser Plattformen ist darauf ausgelegt extremen Content anzulocken, weil er sich am ehesten verbreitet, die meisten Reaktionen hervorruft und am besten in Werbung umwandeln lässt. Man müsste also grundsätzlich die Architektur dieser Plattformen infrage stellen. Die Persönlichkeitsrechte der Betroffenen auf den Fotos und Videos müssen gewahrt werden. Man sollte zudem den Nachrichtenwert prüfen. Das bedeutet, die Content Moderatoren sollten den Kontext des Bildmaterials sowie auch den Zweck des Posts erforschen. Was ist der Hintergrund der Person, die hinter dem Post steht? Zudem sollten sie überprüfen, inwieweit das Bildmaterial glaubwürdig ist. Kann die Quelle ermittelt werden? Oder handelt es sich um Fake-News? Diese Arbeit kostet viel Zeit, die sich jedes Medium nehmen muss, wenn es vernünftig handeln will. Bei Facebook wird dieser Entscheidungsprozess auf wenige Sekunden zusammengeschrumpft. Das Verantwortungsbewusstsein wird dadurch systematisch abgebaut. Wir als aufgeklärte Bürger können das unmöglich einfach so hinnehmen.

Hans: Die Content Moderatoren haben uns damals berichtet, dass sie vor der Aufnahme ihrer Tätigkeit ein lediglich drei- bis fünf-tägiges Training erhalten, in dem sie hunderte von Richtlinien lernen und verstehen müssen. Das ist natürlich völlig absurd, weil es viel zu wenig Zeit ist, um über solche komplexen Inhalte entscheiden zu können.

Was würdet Ihr den Nutzern von Social Media-Plattformen raten?

Moritz: Wir werden oft gefragt, ob wir selber noch Facebook nutzen. Natürlich möchten wir ungern Leuten raten sich dort abzumelden. Diese Technologien haben auch ihre positiven Seiten, sie verbinden weltweit und sind auch ein wichtiges Element der Demokratie. Aber genau hierin liegt auch die Gefahr: Wir müssen uns bewusst machen, dass diese Plattformen nicht nur ein kleiner, bunter Schauplatz sind, sondern dass sie längst auch für politische Inhalte verwendet werden. Wir müssen umdenken. Die Nutzer sollten sich als aktive Bürger eines demokratischen Systems verstehen. Sie sollten sich auf diesen Plattformen als Admins sehen, nicht als bloße User.

Wie geht es für Euch beide jetzt weiter?

Hans: In den kommenden sechs Monaten werden wir mit dem Film viel reisen. Wenn der Film eine möglichst große Debatte auslösen könnte, um Druck auf die Unternehmen auszuüben, wären wir sehr froh. Und natürlich denken wir schon über einen neuen Film nach.

Das Interview führte Anja Werth