Tak działają centra cenzury na Facebooku

Tak działają centra cenzury na Facebooku

„Mechaniczna pomarańcza” to film Stanleya Kubricka znany z tego, że został zakazany w wielu krajach ze względu na brutalne obrazy i niejednoznaczne przesłanie, które wielu mogło błędnie zinterpretować. W nim ultbradliwy młody człowiek zostaje schwytany przez władze i wystawiony na próbę zahamowania w jego osobowości wolnej woli, czyli zastosowania metody, która uczyni go dobrym człowiekiem. Jak oni to zrobili? Poprzez terapię szokową: obiekt jest związany przed wielkim ekranem , z oczami stale otwartymi i zmuszony do oglądania nieprzyjemnych scen przez wiele godzin. Kiedy zostaje uwolniony i odczuwa chęć popełnienia aktów przemocy, pojawiają się nudności, uwarunkowane sytuacją, w jakiej znalazł się kilka dni wcześniej.

Tak działają centra cenzury na Facebooku

Teraz wyobraź sobie, że oglądasz brutalne, nieprzyjemne obrazy, nienawistne treści, obelgi, filmy ze ścięciami ... przez osiem godzin dziennie dla dużej firmy. Twoja praca w tym centrum pomaga ci określić, co inni widzą, a czego nie. Pracujesz dla jednego z 20 centrów, które Facebook zorganizował na świecie w celu cenzurowania treści zabronionych przez sieć społecznościową Marka Zuckerberga. Eldiario.es ma dostęp do źródeł z tych ośrodków w takich miastach jak Warszawa czy Lizbona, a także do dokumentów, które ujawniają warunki, na jakich agenci muszą stosować cenzurę.

Zgodnie z tymi dokumentami agenci moralności i dobrego postępowania na Facebooku muszą pracować w opłakanych warunkach . Biura bez okien, w których setki ludzi muszą nieustannie wpatrywać się w ekran, na którym dzieje się groteskowa treść, aby ją wyeliminować, a nie rozszerzyć. Podobnie jak Álex w „Mechanicznej pomarańczy” są obiektami wystawionymi na okropne obrazy przez osiem godzin dziennie, nie będąc w pełni docenianymi, jakie mogą być konsekwencje takiego czynu. Algorytmy, o których tak dużo mówimy, to nic innego jak ludzie, tacy jak ty i ja.

facebook 02

Ich fizyczne i psychiczne warunki pracy są ekstremalne

W takich ośrodkach pracuje łącznie 15 000 osób. Wielu z nich twierdzi, że nie da się być w 100% uczciwym, że w warunkach, w jakich pracują i ze względu na charakter zadania, niepowodzenia mogą się zdarzać w sposób ciągły. Pracownicy cenzury na Facebooku pobierają opłatę po 700 euro miesięcznie i są zlecani podwykonawcom przez międzynarodowych konsultantów, nie wolno im nikomu mówić, że pracują dla Facebooka , zawsze nazywając go „klientem”. Eldiario.es pozyskało wypowiedzi trzech pracowników tego typu ośrodka, którzy musieli zachować swoją anonimowość.

Warunki pracy są ekstremalne. Mają pół godziny na odpoczynek podczas ośmiogodzinnej zmiany i muszą to robić co godzinę, aby zrobić przerwy na wzrok, rozprostować nogi, pójść do łazienki, a nawet zjeść. W pokoju zawsze jest recenzent, który zauważa i karze niewłaściwe zachowanie: pracownik przerywa wybór zdjęć, aby napić się wody lub wyciągnął telefon komórkowy w celu konsultacji, jest powodem sankcji. Ponadto za pomocą programu punktowego zachęca się samych pracowników do wzajemnego oskarżania się, jeśli zobaczą, że któryś z ich kolegów dopuszcza się karalnych zachowań.

Tak działają centra cenzury na Facebooku 1

Jaka jest twoja praca

Praca przebiega następująco. Pracownik ma przed sobą ekran, na którym dzieje się cała zawartość, która gromadzi najwięcej skarg użytkownika. Pracownik ma wtedy dwie opcje „Usuń”, za pomocą których usuwa zawartość, 0 „Ignoruj”, jeśli uważa, że ​​nie łamie zasad Facebooka. Każda osoba może przeanalizować do 600 przypadków dziennie i musi nacisnąć jeden z dwóch przycisków decyzyjnych, łącznie trzydzieści sekund na każdy z nich. Normalne jest oczywiście to, że popełniane są niesprawiedliwości, biorąc pod uwagę wszystko, co obecnie wiadomo o tych ośrodkach.

Gazeta podaje przykłady prawdziwych przypadków, w których ankietowani pracownicy musieli interweniować. Na przykład pojawił się ten obraz, ilustracja ostrzegająca przed rakiem piersi.

sutki

Jednym z algorytmów, tym automatycznym, który już zaczął działać, są obrazy, na których widać sutki kobiety. Są jednak wyjątki, jak w przypadku, gdy obrazy mają charakter informacyjny . Wydaje się jasne, że widząc powyższą ilustrację, pracownik musi „odblokować” obraz, ponieważ jest to informacja o raku będąca przedmiotem powszechnego zainteresowania, a nie obraz o charakterze erotycznym.

mem znęcania się nad dzieckiem

W tym drugim widzimy, jak praca tych moderatorów może być tak skomplikowana. Czy to mem, który reprezentuje akt znęcania się nad dzieckiem? Pracownik musi w ciągu trzydziestu sekund zdecydować, czy go usunąć, czy nie. To jest migawka z prawdziwego wywiadu, a otyłość nie jest uważana za niepełnosprawność. Na Facebooku nie jest usuwane nic, co mogłoby kogoś urazić, poza tym, że ktoś należy do grupy osób niepełnosprawnych. W tym przypadku moderator wybrałby przycisk „Ignoruj”.

Sprzeczności cenzury na Facebooku

Dwa przykłady, które mogą być mniej lub bardziej jasne, ale są uwzględnione w wielu innych, w których widać niejednoznaczność reguł Facebooka. Na przykład treści odnoszące się do Hitlera są automatycznie usuwane. Jednak treści, w których przeprasza Franco, są dozwolone. Jeden z konsultowanych recenzentów twierdzi, że faszyzm jest dozwolony na Facebooku. Możesz wypełnić swoją ścianę zdjęciami Mussoliniego, że nic się nie wydarzy. Ale uważaj na Hitlera . Albo żeńskie sutki.

Tak działają centra cenzury na Facebooku 2

Jedną z najbardziej szalonych decyzji, jakie muszą podjąć cenzorzy Facebooka, jest rozważenie wielkości brody arabskich mężczyzn, aby ustalić, czy są terrorystami; Ponadto rozmówcy potępiają wyraźny podwójny standard dotyczący konieczności przynoszenia korzyści określonym grupom. „ Obrażanie pewnych przekonań jest dozwolone, a innych całkowicie zabronione ”. Na przykład syjonizm. Wszelkie wezwania do bojkotu produktów izraelskich z powodu masakr, jakich kraj ten dokonuje w Palestynie, są cenzurowane. Ponadto prawdopodobieństwo, że treść zostanie usunięta z Facebooka, ma wiele wspólnego z siłą i zdolnościami organizacyjnymi grupy zainteresowanej tym, aby zniknęły.

W przyszłości okaże się, jakie psychologiczne konsekwencje będą mieli ci pracownicy Facebooka, a także szczególny ideologiczny cel, jaki nadają moderacji treści.