Aleksander Sławiński| 
aktualizacja 

Koszmar pracowników. Facebook wyda 52 mln dol. na odszkodowania

24

Grupa byłych moderatorów Facebooka, pracujących w USA, dostanie łącznie 52 miliony dolarów odszkodowania za "pracę w trudnych warunkach" i krzywdy psychiczne łączące się z wykonywaniem zawodu. U wielu z nich stwierdzono zaburzenia związane z głęboką traumą.



Miejsce pracy moderatorów Facebooka w Austin w Teksasie.
Miejsce pracy moderatorów Facebooka w Austin w Teksasie. (Getty Images)

Władze Facebooka zgodziły się zapłacić łącznie 52 miliony dolarów swoim byłym moderatorom, których firma miała narazić na utratę zdrowia psychicznego z powodu zadań, wykonywanych w czasie pracy. Były one związane z usuwaniem treści łamiących regulamin strony.

O sprawie informuje portal "The Verge". Ugoda została podpisana w kalifornijskim sądzie między społecznościowym gigantem, a grupą ponad 11 tysięcy moderatorów, zatrudnionych przez zewnętrzną firmę i pracujących dla portalu od 2015 roku. W 2018 roku wspólnie pozwali Facebooka za stworzenie niebezpiecznych dla zdrowia warunków pracy.

Zespół stresu pourazowego

U wielu z nich, jak się okazuje, rozwinął się zespół stresu pourazowego, zwany też z angielska PTSD. Jest to zaburzenie występujące u osób doświadczających głębokich traum i przeżyć przekraczających zdolność psychiki do radzenia sobie z nimi.

Problem ten występuje m.in. u weteranów wojennych, ofiar tortur, gwałtów czy tragicznych wypadków. Często jego objawem jest rozwój zaburzeń lękowych (np. ofiary wypadków samochodowych boją się wsiadać do samochodów), unikanie pewnych miejsc i sytuacji, problemy z koncentracją, snem i powracające w nieoczekiwanych momentach bolesne wspomnienia.

W przypadku moderatorów Facebooka czynnikiem, który doprowadził do silnych szkód osobistych była konieczność przeglądania i usuwania ekstremalnie zaburzających regulamin materiałów wrzucanych przez użytkowników. Były to m.in. sceny gwałtów, morderstw czy tortur (na ludziach oraz zwierzętach), które pracownicy musieli nieraz oglądać przez kilka godzin dziennie.

Treści niezgodne z polityką portalu są sprawdzane przez sztuczną inteligencję oraz ludzi. O ile jednak obecne algorytmy Facebooka są w stanie wykrywać nawet 90 procent komentarzy zawierających "mowę nienawiści", to w przypadku zdjęć i filmów często potrzebna jest opinia człowieka. Podobnie jest, gdy treści opierają się na grach słów, memach, czy odniesieniach do kultury. Długie obcowanie z "hejtem" - nawet jeśli nie jest on wobec nas skierowany - również może zostawić ślady na psychice.

Obecnie świadomość tego, z czym wiąże się długotrwałe oglądanie przerażających (i budzących obrzydzenie) materiałów jest dużo większa niż jeszcze kilka lat temu. Jak donosi BBC, w styczniu firma Accenture, wykonująca dla YouTube usługi sprawdzania treści, zaczęła informować potencjalnych pracowników o stresujących warunkach pracy i wymaga od kandydatów oświadczenia, że rozumieją z czym może wiązać się jej wykonywanie.

Będziemy zapewniać naszym moderatorom wsparcie w trudnych dla nich momentach - stwierdził rzecznik Facebooka, dodając, że firma pracuje nad narzędziami, które pozwolą złagodzić traumę związaną z długotrwałym oglądaniem zaburzających scen. Przyznał jednak, że w dobie koronawirusa, gdy moderatorzy pracują zdalnie, zapewnienie im opieki jest znacznie trudniejsze.

Okazuje się więc, że praca moderatora portali społecznościowych może również zostać zaliczona do zawodów podwyższonego ryzyka. Tak jak praca górnika, strażaka czy policjanta.

Zobacz także: Nikt nie słyszał jej krzyku. Wstrząsająca historia z Wielkiej Brytanii. Kobieta cierpi na PTSD

Masz newsa, zdjęcie lub filmik? Prześlij nam przez dziejesie.wp.pl.

Zapisz się na nasz specjalny newsletter o koronawirusie.

Oceń jakość naszego artykułu:

Twoja opinia pozwala nam tworzyć lepsze treści.

Zobacz także:
Oferty dla Ciebie
Wystąpił problem z wyświetleniem stronyKliknij tutaj, aby wyświetlić