Екстремальний контент: чому екс-модераторка Facebook подала на компанію до суду

Поділіться цим Email Поділіться цим Facebook Поділіться цим Twitter Поділіться цим Whatsapp

Image copyright Reuters

Селена Скола займалася моніторингом матеріалів, що публікуються в Facebook, і каже, що компанія ніяк не захищає своїх працівників від психологічних проблем, які можуть виникнути через регулярний перегляд "екстремального" контенту.

За словами жінки, модераторам Facebook постійно доводиться мати справу з тисячами фотографій і відеозаписів, на яких зображені сцени насильства над дітьми, тортури, страти та інший неприйнятний контент.

В судовому позові сказано, що Facebook не здійснює заходів для того, аби створити для працівників "безпечний робочий простір".

В самій же компанії кажуть, що у працівників є повний доступ до "ресурсів, пов'язаних з психічним здоров'ям".

За словами Сколи, через "неймовірно токсичні та екстремально страшні зображення", які їй доводилося бачити на роботі, у неї розвинувся "посттравматичний стресовий розлад".

В позові також сказано, що Сколу можуть підтримати тисячі нинішніх та колишніх модераторів Facebook.

Image copyright Getty Images

У відповідь Facebook оприлюднив офіційну заяву: "Ми усвідомлюємо, що ця робота дуже часто може бути непростою. Саме тому ми серйозно турбуємося про наших модераторів, влаштовуючи тренінги, надаючи бонуси та доступ до психологічної підтримки", - кажуть у Facebook.

Останнім часом керівництво соцмережі активно критикують через пасивність в боротьбі з фейковими новинами та мовою ненависті.

Наразі у Facebook працюють близько 7500 модераторів, які проглядають контент, оприлюднений користувачами. Критики закликають компанію збільшити кількість таких спеціалістів.

Facebook також використовує систему штучного інтелекту, яку поступово навчають відрізняти неприйнятний контент. Мета - вдосконалити її настільки, аби згодом повністю відмовитися від необхідності наймати людей.

Хочете отримувати найважливіші новини в месенджер? Підписуйтеся на наш Telegram .