A difícil rotina dos moderadores da internet: 'Já vi vídeos de canibalismo'

Shawn Speagle em sua casa Direito de imagem Arquivo pessoal
Image caption Shawn ainda está tentando processar a experiência que ele teve como moderador de conteúdo

Na era da autopublicação na internet, as pessoas podem produzir e compartilhar seu próprio conteúdo, e muitas coisas horríveis que claramente violam as diretrizes de gosto e decência dos sites, em alguns casos até a lei. Um exército crescente de moderadores tem a tarefa de filtrar tudo isso, às vezes com um custo considerável para a saúde mental.

AVISO: o artigo contém informações que podem ser consideradas perturbadoras.

Shawn Speagle trabalhou como moderador de conteúdo online durante seis meses em 2018. E ainda se sente marcado pela experiência.

"Um dos primeiros vídeos que eu me lembro de ter visto mostrava dois adolescentes pegando uma iguana pela cauda e, em seguida, a esmagavam na calçada enquanto uma terceira pessoa filmava".

"A iguana ficou gritando e as crianças não pararam até que o animal ficasse estirado no chão."

Shawn foi contratado por uma empresa chamada Cognizant, na Flórida, que tinha um contrato com o Facebook. Ele fala de uma maneira lenta e ponderada, ainda tentando processar o conteúdo.

"Eu vi pessoas colocarem fogos de artifício na boca de um cachorro e fechá-la. Já vi vídeos de canibalismo, vídeos de propaganda sobre terrorismo", continua ele.

Ouvindo Shawn falar, fica claro por que a moderação tem sido descrita como o pior trabalho em tecnologia.

A maioria de nós, usuários da internet, não ouviu falar dessas dezenas de milhares em todo o mundo trabalhando para empresas eliminando todo conteúdo considerado perturbador segundo as diretrizes da mesma companhia - a exemplo de vídeos de suicídio e assassinatos, teorias conspiratórias e discursos de ódio.

E agora alguns desses funcionários têm vindo a público contar suas histórias.

Direito de imagem PA Media
Image caption Facebook tem cerca de 30 mil funcionários terceirizados para monitorar conteúdo publicado na rede social em todo o mundo

Moderação enviesada

Shawn decidiu falar, apesar de ter assinado um acordo de confidencialidade (NDA, por sua sigla em inglês) - uma prática padrão nessa indústria.

Esses NDAs também pretendem impedir que os contratados compartilhassem informações pessoais dos usuários do Facebook com o mundo exterior, em um momento que a empresa controlada por Mark Zuckerberg está sob intenso escrutínio em relação ao cuidado com a privacidade dos dados dos usuários.

Shawn defende que as políticas de moderação do Facebook sejam discutidas abertamente, porque a equipe acaba assistindo a conteúdo perturbador que, segundo ele, é muitas vezes deixado intocado na plataforma.

Como amante dos animais, ele ficou perturbado com o fato de o conteúdo animal "quase nunca ter sido acelerado", o que significa no jargão deles que nunca foi encaminhado para remoção da plataforma.

Para os humanos, as regras eram um pouco diferentes, mas também mais complicadas.

O mais comum era marcá-lo como "perturbador" e mantê-lo na plataforma. Shawn diz à BBC que, de acordo com a política do Facebook, ver entranhas corporais fora do ambiente médico resultaria na exclusão do vídeo.

Ele se esforça para lembrar outros exemplos que resultariam na retirada de conteúdo.

O estresse do trabalho o levou a excessos e ganho de peso, diz Shawn.

"Eu me senti como se fosse um zumbi no meu lugar. Aquilo realmente te atinge porque eu não tenho aquela síndrome de espectador, que fica ali apenas assistindo a esse sofrimento todo sem poder fazer nada para impedir".

Ele também não recebeu acompanhamento psicológico adequado.

Shawn diz ter ido uma única vez falar com o psicólogo de plantão: "Ele me disse que não sabia como nos ajudar".

Ele relata ter ficado por seis meses, sem reclamar, porque pensou que, embora trabalhasse num subemprego, "o Facebook deveria ajudar".

Direito de imagem Getty Images
Image caption O vice-presidente do Facebook, Arun Chandra, foi escolhido especialmente para se concentrar nas condições de trabalho dos 30 mil moderadores da rede social

Facebook fala em problema pontual

O vice-presidente do Facebook, Arun Chandra, foi escolhido especialmente para se concentrar nas condições de trabalho dos 30 mil moderadores da rede social, que são amplamente contratados de empresas terceirizadas nos EUA, Índia e Filipinas.

Chandra diz ter visitado mais de 15 locais de trabalho em todo o mundo e conversado diretamente com moderadores.

Ele nega a existência de um "problema em larga escala" e enfatiza que as empresas que terceirizam seus funcionários, como Cognizant e Accenture, por exemplo, eram "respeitáveis empresas globais". Ele afirmou que o Facebook fará auditorias formais ainda este ano.

Ele também confirma que, após uma investigação, o contrato da Cognizant permanece em vigor.

Mas Shawn Speagle acredita que muito mais poderia ser feito para melhorar as condições de trabalho.

"O lugar era absolutamente nojento", alega. "Havia apenas um banheiro em todo o edifício onde trabalhavam 800 funcionários."

"As pessoas fumavam no prédio, bebiam no estacionamento e faziam sexo em seus carros."

Os trabalhadores eram frequentemente jovens, inexperientes e mal remunerados, segundo ele.

A BBC procurou a Cognizant para comentar, mas ainda não recebeu uma resposta.

Chandra, do Facebook, diz que um psicólogo está disponível em todas as regiões das terceirizadas durante todos os turnos e que os salários foram aumentados - mas apenas para moderadores que trabalham nos EUA.

'Mão de obra barata enquanto não se automatiza'

Sarah Roberts, professora da Universidade da Califórnia, em Los Angeles (UCLA, sua sigla em inglês), passou anos investigando o mundo da moderação na internet em seu livro recém-publicado, Behind the Screen (Atrás da Tela, em tradução livre).

Ela acredita que sites e gigantes das redes sociais assumiram que automação, Inteligência Artificial e aprendizado de máquina tornariam redundante a necessidade de moderação humana de conteúdo.

"Eu acho que o Vale do Silício está colocando uma primazia na computação sobre todas as outras coisas", diz ela.

"Portanto, (nessa visão) se uma força de trabalho puder ser mantida barata e tratada como dispensável, até o momento em que a computação possa ser totalmente incorporada, melhor."

Direito de imagem STELLA KALININA
Image caption Sarah Roberts acredita que os governos podem ter que forçar os editores online a limpar suas ações

A professora Roberts acha que a dificuldade para as empresas de redes sociais é que elas "construíram uma base de usuários global fundamentada na noção de que todos devemos ser capazes de dizer, compartilhar e mostrar o que nosso coração deseja o tempo todo".

Mudar essa cultura de dentro seria uma "tarefa difícil", ela avalia, e é por isso que pode ser necessária uma legislação mais rigorosa. Mas é mais provável que isso venha dos países da União Europeia do que dos EUA.

Diagnóstico de pavor noturno

Enquanto esse debate ganha força, pessoas reais como Shawn Speagle vivem com as consequências de vasculhar a imundície da internet.

Diagnosticado com pavor noturno, ele usa vários medicamentos, tem medo de dirigir depois de assistir a tantos vídeos de acidentes de carro e se assusta com barulhos altos.

"Olhar para essas coisas durante oito horas por dia, cinco dias por semana. É algo que nem veteranos e ex-militares conseguem lidar", conclui.

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!

Notícias relacionadas