- Trabalhadores brasileiros recebiam, até junho deste ano, R$ 0,35 por tarefa para moderar conteúdo extremo no X, apontam documentos obtidos pelo Intercept Brasil.
- O objetivo do projeto era ‘segurança da marca’, ou seja, deixar a rede social mais ‘segura’ para anunciantes. Quando assumiu, Elon Musk dissolveu as áreas de segurança e moderação – e a proliferação de conteúdo nocivo afastou anunciantes.
- O trabalho acontecia por uma empresa de trabalho remoto internacional. No e-mail de boas-vindas aos aprovados no processo seletivo, já havia o aviso: seriam “conteúdos desafiadores que exigem mão firme e forte determinação”.
- Não havia treinamento, suporte psicológico e nem limite de horas, segundo os trabalhadores. Em plataformas de trabalho remoto, os danos à saúde mental são ainda piores – e as plataformas não se responsabilizam pelos trabalhadores.
Trabalhadores brasileiros recebiam, até junho deste ano, R$ 0,35 por tarefa para moderar conteúdo extremo no X, apontam documentos obtidos pelo Intercept Brasil. O objetivo do projeto era deixar a rede social mais ‘segura’ para anunciantes, depois de Elon Musk ter dissolvido as áreas de segurança e moderação.
O objetivo do trabalho, feito por meio da plataforma Appen, era filtrar posts sobre temas como terrorismo, violência e pornografia para evitar que propagandas aparecessem ao lado de conteúdos comprometedores, que pudessem causar danos de imagem aos anunciantes.
Quando Elon Musk assumiu a direção do X, então Twitter, prometendo liberdade de expressão, a empresa dissolveu suas áreas de segurança, moderação e combate à desinformação. A rede social começou a sofrer com falhas sistêmicas na moderação de postagens problemáticas – incluindo material de exploração sexual infantil e desinformação.
Os anunciantes mostraram preocupação e começaram uma debandada. O X chegou, inclusive, a processar um grupo de anunciantes que articularam um boicote internacional contra a plataforma. Em setembro deste ano, uma pesquisa da consultoria Kantar mostrou que apenas 4% dos profissionais de marketing acham que o X protege a segurança da marca.
Agora, materiais de treinamento e relatos de trabalhadores mostram como o X tentava limpar sua imagem aos anunciantes pagando centavos para trabalhadores brasileiros – US$ 0,07 por tarefa, ou cerca de 35 centavos de real.
A moderação de conteúdo extremo no X funcionava em um projeto dentro da Appen, plataforma que oferece oportunidades de trabalho em treinamento de dados para inteligência artificial.
‘Estamos falando de conteúdos muitas vezes pesados que podem produzir danos significativos para os trabalhadores’.
Batizado de Tutakoke, ele estava disponível para colaboração de brasileiros no primeiro semestre deste ano. Não havia identificação sobre quem era o cliente – apenas uma menção genérica a uma “grande plataforma de social mídia”.
Mas os materiais de treinamento mostram que o material a ser moderado eram “tweets”, e cita como exemplos postagens dentro do próprio X, deixando clara qual era a plataforma em questão.
Tutakoke é o nome de um rio no estado norte-americano do Alaska. onde Musk há dois anos vem abrindo uma série de unidades da Tesla, sua empresa de carros elétricos, e fechando contratos para a Starlink, que fornece internet via satélite.
No e-mail de boas-vindas aos aprovados no processo seletivo, a empresa já avisava: o trabalho abordaria “conteúdos desafiadores que exigem mão firme e forte determinação”.
“Em essência, não é para os tímidos, isso exige resiliência, discernimento e um olhar atento para os detalhes. Nem sempre é uma tarefa fácil, mas é extremamente importante”, afirmou a empresa.
Para entrar no Tutakoke, os colaboradores precisavam fazer um teste que simula as tarefas disponíveis na plataforma. Algumas pessoas relataram ter visto conteúdos pornográficos já nessa etapa da seleção.
No projeto, segundo as diretrizes internas, os trabalhadores precisavam assistir e rotular imagens de terrorismo, conteúdo violento, pornografia explícita e material de exploração sexual infantil. E não recebiam qualquer suporte da Appen ou do X.
Mensagens trocadas pelos trabalhadores brasileiros que participaram do do projeto mostram que, ao contrário de outros projetos na Appen, o Tutakoke não possuía limite de horas trabalhadas. Isso significa que, seja por necessidade financeira ou pelo estímulo de gamificação da plataforma, é possível passar um número ilimitado de horas por dia rotulando os conteúdos explícitos e prejudiciais.
“Pelo que vi não tem limite de tasks… recomendam fazer uma pausa”, disse um dos trabalhadores em um grupo interno, em mensagens obtidas pelo Intercept.
“O trabalho de anotação de dados é profundamente exaustivo – física e mentalmente. Estamos falando de conteúdos muitas vezes pesados que podem produzir danos significativos para os trabalhadores da moderação – o que deveria ter implicações éticas e trabalhistas por si só”, disse ao Intercept Yasmin Curzi, pesquisadora do Karsh Institute of Democracy da University of Virginia.
Procurada, a Appen não respondeu aos nossos questionamentos sobre moderação de conteúdo, treinamento e proteção aos trabalhadores em caso de conteúdo sensível. O X também não respondeu.
Treinamento em PDF de 15 páginas
O documento que detalha as diretrizes de classificação do Tutakoke é confidencial. Nele, a Appen pediu que os trabalhadores rotulassem as postagens em 12 categorias diferentes: conteúdo adulto e sexualmente explícito; armas e munição; crimes e atos prejudiciais a sociedade ou violações aos direitos humanos; mortes e ferimentos ou conflitos militares; pirataria online; discurso de ódio e atos de agressão; obscenidade e profanidade; drogas lícitas e ilícitas; spam ou conteúdo prejudicial; terrorismo; conteúdo socialmente sensível; e desinformação.
Depois, eles deviam avaliar o grau de risco em potencial para anunciantes em uma escala e expressar seu nível de confiança em relação às análises, podendo indicar se estavam muito, relativamente ou pouco seguros.
LEIA TAMBÉM:
- Meta paga centavos por checagem sobre enchentes no RS, violência e política para treinar inteligência artificial
- TikTok pagou menos de um salário mínimo para funcionários sem registro trabalharem até 18 horas por dia
- Confissões de uma ex-moderadora do Facebook
“Lembre-se de ser honesto, só fazemos esta pergunta para entender melhor onde precisamos melhorar nossa orientação para a segurança da marca. Não há certo ou errado”, orientou a Appen.
As categorias foram divididas em graus de risco. Extremo risco, por exemplo, são as que mostram ou incitam conteúdo ou comportamento prejudicial. Alto risco são as que abrangem conteúdos prejudiciais, sem incitar. Médio risco são as que têm como propósito entretenimento ou discussões, publicado por jornalistas, especialistas, autoridades, organizações sem fins lucrativos, entre outros.
As instruções deixaram os trabalhadores confusos. “Algumas coisas se misturam, como o que envolve mortes, ferimentos e conflitos militares e terrorismo”, disse um deles no grupo.
O PDF de 15 páginas, que os trabalhadores tiveram que estudar para fazer uma prova, foi o único treinamento fornecido.
Precarização na moderação de conteúdo impacta na qualidade do trabalho
Quando se trata de conteúdos extremos, como violência, exploração sexual e terrorismo, a situação é ainda mais complexa. Moderadores que trabalham com conteúdo extremo estão sujeitos a uma série de problemas de saúde, que incluem pânico e síndrome do estresse pós-traumático. Em 2020, o Facebook já foi obrigado a indenizar em US$ 52 milhões os trabalhadores vítimas de trauma.
No Quênia, um moderador que trabalhava na Sama, uma empresa terceirizada, processou o Facebook por más condições de trabalho e falta de suporte à saúde mental. No início de 2023, uma demissão em massa na Sama fez com que os moderadores se organizassem em uma ação coletiva. Pelo menos 43 trabalhadores demitidos entraram na justiça contra a intermediária e a Meta.
No caso das plataformas de trabalho de dados, como é o caso da Appen, esses impactos na saúde mental dos trabalhadores podem ser ainda piores.
Isso porque a própria lógica de trabalho, em que os trabalhadores são isolados, executam tarefas fragmentadas, sem ter noção do propósito, já é danosa para a saúde mental – produzindo ansiedade, insegurança e angústia.
Há uma ‘radicalização da individualização do sofrimento e dos conflitos no trabalho’ nas plataformas digitais.
“A face mais precária da moderação, ao que nossas pesquisas indicam, está justamente nos projetos de moderação em plataformas digitais”, explica o psicólogo Matheus Viana Braz, que pesquisa o microtrabalho.
Além da falta de treinamento e preparação para que os trabalhadores lidem com a ansiedade, os pagamentos são mais baixos do que o trabalho de moderação nas chamadas BPOs, as empresas de terceirização deste tipo de serviço. Além disso, em seus termos de uso, as plataformas afirmam não se responsabilizar pelos danos provocados pela realização dessas atividades.
“Ambas as condições são precárias, mas nas plataformas os trabalhadores estão completamente sujeitos a desproteções sociais e trabalhistas, além de estarem isolados”, diz Braz. “Temos observado nesses casos uma radicalização da individualização do sofrimento e dos conflitos no trabalho. Resta a cada trabalhador, em sua casa, encontrar sozinho estratégias de enfrentamento aos danos psicológicos causados pelo trabalho da moderação de conteúdo”.
Em junho deste ano, o Intercept mostrou que a Meta estava desenvolvendo um sistema automatizado de checagem de fatos, também pagando centavos para trabalhadores fazerem moderação de conteúdo. Esse trabalho incluía análise de material sensível, como desinformação relacionada às enchentes no Rio Grande do Sul.
Para Curzi, da FGV, a situação de precariedade e a pressão por decisões mais céleres para atingir metas “podem fazer com que os conteúdos não sejam analisados com o cuidado devido”.
Reportagens e artigos classificados como ‘risco médio’
Conteúdos adultos e violentos – que, ao todo, contemplam ao menos metade das categorias – estavam entre os considerados mais arriscados. Já reportagens e artigos de opinião eram classificados de médio risco em qualquer uma das 12 categorias de segurança da marca.
Baixo risco eram apenas conteúdos educacionais, informativos ou científicos.
Como exemplo para conteúdos jornalísticos de “médio risco”, o documento cita um “programa jornalístico com especialistas e jornalistas discutindo a insurreição de 6 de janeiro”, nos EUA.
Há ainda certas contradições entre as decisões de Musk como dono do X e as necessidades de moderação de conteúdo apontadas no documento.
A plataforma identifica como alto o risco de publicações que contenham discursos irresponsáveis ou prejudiciais relacionados a tragédias, conflitos, violência em massa ou à exploração de questões políticas ou sociais controversas.
Exemplos incluem citações a ataques terroristas, ao Holocausto ou ao ataque terrorista de 11 de setembro, além de postagens sobre debates entre candidatos eleitorais sobre mudanças climáticas.
O próprio Musk, no entanto, já concordou com um tuíte considerado antissemita.
X tinha apenas 41 moderadores fluentes em português
Em dezembro de 2023, a Comissão Europeia anunciou a abertura de uma investigação para avaliar se a plataforma deliberadamente permite a circulação de desinformação no feed, especialmente após o início da guerra em Gaza.
O foco da investigação é o possível descumprimento do Digital Services Act (Lei de Serviços Digitais, em tradução livre), o DSA, que estabelece que todas as redes e plataformas que operam na União Europeia devem aderir a uma série de princípios, incluindo o combate ativo à desinformação e a transparência no compartilhamento de dados com reguladores europeus.
O X entregou no ano passado seu primeiro relatório de transparência sobre sua estrutura interna atual, revelando que a empresa contava apenas com 1.275 moderadores de conteúdo na União Europeia, todos com o inglês como língua principal. Apenas 27 deles eram fluentes em português ou entendiam o idioma.
JÁ ESTÁ ACONTECENDO
Quando o assunto é a ascensão da extrema direita no Brasil, muitos acham que essa é uma preocupação só para anos eleitorais. Mas o projeto de poder bolsonarista nunca dorme.
A grande mídia, o agro, as forças armadas, as megaigrejas e as big techs bilionárias ganharam força nas eleições municipais — e têm uma vantagem enorme para 2026.
Não podemos ficar alheios enquanto somos arrastados para o retrocesso, afogados em fumaça tóxica e privados de direitos básicos. Já passou da hora de agir. Juntos.
A meta ousada do Intercept para 2025 é nada menos que derrotar o golpe em andamento antes que ele conclua sua missão. Para isso, precisamos arrecadar R$ 500 mil até o ano-novo.
Você está pronto para combater a máquina bilionária da extrema direita ao nosso lado? Faça uma doação hoje mesmo.