Ex-moderador do Facebook vive “filme de terror” após trabalhar em “ambiente perigoso e degradante”

O sul-africano Daniel Motaung, ex-moderador da Meta, apela à melhoria das condições de trabalho destes ‘filtros’ de conteúdos. “Motaung representa toda uma classe quando afirma que os trabalhadores não têm bem a certeza das tarefas que desempenharão quando aceitam este cargo”, diz a jornalista Cecilia Kang.

A Meta – dona do Facebook – e o seu maior parceiro de outsourcing em África estão a enfrentar novas alegações de trabalho forçado, tráfico de pessoas e repressão sindical no Quénia. Tal aconteceu porque Daniel Motaung, ex-moderador da plataforma – pessoas subcontratadas pelo Facebook para decidir aquilo que deve permanecer na rede social e identificar as publicações que devem ser removidas por desrespeitarem as normas que a empresa de Mark Zuckerberg definiu -, entrou com uma ação contra a empresa que detém o Facebook por alegar que as condições de trabalho dos moderadores de conteúdo violam a constituição daquele país.

A petição também foi apresentada contra a empresa Sama, pois o antigo trabalhador alega que ele e os restantes colegas, ao visualizarem publicações veiculadas no Facebook, terão sido submetidos a condições de trabalho inaceitáveis, como o pagamento irregular dos vencimentos, o apoio inadequado à saúde mental, o impedimento da realização de ações por parte dos sindicatos (union busting) e as violações da privacidade e dignidade, que deviam ter sido acauteladas.

Deste modo, apesar de a ação ter sido movida, em primeira instância, por Motaung, o queniano pretende obter justiça em nome de todo o grupo que desempenha estas funções através da obtenção de uma indemnização, de cuidados de saúde e escala salarial similares aos dos funcionários oficiais da Meta, a proteção dos direitos de sindicalização e defende ainda a existência de uma auditoria independente de direitos humanos do escritório.

“Assumimos seriamente a nossa responsabilidade com as pessoas que analisam o conteúdo da Meta e exigimos que os nossos parceiros forneçam pagamento, benefícios e suportem líderes do setor. Também incentivamos os revisores de conteúdo a levantar questões quando tomarem conhecimento delas e a realizar auditorias independentes regularmente para garantir que os nossos parceiros estão a atender aos altos padrões que esperamos”, disse um porta-voz da Meta, em declarações à Reuters, sendo que a Sama recusou tecer qualquer comentário antes de ter acesso ao processo.

Porém, esta rejeitou, anteriormente, alegações relativas ao pagamento injusto de salários, tendo frisado também que o processo de recrutamento não é “opaco” como tem vindo a ser divulgado e discordando também da desvalorização dos cuidados de saúde mental. “Isto pode ter um efeito cascata. O Facebook terá que revelar muito sobre como administra a sua operação de moderação”, declarou Odanga Madung, membro da Mozilla Foundation, uma organização global sem fins lucrativos sediada nos EUA que se dedica à preservação dos direitos humanos na internet.

 

A Meta “está a destruir a saúde mental de milhares de moderadores”

No final do passado mês de março, em entrevista ao i, Cecilia Kang, jornalista do New York Times que assina o livro Manipulados juntamente com a colega Sheera Frankel, explicou que esta rede social é “uma agência de publicidade que vigia os utilizadores”. Em agosto de 2019, soube-se que o Facebook contratara trabalhadores externos para ouvirem e transcreverem clipes de áudio dos utilizadores.

À época, a prática foi confirmada pela empresa e alvo de controvérsia desde que começou a ser divulgado pelo site Bloomberg que o Facebook pagara a milhares de trabalhadores externos para ouvirem e transcreverem clipes de áudio dos utilizadores, de acordo com fontes “que conhecem o trabalho da empresa” e que avançaram esta prática ao site que se dedica às temáticas de tecnologia e dados do mercado financeiro.

Segundo a investigação, “os trabalhadores não sabiam como é que os áudios tinham sido gravados ou obtidos” e “sabiam apenas que estavam a ouvir conversas, muitas das vezes com conteúdo normal, mas desconheciam o motivo pelo qual o faziam”. “Tal como a Apple e a Google, nós fizemos uma pausa nesta revisão humana há uma semana” explicou a empresa de Mark Zuckerberg em comunicado, adiantando que “os utilizadores que foram afetados escolheram a opção, na aplicação do Messenger, de terem as suas conversas áudio transcritas”.

“Suicídios, homicídios, decapitações e outros atos cometidos pelo Estado Islâmico, cumprimento de tarefas de desafios suicidas online, pedofilia, racismo, violência, pornografia… Os moderadores estão sujeitos a isto e muito mais, sendo que Motaung representa toda uma classe quando afirma que os trabalhadores não têm bem a certeza das tarefas que desempenharão quando aceitam este cargo”, diz agora, assumindo que a Meta “está a destruir a saúde mental de milhares de moderadores” e fá-lo porque “se aproveita das empresas de outsourcing que estão espalhadas pelo mundo”.

“Voluntariamente, enquanto consumidores, estamos constantemente a fomentar o negócio destas empresas. Precisam que estejamos sempre a interagir e a dar-lhes informação para depois a venderem a empresas de publicidade”, acrescentou. “O Facebook tenta esconder aquilo em que se baseia o seu modelo de negócio quando proclama objetivos repletos de suposta legalidade e as missões de conectar o mundo e aproximar as pessoas. Contudo, é uma agência de publicidade que vigia os utilizadores! Sabe aquilo de que gostamos, fazemos… É simples desta forma!”.

Em 2021, a Meta enfrentou o escrutínio das condições de trabalho dos moderadores de conteúdo quando um juiz do estado norte-americano da Califórnia aprovou um acordo de 85 milhões de dólares (o equivalente a quase 81 milhões de euros) entre esta e mais de 10 mil moderadores de conteúdo que acusaram a empresa de não os ter protegido de danos psicológicos resultantes da exposição a imagens gráficas e violentas.

Embora o Facebook não tenha admitido irregularidades no caso da Califórnia, concordou em tomar medidas para fornecer aos seus moderadores de conteúdo, que são empregados de parceiros terceirizados, ambientes de trabalho mais seguros. Algo que Motaung voltou a denunciar, relatando a experiência que viveu após ter sido recrutado, há três anos, para trabalhar para a Sama.

Até agora, sabe-se que o primeiro vídeo que Motaung se lembra de ter visto foi o de uma decapitação. Por outro lado, o pagamento e apoio à saúde mental não eram adequados para que ele e os colegas lidassem com o “conteúdo perturbador”. “Fui diagnosticado com transtorno de stress pós-traumático”, confessou Motaung à Reuters. “Estou a viver um filme de terror”.

“Quando me candidatei à vaga de emprego, tinha acabado de sair da universidade e estava numa missão de tirar a minha família da pobreza. Seis meses depois, a minha saúde física e mental tinham sido destruídas”, narrou. “O Mark Zuckerberg e os seus comparsas em empresas como a Sama não podem tratar as pessoas assim. É por isso que estou a fazer isto. Não somos animais. Somos pessoas – e temos o direito de sermos tratados como tal”.

O sul-africano está a ser representado por advogados que realçam que a Meta e a Sama criaram “um ambiente perigoso e degradante onde os trabalhadores não receberam as mesmas proteções que os funcionários de outros países”. “Se em Dublin as pessoas não podem ver conteúdo nocivo por duas horas, essa deveria ser a regra em todos os lugares”, asseverou uma das advogadas, Mercy Mutemi. “Se eles precisam de ter um psicólogo de plantão, isso deve ser aplicado em todos os lugares”.

Pouco depois de ter ingressado na Sama, Motaung tentou formar um sindicato para defender os cerca de 200 trabalhadores da empresa em Nairóbi. No entanto, foi demitido quase de imediato e continua a salientar que tal ocorreu devido à tentativa de sindicalização. Por isso mesmo, narrou a sua experiência, em primeira mão, à revista Time, em fevereiro.