14/10/19
 
 
Violência explícita. O que veem os revisores secretos do Facebook?

Violência explícita. O que veem os revisores secretos do Facebook?

Dreamstime Joana Marques Alves 22/09/2019 09:55

O i falou com um antigo fucionário do projeto que está a funcionar em Portugal, que tem como objetivo controlar o que é publicado na rede social.

António (nome fictício) está nervoso. Não está à vontade para falar sobre o assunto, teme que alguém veja a troca de mensagens. A empresa para a qual trabalhou obrigou-o a assinar um contrato muito rígido, que o impossibilitava de dar pormenores sobre as instalações, os horários e o que faz um revisor do Facebook. Agora que saiu da empresa, contou ao i como funciona este processo secreto, com colaboradores em Portugal e noutros locais do mundo.

O jovem lisboeta candidatou-se a uma vaga publicada em todas as agências de recrutamento. “Era um lugar como revisor de conteúdos. Candidatei-me e entrei. Não era preciso ter muitas competências, bastava só falar fluentemente inglês, ter um curso superior – não me recordo se era obrigatório – e conseguir ver conteúdos sensíveis”, conta ao i. “Quando se entra para o projeto, temos uma formação de duas semanas, toda em inglês e igual para todos os mercados – português, brasileiro, francês, espanhol e italiano, que são os mercados analisados no projeto que existe em Lisboa. No fim da segunda semana, fazemos uma prova e para ficar é necessário ter pelo menos 60% de classificação”, explica.

António não trabalhava diretamente para o Facebook, mas sim para a plataforma de moderação de conteúdos. Trabalhava por turnos de nove horas, com uma para a refeição e 30 minutos de intervalo. Este era um trabalho nonstop, com conteúdos a serem revistos ao longo de 24 horas. O projeto conta atualmente com cerca de 1000 pessoas e arrancou em Portugal em maio de 2016.

Mas em que consiste o trabalho ultrassecreto destes colaboradores anónimos da rede social? Segundo António, avaliar todos os conteúdos que são denunciados pelos utilizadores do Facebook . “Logo na semana de formação, aprendemos as políticas que iremos aplicar no dia-a-dia para tomarmos uma decisão em relação aos conteúdos que vêm parar aos nossos computadores. Temos de decidir se marcamos aquele conteúdo como perturbador, como violência explícita ou se o ignoramos e o mantemos no feed”, explica ao i.

Tudo o que é analisado por esta equipa é denunciado por utilizadores do Facebook, garante António. No entanto, são mantidos os princípios da privacidade de dados: “nós só vemos o nome de quem denuncia o conteúdo, não temos nenhum poder sobre a conta nem do denunciador nem do denunciado”.

Por vezes, são denunciados conteúdos que não têm nada de mal, “por isso o Facebook criou um algoritmo para que esse tipo de denúncia nem passasse para nós ou fosse dada uma decisão automática. É óbvio que o Facebook tem acesso a tudo e nós não”, diz o jovem.

 

Conteúdos violentos

Mas, na maior parte dos casos, estão em causa conteúdos violentos. “Via muita nudez: fotos de pessoas nuas, vídeos pornográficos, etc”, recorda António. E por vezes é preciso ter atenção a pequenos pormenores, que, segundo as políticas do Facebook, fazem a diferença: “Num conto erótico, se a frase for adjetivada é preciso ter cuidado. Por exemplo, se no texto for descrito que a mulher foi penetrada com força, o conteúdo é marcado como nudez. Se não for descrita a forma como foi penetrada, não há problema”, explica.

Outra questão difícil de avaliar é o bullying. Este é analisado de forma diferente se a vítima for uma criança ou um adulto. “Se for uma foto de uma criança que é gozada por ser gorda, o conteúdo é apagado. Se for um adulto e a denúncia não tivesse name match [correspondência] entre o denunciador e denunciado, não podíamos fazer nada...”, diz.

Durante o ano em que esteve neste projeto, António monitorizou conteúdos de todo o mundo. De onde quer que os vídeos e as fotos viessem, os mais duros eram invariavelmente os conteúdos com violência explícita. “Era horrível, para mim era uma das piores coisas. Cheguei a ver vídeos com pessoas a serem desmembradas. Os conteúdos com pedofilia também me faziam muita confusão”, conta.

 

Centenas de baixas

A maior parte das pessoas que trabalharam neste projeto foram atraídas pelas condições dadas pela empresa. “Na minha altura, o ordenado era 750 euros limpos e eram dados benefícios como plano de saúde, passe, transporte para o trabalho e tínhamos lanche e café à disposição. O salário não era muito, mas o que compensa é a segurança, não mandam ninguém embora”, explica António ao i.

Mas a verdade é que ninguém aguenta estar uma vida inteira a ver vídeos e fotografias deste género. Segundo António, algumas pessoas entraram neste projeto quando arrancou em Portugal e ainda lá estão, mas a maioria acaba por desistir pouco tempo depois de entrar. “Tem alta rotatividade porque as pessoas não aguentam a pressão psicológica, nem passar seis ou sete horas a ver conteúdos perturbadores ou vazios de sentido. Dá cabo da cabeça”, conta ao i.

Aliás, segundo António, muitas das pessoas nestas funções acabam por pôr baixa médica por não aguentarem a pressão: “Não posso ser concreto em relação aos números, mas do que me apercebo, num universo de 1000, talvez mais de 300 já tenham metido baixa pelo menos uma vez”. E o porquê de tanto secretismo? Segundo António, tem tudo a ver com razões de segurança: “Segundo o que eles nos dizem, é para nos protegerem. Se as pessoas descobrirem onde se tratam estas denúncias, podem querer fazer-nos mal. Por isso, não é revelado nada sobre o que fazemos”.

Falta de apoio Uma reportagem do The Guardian publicada esta semana dava conta dos danos psicológicos que estas funções têm causado em centenas de trabalhadores. Ex-funcionários da plataforma em Berlim contaram ao jornal britânico que alguns dos seus colegas ficaram viciados em conteúdos gráficos (como vídeos e memes), outros ficaram “deprimidos e entorpecidos pela violência, nudez e bullying” a que assistiam diariamente.

Um dos moderadores citado pelo The Guardian revelou que chegou a controlar conversas entre adultos e crianças, cujo conteúdo era “abusivo e assustador”. Outro explicou que os revisores não contam com qualquer apoio psicológico. Numa nota enviada ao jornal britânico, o Facebook afirmou que “fornece o apoio que as pessoas precisam, incluindo formação, apoio psicológico e tecnologia para limitar sua exposição ao conteúdo gráfico”, reforçando que, por se tratar de uma área nova no mercado, a empresa está “sempre a aprender e a procurar melhorar a maneira como gere os seus recursos”.

 

Iniciar Sessão
Esqueceu-se da sua password?

×
×

Subscreva a Newsletter do i

×

Pesquise no i

×