sexta-feira, 14 de agosto de 2020

o mundo secreto dos revisores de conteúdos do Facebook...

A maioria terá entre 20 e 30 anos e são contratados remotamente. Têm duas semanas de formação e depois passam a decidir se o que partilhamos pode entrar ou não. Em muitas situações, só têm dez segundos para tomar decisões. A partir de Lisboa, mal pagos e com grande rapidez, trabalham para os mercados espanhol, sul-americano, francês, italiano e alemão, contam ao Expresso dois antigos revisores de conteúdos do Facebook. Sempre que se levantam do lugar, têm de registar num programa o que foram fazer - se foram à casa de banho, fumar um cigarro, almoçar ou a outro destino. Empresa diz que os salários são competitivos e os incentivos acima da média
Quando se candidataram não sabiam ao que iam. Apenas que estavam a candidatar-se a um projecto específico na Accenture, em Lisboa. “Só me conheceram no dia em que lá fui assinar o contrato”, diz ao Expresso um antigo moderador de conteúdos que trabalhou para o Facebook a partir de Lisboa. “Não tive de fazer nenhuma entrevista presencial, apenas por telefone, além de testes de inglês e de outro idioma.” Por telefone, seria apenas informado que o trabalho envolveria “conteúdo sensível” e questionado sobre se isso constituía um problema para si.
É na Accenture, em Lisboa - num edifício separado das restantes operações - que trabalham alguns dos revisores de conteúdo do Facebook. A maioria são jovens entre os 20 e os 30 anos, licenciados em áreas tão diferentes como marketing, design, gestão hoteleira e relações internacionais, entre outras, que trabalham desde a capital para os mercados espanhol, sul-americano, francês e italiano (e, recentemente, alemão), segundo contam ao Expresso dois ex-trabalhadores. Há muitos estrangeiros “que veem aqui uma oportunidade de trabalho”, tal como jovens. “Lembro-me apenas de duas pessoas com mais de 40 anos”, conta um dos entrevistados.
O critério de selecção destes colaboradores não é conhecido. “Houve uma altura em que parecia que bastava estar disponível para entrar no trabalho”, diz um dos antigos trabalhadores, embora reconheça que “não contratavam qualquer pessoa”. “Penso que valorizavam quem tivesse uma licenciatura, mas as entrevistas de emprego eram básicas.”
Envoltos em secretismo, pouco se sabe sobre os revisores de conteúdos do Facebook. Mas antigos revisores de conteúdos do Facebook ouvidos pelo Expresso lançam alguma luz sobre o dia a dia desta espécie de jurados que decidem o que pode - ou não - ser publicado na rede social.
AS “LEIS” DO FACEBOOK
A entrada no universo da moderação dos conteúdos do Facebook começa com um curso de duas semanas - remunerado e que termina com um exame prático -, onde se mostram “as leis do Facebook” e “casos práticos” para exemplificar “as decisões a tomar nas diferentes situações”, explicam as fontes contactadas pelo Expresso. Cada publicação (texto, fotografia, vídeo) é identificada e analisada por “uma combinação entre inteligência artificial e relatórios de pessoas” e revista por uma rede global de moderadores em várias localizações que trabalham 24 horas por dia, sete dias por semana, em mais de 40 idiomas, diz ao Expresso o Facebook.
Em cada conteúdo há três caminhos possíveis: manter, bloquear ou escalar (isto é, avisar os chefes de equipa para que estes decidam se contactam o Facebook, autoridades, equipas de apoio ao suicídio, antiterrorismo, etc.). Os revisores podem ainda contar com a ajuda de especialistas em áreas específicas da moderação (conteúdo sexual, terrorismo, segurança infantil, entre outras), que não são necessariamente pessoas com formação académica ou profissional anterior nestas áreas.“São formadas pelo Facebook”, esclarecem os antigos moderadores. Apesar disso, Monika Bickert, vice-presidente da política global de produto da empresa, afirmou em comunicado na semana passada que muitos dos especialistas que estão nos 11 escritórios espalhados pelo mundo “já trabalharam em questões relacionadas com estes temas antes de virem para o Facebook”.
Em Lisboa, os revisores que entram na empresa integram normalmente uma equipa que se dedica a analisar conteúdos alegadamente “menos violentos”, como ofensas em comentários, fotografias ou vídeos, acidentes, publicações terroristas ou mutilação de animais. “Também vemos conteúdos mais agressivos, mas não somos obrigados a isso, podemos passar à frente”, esclarece um dos entrevistados. Mas se diariamente 98% dos itens avaliados por um revisor tivessem qualidade (ou seja, estivessem correctamente avaliados) este passava automaticamente para a equipa de High PRY (Prioridade Máxima). Esta, sim, tem de avaliar conteúdos mais sensíveis: automutilação, suicídio, bullying, entre outros. “E se tivessem esse padrão de qualidade, as pessoas não tinham muita escolha, era ‘vais e vais’”, reconhece uma das fontes.

Sempre que se levantam do lugar, os revisores têm de registar num programa o que foram fazer - se foram à casa de banho, fumar um cigarro, almoçar ou a outro destino. O resto do tempo estão sentados em frente ao computador a avaliar, no mínimo, entre 1500 e 1700 conteúdos. Ao Expresso, os moderadores confirmam aquilo que o jornal “The Guardian” noticiou no ano passado e garantem que o Facebook não mudou as orientações na sequência dessas notícias: em muitas situações só têm dez segundos para tomar decisões. E aqui as opiniões dividem-se. Uns acusam a pressão, outros não. E se há quem considere que dez segundos é suficiente (“muitos itens são básicos, para mim era automático”), há também quem discorde por existirem “muitos casos subjetivos e difíceis de decidir”. “Não trabalhávamos demasiado [8 horas], mas era um trabalho muito stressante e psicologicamente exigente”, sublinha um dos antigos revisores. É também por isso que a multinacional disponibiliza gratuitamente acompanhamento psicológico aos colaboradores. “Há uma psicóloga todos os dias na empresa”, garantem as fontes ouvidas.
Onde as opiniões convergem é nas condições oferecidas aos trabalhadores. Apesar de “óptimas condições de espaço e material”, incluindo shuttle para a empresa, pelo menos até ao final do ano passado muitos revisores de conteúdo recebiam o ordenado mínimo (além de um bónus anual por dominarem determinado idioma). “Visto que nos pediam duas línguas e trabalhávamos conteúdos difíceis, o salário mínimo não era suficiente”, aponta um dos colaboradores. Depois de algumas reivindicações por parte dos trabalhadores em Lisboa, a remuneração acabaria por ser actualizada “em cerca de mais €200”, indicam. Ainda assim, “há quem diga que este trabalho é o lixo da internet”, acrescenta o outro moderador, evidenciando uma “grande rotatividade” na empresa e “pessoas a entrar e a sair”. “Até não é difícil crescer lá dentro e passar a chefe de equipa, mas poucas pessoas querem ficar.”
Depois de mais de uma semana de sucessivos contactos do Expresso junto do Facebook, a tecnológica nega as denúncias sobre a remuneração e condições dos revisores de conteúdos, acrescentando que as equipas de moderadores pelo mundo dispõem de acompanhamento, bem como um salário competitivo e pacotes de recompensas e incentivos acima da média do sector. Já a Accenture não se pronunciou, encaminhando o Expresso para o Facebook.

TRANSPARÊNCIA CONTRA A CENSURA
A divulgação, há pouco mais de uma semana, das orientações que os 7.500 moderadores do Facebook pelo mundo seguem para permitir ou proibir determinados conteúdos (padrões de comunidade) - e o anúncio que a rede social passa a dar a possibilidade aos utilizadores de recorrerem das suas decisões - voltou a trazer para o espaço público a questão sobre quem são estes moderadores e como tomam decisões sobre aquilo que é publicado.
As condições a que os moderadores dizem estar sujeitos, nomeadamente a remuneração e a pressão ou rapidez de decisão, são apontadas como a principal dificuldade deste trabalho em Lisboa. Mas este não é um problema exclusivo da empresa liderada por Mark Zuckerberg, nota Carla Baptista. A professora e investigadora da Universidade Nova afirma que, embora imagine que seja “difícil e precário”, é uma circunstância “do trabalho digital no mundo em que vivemos, rápido e sem reflexão”. “Serem mal pagos é transversal à sociedade. Claro que é uma discussão que devemos ter, mas é uma discussão laboral mais abrangente.”
Certo é que as condições a que estão sujeitos podem afetar a qualidade da moderação, aponta Marisa Torres da Silva, professora e investigadora da Universidade Nova. “A regulação é importante e deve estar presente, mas não é indiferente a forma como é feita”, defende Marisa Torres da Silva, especialista em áreas como media digitais, democracia e moderação online. “Se for excessiva, com disparidade de critérios e pouco transparente, não cumpre o seu papel.” É por isso que a formação e literacia para os media são tão importantes. “Serem jovens e de diferentes áreas não me parece problemático, mas duas semanas de formação não são suficientes para torná-los aptos a tomar decisões tão sensíveis.” E questiona ainda: “Como é possível decisões destas serem tomadas em dez segundos?”.

Num império de mais de dois mil milhões de utilizadores, que transforma a rede social no maior ‘país’ do mundo, as políticas definidas e decisões adopadas não são inócuas. É isso que defende o Onlinecensorship.org (projecto da Electronic Frontier Foundation e da Visualizing Impact que se dedica a identificar casos e padrões de conteúdos ou perfis retirados indevidamente nas redes sociais) ao evidenciar que “as empresas de redes sociais têm demasiado controlo sobre o discurso dos utilizadores, o que pode e leva muitas vezes a casos de censura [de discurso legítimo]”. “É particularmente problemático que estas empresas apliquem as suas regras sem transparência ou um processo justo”, explica ao Expresso Jessica Anderson, que pertence à equipa do projecto, acrescentando que mais transparência traz mais facilidade em reconhecer padrões de censura (moderação excessiva), em corrigi-los e em criar um debate público sobre as regras que regulam a actividade online.
No caso do Facebook, realça que os principais problemas passam pela falta de transparência “em relação aos critérios e forma como os faz cumprir” e ausência de um processo justo - embora considere positiva a decisão recente de permitir que os utilizadores possam recorrer das decisões dos moderadores. Além destes, existem ainda problemas relativos ao conteúdo e interpretação dos Padrões de Comunidade, moderação em escala, abuso da sinalização pelos utilizadores (flag), entre outros.
Carla Baptista recorda “histórias ridículas” em que fotos de mulheres a amamentar ou até de interesse jornalístico foram banidas. E Marisa Torres da Silva realça que existem critérios pouco claros. Veja-se o exemplo do discurso de ódio. Além de ser muito difícil de definir e de depender do contexto, “as orientações para o discurso de ódio têm muitas vezes um duplo critério que não se percebe”, explica. “Por exemplo: é permitido dizer que os refugiados são sujos e preguiçosos, mas não que os ingleses são os melhores e os espanhóis uma porcaria. Como no primeiro caso é usado um adjetivo, isso não é classificado como discurso de ódio - é considerado descrição da aparência de um grupo de pessoas e não da sua natureza.” É por isso que defende uma discussão alargada sobre os critérios para a moderação na rede social.
Ainda assim, este passo recente do Facebook no sentido de dar a conhecer os critérios de moderação e de dar mais poder aos utilizadores é aplaudido pelos especialistas. “Tudo o que sirva para fornecer transparência a processos de decisão tão obscuros como os do Facebook é um passo positivo”, acredita Marisa Torres da Silva. Mas a investigadora não se ilude e alerta para as motivações “económicas” da tecnológica: “os problemas com os anunciantes têm sido muitos”. Carla Baptista concorda: esta “é uma resposta a uma situação de crise”, não “uma decisão altruísta”. “Não há aqui nada de novo”, diz. “O Facebook já fazia esta moderação desastradamente e sem critério. Agora divulgou as orientações, como os moderadores vão atuar é outra questão.” (Como funciona em Lisboa o mundo secreto dos revisores de conteúdos do Facebook por MARIA JOÃO BOURBON)