A
maioria terá entre 20 e 30 anos e são contratados remotamente. Têm duas semanas
de formação e depois passam a decidir se o que partilhamos pode entrar ou não.
Em muitas situações, só têm dez segundos para tomar decisões. A partir de
Lisboa, mal pagos e com grande rapidez, trabalham para os mercados espanhol,
sul-americano, francês, italiano e alemão, contam ao Expresso dois antigos
revisores de conteúdos do Facebook. Sempre que se levantam do lugar, têm de
registar num programa o que foram fazer - se foram à casa de banho, fumar um
cigarro, almoçar ou a outro destino. Empresa diz que os salários são
competitivos e os incentivos acima da média
Quando
se candidataram não sabiam ao que iam. Apenas que estavam a candidatar-se a um
projecto específico na Accenture, em Lisboa. “Só me conheceram no dia em que lá
fui assinar o contrato”, diz ao Expresso um antigo moderador de conteúdos que
trabalhou para o Facebook a partir de Lisboa. “Não tive de fazer nenhuma
entrevista presencial, apenas por telefone, além de testes de inglês e de outro
idioma.” Por telefone, seria apenas informado que o trabalho envolveria
“conteúdo sensível” e questionado sobre se isso constituía um problema para si.
É na
Accenture, em Lisboa - num edifício separado das restantes operações - que
trabalham alguns dos revisores de conteúdo do Facebook. A maioria são jovens
entre os 20 e os 30 anos, licenciados em áreas tão diferentes como marketing,
design, gestão hoteleira e relações internacionais, entre outras, que trabalham
desde a capital para os mercados espanhol, sul-americano, francês e italiano
(e, recentemente, alemão), segundo contam ao Expresso dois ex-trabalhadores. Há
muitos estrangeiros “que veem aqui uma oportunidade de trabalho”, tal como
jovens. “Lembro-me apenas de duas pessoas com mais de 40 anos”, conta um dos
entrevistados.
O
critério de selecção destes colaboradores não é conhecido. “Houve uma altura em
que parecia que bastava estar disponível para entrar no trabalho”, diz um dos
antigos trabalhadores, embora reconheça que “não contratavam qualquer pessoa”.
“Penso que valorizavam quem tivesse uma licenciatura, mas as entrevistas de
emprego eram básicas.”
Envoltos
em secretismo, pouco se sabe sobre os revisores de conteúdos do Facebook. Mas
antigos revisores de conteúdos do Facebook ouvidos pelo Expresso lançam alguma
luz sobre o dia a dia desta espécie de jurados que decidem o que pode - ou não
- ser publicado na rede social.
AS
“LEIS” DO FACEBOOK
A
entrada no universo da moderação dos conteúdos do Facebook começa com um curso
de duas semanas - remunerado e que termina com um exame prático -, onde se
mostram “as leis do Facebook” e “casos práticos” para exemplificar “as decisões
a tomar nas diferentes situações”, explicam as fontes contactadas pelo
Expresso. Cada publicação (texto, fotografia, vídeo) é identificada e analisada
por “uma combinação entre inteligência artificial e relatórios de pessoas” e
revista por uma rede global de moderadores em várias localizações que trabalham
24 horas por dia, sete dias por semana, em mais de 40 idiomas, diz ao Expresso
o Facebook.
Em
cada conteúdo há três caminhos possíveis: manter, bloquear ou escalar (isto é,
avisar os chefes de equipa para que estes decidam se contactam o Facebook,
autoridades, equipas de apoio ao suicídio, antiterrorismo, etc.). Os revisores
podem ainda contar com a ajuda de especialistas em áreas específicas da
moderação (conteúdo sexual, terrorismo, segurança infantil, entre outras), que
não são necessariamente pessoas com formação académica ou profissional anterior
nestas áreas.“São formadas pelo Facebook”, esclarecem os antigos moderadores.
Apesar disso, Monika Bickert, vice-presidente da política global de produto da
empresa, afirmou em comunicado na semana passada que muitos dos especialistas
que estão nos 11 escritórios espalhados pelo mundo “já trabalharam em questões
relacionadas com estes temas antes de virem para o Facebook”.
Em
Lisboa, os revisores que entram na empresa integram normalmente uma equipa que
se dedica a analisar conteúdos alegadamente “menos violentos”, como ofensas em
comentários, fotografias ou vídeos, acidentes, publicações terroristas ou
mutilação de animais. “Também vemos conteúdos mais agressivos, mas não somos
obrigados a isso, podemos passar à frente”, esclarece um dos entrevistados. Mas
se diariamente 98% dos itens avaliados por um revisor tivessem qualidade (ou
seja, estivessem correctamente avaliados) este passava automaticamente para a
equipa de High PRY (Prioridade Máxima). Esta, sim, tem de avaliar conteúdos
mais sensíveis: automutilação, suicídio, bullying, entre outros. “E se tivessem
esse padrão de qualidade, as pessoas não tinham muita escolha, era ‘vais e
vais’”, reconhece uma das fontes.
Sempre
que se levantam do lugar, os revisores têm de registar num programa o que foram
fazer - se foram à casa de banho, fumar um cigarro, almoçar ou a outro destino.
O resto do tempo estão sentados em frente ao computador a avaliar, no mínimo,
entre 1500 e 1700 conteúdos. Ao Expresso, os moderadores confirmam aquilo que o
jornal “The Guardian” noticiou no ano passado e garantem que o Facebook não
mudou as orientações na sequência dessas notícias: em muitas situações só têm
dez segundos para tomar decisões. E aqui as opiniões dividem-se. Uns acusam a
pressão, outros não. E se há quem considere que dez segundos é suficiente
(“muitos itens são básicos, para mim era automático”), há também quem discorde
por existirem “muitos casos subjetivos e difíceis de decidir”. “Não
trabalhávamos demasiado [8 horas], mas era um trabalho muito stressante e psicologicamente
exigente”, sublinha um dos antigos revisores. É também por isso que a
multinacional disponibiliza gratuitamente acompanhamento psicológico aos
colaboradores. “Há uma psicóloga todos os dias na empresa”, garantem as fontes
ouvidas.
Onde
as opiniões convergem é nas condições oferecidas aos trabalhadores. Apesar de
“óptimas condições de espaço e material”, incluindo shuttle para a empresa, pelo
menos até ao final do ano passado muitos revisores de conteúdo recebiam o
ordenado mínimo (além de um bónus anual por dominarem determinado idioma).
“Visto que nos pediam duas línguas e trabalhávamos conteúdos difíceis, o
salário mínimo não era suficiente”, aponta um dos colaboradores. Depois de
algumas reivindicações por parte dos trabalhadores em Lisboa, a remuneração
acabaria por ser actualizada “em cerca de mais €200”, indicam. Ainda assim, “há
quem diga que este trabalho é o lixo da internet”, acrescenta o outro
moderador, evidenciando uma “grande rotatividade” na empresa e “pessoas a
entrar e a sair”. “Até não é difícil crescer lá dentro e passar a chefe de
equipa, mas poucas pessoas querem ficar.”
Depois
de mais de uma semana de sucessivos contactos do Expresso junto do Facebook, a
tecnológica nega as denúncias sobre a remuneração e condições dos revisores de
conteúdos, acrescentando que as equipas de moderadores pelo mundo dispõem de
acompanhamento, bem como um salário competitivo e pacotes de recompensas e
incentivos acima da média do sector. Já a Accenture não se pronunciou,
encaminhando o Expresso para o Facebook.
A
divulgação, há pouco mais de uma semana, das orientações que os 7.500
moderadores do Facebook pelo mundo seguem para permitir ou proibir determinados
conteúdos (padrões de comunidade) - e o anúncio que a rede social passa a dar a
possibilidade aos utilizadores de recorrerem das suas decisões - voltou a
trazer para o espaço público a questão sobre quem são estes moderadores e como
tomam decisões sobre aquilo que é publicado.
As
condições a que os moderadores dizem estar sujeitos, nomeadamente a remuneração
e a pressão ou rapidez de decisão, são apontadas como a principal dificuldade
deste trabalho em Lisboa. Mas este não é um problema exclusivo da empresa
liderada por Mark Zuckerberg, nota Carla Baptista. A professora e investigadora
da Universidade Nova afirma que, embora imagine que seja “difícil e precário”,
é uma circunstância “do trabalho digital no mundo em que vivemos, rápido e sem
reflexão”. “Serem mal pagos é transversal à sociedade. Claro que é uma
discussão que devemos ter, mas é uma discussão laboral mais abrangente.”
Certo
é que as condições a que estão sujeitos podem afetar a qualidade da moderação,
aponta Marisa Torres da Silva, professora e investigadora da Universidade Nova.
“A regulação é importante e deve estar presente, mas não é indiferente a forma
como é feita”, defende Marisa Torres da Silva, especialista em áreas como media
digitais, democracia e moderação online. “Se for excessiva, com disparidade de
critérios e pouco transparente, não cumpre o seu papel.” É por isso que a
formação e literacia para os media são tão importantes. “Serem jovens e de
diferentes áreas não me parece problemático, mas duas semanas de formação não
são suficientes para torná-los aptos a tomar decisões tão sensíveis.” E
questiona ainda: “Como é possível decisões destas serem tomadas em dez
segundos?”.
Num
império de mais de dois mil milhões de utilizadores, que transforma a rede
social no maior ‘país’ do mundo, as políticas definidas e decisões adopadas não
são inócuas. É isso que defende o Onlinecensorship.org (projecto da Electronic
Frontier Foundation e da Visualizing Impact que se dedica a identificar casos e
padrões de conteúdos ou perfis retirados indevidamente nas redes sociais) ao
evidenciar que “as empresas de redes sociais têm demasiado controlo sobre o
discurso dos utilizadores, o que pode e leva muitas vezes a casos de censura
[de discurso legítimo]”. “É particularmente problemático que estas empresas
apliquem as suas regras sem transparência ou um processo justo”, explica ao
Expresso Jessica Anderson, que pertence à equipa do projecto, acrescentando que
mais transparência traz mais facilidade em reconhecer padrões de censura
(moderação excessiva), em corrigi-los e em criar um debate público sobre as
regras que regulam a actividade online.
No
caso do Facebook, realça que os principais problemas passam pela falta de
transparência “em relação aos critérios e forma como os faz cumprir” e ausência
de um processo justo - embora considere positiva a decisão recente de permitir que
os utilizadores possam recorrer das decisões dos moderadores. Além destes,
existem ainda problemas relativos ao conteúdo e interpretação dos Padrões de
Comunidade, moderação em escala, abuso da sinalização pelos utilizadores
(flag), entre outros.
Carla
Baptista recorda “histórias ridículas” em que fotos de mulheres a amamentar ou
até de interesse jornalístico foram banidas. E Marisa Torres da Silva realça
que existem critérios pouco claros. Veja-se o exemplo do discurso de ódio. Além
de ser muito difícil de definir e de depender do contexto, “as orientações para
o discurso de ódio têm muitas vezes um duplo critério que não se percebe”,
explica. “Por exemplo: é permitido dizer que os refugiados são sujos e
preguiçosos, mas não que os ingleses são os melhores e os espanhóis uma
porcaria. Como no primeiro caso é usado um adjetivo, isso não é classificado
como discurso de ódio - é considerado descrição da aparência de um grupo de
pessoas e não da sua natureza.” É por isso que defende uma discussão alargada sobre
os critérios para a moderação na rede social.
Ainda
assim, este passo recente do Facebook no sentido de dar a conhecer os critérios
de moderação e de dar mais poder aos utilizadores é aplaudido pelos
especialistas. “Tudo o que sirva para fornecer transparência a processos de
decisão tão obscuros como os do Facebook é um passo positivo”, acredita Marisa
Torres da Silva. Mas a investigadora não se ilude e alerta para as motivações
“económicas” da tecnológica: “os problemas com os anunciantes têm sido muitos”.
Carla Baptista concorda: esta “é uma resposta a uma situação de crise”, não
“uma decisão altruísta”. “Não há aqui nada de novo”, diz. “O Facebook já fazia
esta moderação desastradamente e sem critério. Agora divulgou as orientações,
como os moderadores vão atuar é outra questão.” (Como
funciona em Lisboa o mundo secreto dos revisores de conteúdos do Facebook
por MARIA JOÃO
BOURBON)