Compartilhando ódio

O Facebook tentou, mas não conseguiu parar mentiras e ira na Ásia. Resultado: milhares de mortos na vida real

Steve Stecklow Da Reuters, em Yangon (Mianmar)
Soe Zeya Tun/Reuters

Em abril deste ano, o fundador do Facebook, Mark Zuckerberg, disse a senadores dos EUA que sua rede social contrataria dezenas de birmaneses para monitorar o discurso de ódio publicado em Mianmar, onde 700 mil pessoas da comunidade rohingya fugiram em meio à violência étnica e militar.

Quem apontou que o Facebook vinha sendo usado para incitar a violência e o ódio contra o grupo minoritário muçulmano foi a ONU. "A plataforma se transformou em um monstro", disse a entidade. 

Os posts agressivos chamam os rohingya ou outros muçulmanos de cães, vermes e estupradores, sugerindo que eles sirvam de alimentos aos porcos e que sejam mortos ou exterminados. O material também inclui imagens antimuçulmanas grosseiramente pornográficas.

As regras da empresa proíbem especificamente atacar grupos étnicos com "discurso violento ou desumanizado" ou compará-los a animais. O Facebook também tem uma política rigorosa contra o conteúdo pornográfico.

O uso do Facebook para espalhar o discurso de ódio contra os rohingya no país de maioria budista tem sido amplamente divulgado por organizações não governamentais. Agora, uma investigação da Reuters tenta descobrir por que a empresa não conseguiu resolver o problema.

Ed Jones/AFP Ed Jones/AFP

Facebook está perdendo a guerra para o discurso de ódio em Mianmar

Um usuário do Facebook posta em um anúncio de restaurante com comida ao estilo rohingya. "Devemos combatê-los do mesmo modo que Hitler fez os judeus, malditos kalars!", escreveu, usando uma palavra pejorativa para referir-se aos rohingya. Esse post foi publicado em dezembro de 2013.

Outro post mostrou uma reportagem de uma publicação controlada pelo Exército sobre ataques a delegacias de polícia por militantes rohingya. "Esses cães kalar não-humanos, os bengalis, estão matando e destruindo nossa terra, nossa água e nossa etnia", escreveu o usuário. "Precisamos destruir a raça deles." Esse post foi publicado em setembro passado, quando a violência contra os rohingya aumentou.

Um terceiro usuário compartilhou um item de um blog que mostra um grande número de refugiados rohingya na Indonésia. "Despeje combustível e ateie fogo para que eles possam conhecer Alá mais rápido", escreveu no comentário. O post apareceu 11 dias depois do depoimento de Zuckerberg no Senado.

Esses trechos estão entre os mais de mil exemplos encontrados pela Reuters em posts, comentários, imagens e vídeos atacando os rohingya ou outros muçulmanos de Mianmar que estavam no Facebook em agosto. Quase todos estão na principal língua local, a birmanesa. A investigação anti-rohingya e antimuçulmana analisada para esta reportagem --que foi coletada pela Reuters e pelo Centro de Direitos Humanos da Escola de Direito da Universidade da Califórnia, em Berkeley  --inclui material que está no Facebook há seis anos.

JOEL SAGET / AFP JOEL SAGET / AFP

60 pessoas revisam posts de 18 milhões de usuários

Durante anos, o Facebook dedicou recursos escassos para combater o discurso de ódio em Mianmar, um mercado que domina e no qual tem havido surtos regulares de violência étnica. No início de 2015, havia apenas duas pessoas no Facebook que falavam birmanês revisando postagens problemáticas. Antes disso, a maioria das pessoas que revisava o conteúdo birmanês falava inglês.

Até hoje, a empresa continua dependendo fortemente de usuários que relatam discursos de ódio, em parte porque seus sistemas lutam para interpretar o texto birmanês.

Mesmo agora, o Facebook não tem um único funcionário em Mianmar, país de cerca de 50 milhões de pessoas. Em vez disso, monitora o discurso de ódio do exterior. Isso é feito principalmente por meio de uma operação secreta em Kuala Lumpur que é terceirizada para a Accenture, uma empresa de serviços profissionais, com o codinome de "Projeto Honey Badger".

De acordo com pessoas familiarizadas com o assunto, o projeto, que lida com muitos países asiáticos, contratou seus dois primeiros falantes de birmanês, baseados em Manila (Filipinas), há apenas três anos. Até junho, o Honey Badger tinha cerca de 60 pessoas revisando relatos de incitação ao ódio e outros conteúdos postados por 18 milhões de usuários ativos em Mianmar no Facebook. O próprio Facebook em abril contava com três falantes de birmanês em tempo integral em uma operação separada de monitoramento em sua sede internacional em Dublin, segundo um ex-funcionário.

Os funcionários da Honey Badger normalmente assinam contratos renováveis de um ano e concordam em não divulgar que seu cliente é o Facebook. A Reuters entrevistou mais de meia dúzia de ex-monitores que revisaram o conteúdo do Sudeste Asiático.

Um funcionário do Facebook afirmou que é mais eficiente terceirizar seu monitoramento de conteúdo porque as empresas que ele usa são especialistas em tais operações. Ele se recusou a divulgar quantos falantes de birmanês a empresa tem no mundo, dizendo que era "impossível saber e ser conclusivo sobre isso".

"Não é o suficiente", acrescentou.

Anna Wang / Reuters Anna Wang / Reuters

Para muitas pessoas em Mianmar, o Facebook é toda a internet: é tão dominante que é o único site que eles usam online. No entanto, desde 2013, a empresa ignorou repetidos avisos de problema.

Pesquisadores e ativistas de direitos humanos dizem que, por anos, advertiram o Facebook que sua plataforma estava sendo usada em Mianmar para promover o racismo e o ódio contra os muçulmanos, em particular os rohingya.

"Eles foram advertidos muitas vezes", disse David Madden, um empresário de tecnologia que trabalhou em Mianmar. Ele diz que afirmou às autoridades do Facebook em 2015 que a plataforma estava sendo usada para fomentar o ódio em uma palestra na sede da empresa em Menlo Park, Califórnia. Cerca de uma dúzia de pessoas no Facebook participaram presencialmente da reunião, incluindo Mia Garlick, agora diretora de diretrizes da Ásia-Pacífico, disse ele. Outros se juntaram via vídeo. "Não poderia ter sido apresentado a eles com mais clareza e eles não tomaram as medidas necessárias", disse Madden.

Em um comunicado, Garlick disse à Reuters: "Nós fomos muito lentos para responder às preocupações levantadas pela sociedade civil, acadêmicos e outros grupos em Mianmar. Não queremos que o Facebook seja usado para espalhar o ódio e incitar a violência. Isso é verdade em todo o mundo, mas é especialmente verdadeiro em Mianmar, onde nossos serviços podem ser usados para amplificar o ódio ou exacerbar o dano contra os rohingya".

Ela acrescentou que o Facebook está focado em enfrentar desafios que são exclusivos de Mianmar "por meio de uma combinação de pessoas, tecnologia, políticas e programas". A empresa também disse que proibiu vários "personagens e organizações de ódio" no Facebook em Mianmar.

Depois que a Reuters alertou o Facebook sobre alguns dos posts ofensivos incluídos nesta reportagem, a empresa disse que os removeu. "Tudo isso violou nossas políticas", disse.

A própria Reuters às vezes sinaliza ao Facebook ameaças postadas na plataforma contra seus repórteres. Entre eles estão os jornalistas birmaneses Wa Lone e Kyaw Soe Oo, que foram condenados a sete anos de prisão por violar uma lei de segredo de Estado. Os dois foram presos em dezembro ao relatar o massacre de 10 homens da etnia rohingya e receberam uma enxurrada de ameaças de morte nas mídias sociais por causa de sua reportagem. O Facebook removeu esse conteúdo várias vezes a pedido da agência de notícias.

Corte as gargantas desses filhos do cão e jogue-os na água

Mensagem de Abril de 2018

Encha a maldita boca desses kalars com gordura de porco

Mensagem de Setembro de 2017

Despeje combustível e ateie fogo para que eles possam conhecer Alá mais rápido

Mensagem de Abril de 2018

Fred Dufour/AFP Fred Dufour/AFP
Ann Wang/Reuters Ann Wang/Reuters

Facebook como única fonte de informação

Há apenas seis anos, Mianmar era um dos países menos conectados do mundo. Em 2012, apenas 1,1% da população usava a internet e poucas pessoas tinham telefone, de acordo com a União Internacional de Telecomunicações, uma agência da ONU. A junta militar que governou o país por décadas manteve os cidadãos isolados.

Tudo isso mudou em 2013, quando um governo quase-civil supervisionou a desregulamentação das telecomunicações. O preço dos chips de celulares caiu de mais de US$ 200 para apenas US$ 2 e as pessoas os compraram em massa. Em 2016, quase metade da população tinha assinaturas de celular. A maioria comprou smartphones com acesso à internet.

Um aplicativo se tornou viral: o Facebook. Muitos viram o app como uma solução completa -- oferecendo um sistema de mensagens, notícias, vídeos e outros entretenimentos. Também se tornou um símbolo de status, disse Chris Tun, um ex-consultor da Deloitte que assessorou o governo. "Se você não usa o Facebook, está atrasado", disse ele. "Mesmo vovós, todo mundo estava no Facebook."

Gordon Welters/The New York Times Gordon Welters/The New York Times

"Eu não falo a língua birmanesa"

Em agosto de 2013, Zuckerberg anunciou um plano para disponibilizar internet pela primeira vez a bilhões de pessoas em países em desenvolvimento. "Tudo que o Facebook fez foi dar a todas as pessoas ao redor do mundo o poder de se conectar”, disse ele. A empresa agora trabalharia, acrescentou, para tornar "o acesso à internet disponível para aqueles que não podem pagar atualmente".

Mas em Mianmar, a barreira da língua causaria problemas. A maioria das pessoas no país não fala inglês. Embora os usuários de Mianmar na época pudessem postar no Facebook em birmanês, a interface da plataforma --incluindo seu sistema para relatar mensagens problemáticas -- estava em inglês. Para piorar a situação, a operação da empresa para monitorar o conteúdo em birmanês era escassa.

"Em casos como o discurso de ódio em que não entendíamos o idioma, dizíamos: 'Não falo o idioma'", disse uma pessoa que trabalhou no monitoramento terceirizado dos posts. "Então o cliente tinha de resolver o problema", disse a pessoa, referindo-se ao Facebook.

Ex-monitores de conteúdo disseram que muitas vezes cada um tinha de fazer julgamentos sobre mil ou mais itens de conteúdo potencialmente problemáticos por dia, embora o número agora seja menor.

As regras completas do Facebook sobre o que é e o que não é permitido em sua plataforma estão definidas em suas diretrizes de cumprimento de normas internas da comunidade, que a empresa divulgou pela primeira vez em abril. O documento define o discurso de ódio como “discurso violento ou desumano, declarações de inferioridade, ou apelos à exclusão ou segregação” contra pessoas com base em sua raça, etnia, afiliação religiosa e outras características.

Ex-monitores de conteúdo também disseram que foram treinados para errar para o lado de manter conteúdo no Facebook. "Na maioria das vezes, você tenta dar ao usuário o benefício da dúvida", disse um ex-funcionário do Facebook.

Os ex-monitores disseram que às vezes tinham apenas alguns segundos para decidir se um post constituía discurso de ódio ou violava os padrões da comunidade do Facebook de alguma outra forma. Eles disseram que eles não procuravam por discursos de ódio. Em vez disso, eles revisaram uma fila gigantesca de posts relatada principalmente por usuários do Facebook.

Em resposta, o Facebook disse: "Os revisores de conteúdo não precisam avaliar nenhum número definido de postagens. Nós incentivamos os revisores a levar o tempo que necessitem."

Beck Diefenbach / Reuters Beck Diefenbach / Reuters

Muitos dos milhões de itens sinalizados globalmente a cada semana --incluindo violentas críticas e imagens sexuais-- são detectados por sistemas automatizados, afirma o Facebook. Mas uma autoridade da empresa reconheceu à Reuters que seus sistemas têm dificuldade em interpretar o alfabeto birmanês, devido à maneira como as fontes são frequentemente reproduzidas em telas de computador, dificultando a identificação de insultos raciais e outros discursos de ódio.

Os problemas do Facebook são evidentes em um novo recurso que permite aos usuários traduzir o conteúdo birmanês para o inglês. Considere um post da Reuters encontrado a partir de agosto do ano passado.

Em birmanês, o post diz: “Mate todos os kalars que você vê em Mianmar; nenhum deles deve ser deixado vivo.

Tradução do Facebook para o inglês: "Eu não deveria ter um arco-íris em Mianmar".

Em resposta, o Facebook disse: "Nossa equipe de traduções está trabalhando ativamente em novas formas de garantir que as traduções sejam precisas". A empresa disse que usa um sistema diferente para detectar o discurso de ódio.

Guy Rosen, vice-presidente de gerenciamento de produtos, escreveu em um post no Facebook em maio sobre os problemas que a empresa enfrentou ao identificar o discurso do ódio. "Nossa tecnologia ainda não funciona tão bem e, portanto, precisa ser verificada por nossas equipes de revisão", escreveu ele.

Funcionários do Facebook dizem que não têm planos imediatos para a contratação de pessoal em Mianmar. Mas a empresa faz contrato com agências locais para tarefas não relacionadas ao monitoramento de conteúdo. Uma delas é a Echo Myanmar, uma empresa de comunicações cujo diretor executivo é Anthony Larmon, um americano.

Larmon expressou opiniões fortes sobre os rohingya. Quando a ONU acusou o governo de Mianmar de buscar a "limpeza étnica" dos rohingya, Larmon escreveu que a alegação da ONU era “enganosa”. Ele citou o que ele disse serem afirmações de múltiplos “jornalistas locais” que a minoria étnica “propositadamente exagera (mente sobre)” sua situação para “obter mais ajuda e atenção estrangeira”.

Ele também escreveu: "Não, eles não estão enfrentando uma limpeza étnica ou qualquer coisa remotamente próxima do que esse termo incendiário sugere". Ele disse que depois apagou o post. Um porta-voz do Facebook disse que a postagem de Larmon "não representa a visão do Facebook".

Larmon disse à Reuters: “Foi um comentário excessivamente emotivo, pouco informado sobre um assunto com muitas nuances do qual me arrependo. Minha opinião sobre os rohingya, hoje mesmo, é que eles devem ser repatriados e protegidos com segurança ”.

Sabe qual foi a plataforma em que ele exibiu suas opiniões sobre os rohingya? O Facebook.

Curtiu? Compartilhe.

Topo