Muitos dos milhões de itens sinalizados globalmente a cada semana --incluindo violentas críticas e imagens sexuais-- são detectados por sistemas automatizados, afirma o Facebook. Mas uma autoridade da empresa reconheceu à Reuters que seus sistemas têm dificuldade em interpretar o alfabeto birmanês, devido à maneira como as fontes são frequentemente reproduzidas em telas de computador, dificultando a identificação de insultos raciais e outros discursos de ódio.
Os problemas do Facebook são evidentes em um novo recurso que permite aos usuários traduzir o conteúdo birmanês para o inglês. Considere um post da Reuters encontrado a partir de agosto do ano passado.
Em birmanês, o post diz: “Mate todos os kalars que você vê em Mianmar; nenhum deles deve ser deixado vivo.
Tradução do Facebook para o inglês: "Eu não deveria ter um arco-íris em Mianmar".
Em resposta, o Facebook disse: "Nossa equipe de traduções está trabalhando ativamente em novas formas de garantir que as traduções sejam precisas". A empresa disse que usa um sistema diferente para detectar o discurso de ódio.
Guy Rosen, vice-presidente de gerenciamento de produtos, escreveu em um post no Facebook em maio sobre os problemas que a empresa enfrentou ao identificar o discurso do ódio. "Nossa tecnologia ainda não funciona tão bem e, portanto, precisa ser verificada por nossas equipes de revisão", escreveu ele.
Funcionários do Facebook dizem que não têm planos imediatos para a contratação de pessoal em Mianmar. Mas a empresa faz contrato com agências locais para tarefas não relacionadas ao monitoramento de conteúdo. Uma delas é a Echo Myanmar, uma empresa de comunicações cujo diretor executivo é Anthony Larmon, um americano.
Larmon expressou opiniões fortes sobre os rohingya. Quando a ONU acusou o governo de Mianmar de buscar a "limpeza étnica" dos rohingya, Larmon escreveu que a alegação da ONU era “enganosa”. Ele citou o que ele disse serem afirmações de múltiplos “jornalistas locais” que a minoria étnica “propositadamente exagera (mente sobre)” sua situação para “obter mais ajuda e atenção estrangeira”.
Ele também escreveu: "Não, eles não estão enfrentando uma limpeza étnica ou qualquer coisa remotamente próxima do que esse termo incendiário sugere". Ele disse que depois apagou o post. Um porta-voz do Facebook disse que a postagem de Larmon "não representa a visão do Facebook".
Larmon disse à Reuters: “Foi um comentário excessivamente emotivo, pouco informado sobre um assunto com muitas nuances do qual me arrependo. Minha opinião sobre os rohingya, hoje mesmo, é que eles devem ser repatriados e protegidos com segurança ”.
Sabe qual foi a plataforma em que ele exibiu suas opiniões sobre os rohingya? O Facebook.