‘Nossas taxas de erro são muito altas’, diz Meta sobre remoção de conteúdo
Dona do Facebook, WhatsApp e Instagram, que participa de julgamento no STF, diz que retira posts nocivos sem a necessidade de ordens judiciais
A Meta — big tech dona do Facebook, Instagram e WhatsApp — divulgou nesta terça-feira, 3, dois comunicados, um de nível nacional e outro de nível global, falando sobre a sua atuação nas eleições. No texto direcionado ao Brasil, país em que o Supremo Tribunal Federal (STF) está julgando a responsabilidade das plataformas sobre os conteúdos que veicula, a companhia disse que atua “de forma diligente e sem necessidade de ordem judicial para remover conteúdos nocivos”. Já no texto de nível mundial, a Meta disse que, ao aplicar suas políticas de moderação de conteúdo, “nossas taxas de erro são muito altas, o que atrapalha a liberdade de expressão que nos propusemos a permitir”.
No Brasil, na última semana, o STF deu início ao julgamento conjunto de sete ações judiciais que julgam os limites da responsabilidade das plataformas pelos conteúdos veiculados nos seus espaços. A principal discussão está em torno do que diz o artigo 19 do Marco Civil da Internet — hoje, ele estabelece que as plataformas só podem ser punidas se descumprirem ordens judiciais de remoção de conteúdos. As big techs querem que esse dispositivo permaneça como está, enquanto governo federal e outras entidades pedem que ele seja declarado inconstitucional para que as redes sociais tenham que remover conteúdos independentemente de uma ordem vinda da Justiça.
Alguns dias antes do julgamento começar, prevendo as altas chances de uma decisão desfavorável, a Meta sugeriu que o STF adote um “meio-termo”, mantendo o artigo 19 e ampliando a interpretação de outro trecho do Marco Civil para que seja obrigatória a remoção de conteúdos de exploração sexual infantil, racismo, terrorismo e atentados à democracia. No comunicado brasileiro emitido nesta terça, a Meta defende o artigo 19, afirmando que ele age “privilegiando a liberdade de expressão”.
A companhia divulgou, junto do comunicado, um relatório afirmando que durante o período eleitoral deste ano removeu “1,9 milhão de conteúdos por violência e incitação” e que “mais de 99% dos conteúdos com violência e incitação foram identificados pela própria Meta e removidos antes de qualquer denúncia”. O relatório tenta mostrar, na conjuntura brasileira, que a companhia já estaria agindo de forma satisfatória com a lei do jeito que está.
Eleições em outros países
O comunicado de nível global também enumera métricas da companhia em eleições como as dos Estados Unidos, Reino Unido, Índia e França e menciona ações contra uma suposta intervenção de sites russos. No entanto, o texto é mais contundente na crítica às políticas de remoção de conteúdo. “Encontrar o equilíbrio entre permitir que as pessoas façam suas vozes serem ouvidas e manter as pessoas seguras é algo que nenhuma plataforma jamais acertará 100% das vezes. Sabemos que, ao aplicar nossas políticas, nossas taxas de erro são muito altas, o que atrapalha a liberdade de expressão que nos propusemos a permitir. Muitas vezes, conteúdo inofensivo é removido ou restrito e muitas pessoas são penalizadas injustamente”, diz o texto.