De revisores a robôs, como as plataformas dizem que moderam debate na rede
Erro do Twitter ao suspender conta de Eduardo Bolsonaro reacendeu discussão sobre os critérios utilizados por empresas para remover conteúdos
No último dia 5, o deputado federal Eduardo Bolsonaro (PSL-SP) escreveu no Twitter que o PT cometeu crimes contra o dinheiro público, “destruindo a vida de milhares de brasileiros”. Junto do texto, postou um curto vídeo em que reforçava as críticas aos escândalos que marcaram os governos petistas. “Aí falam que o PT é socialista, tem pena de pobre. Não. Quanto mais pobre dependendo do Estado, melhor pra eles”, atacou o parlamentar. “Chega a ser vergonhoso você dizer que o Lula pode concorrer depois à Presidência da República. É bizarro.” Por conta dessa postagem, conforme revelou VEJA, a conta do filho Zero Três do presidente Jair Bolsonaro foi temporariamente suspensa. Depois, o Twitter reativou o perfil e alegou que a sanção foi tomada devido a um erro.
O episódio envolvendo o deputado reacendeu a discussão sobre o papel das plataformas na moderação do conteúdo publicado nas redes sociais. Até que ponto uma empresa pode interferir numa discussão eleitoral, bloquear o perfil de um parlamentar e até mesmo derrubar uma live do presidente da República? O ex-presidente Donald Trump, por exemplo, foi banido pelo Twitter após insuflar extremistas a invadirem o Capitólio, em um trágico episódio que resultou na morte de cinco pessoas. Esse tema deve ganhar um peso ainda maior durante as eleições deste ano, em meio à forte polarização política, à enxurrada sem fim de fake news e às ofensivas (de todos os lados) para destruir a reputação de adversários.
Procurada por VEJA, a Meta (dona do Facebook e do Instagram) afirmou que possui “milhares de revisores” e utiliza inteligência artificial para “detectar, analisar e remover conteúdos violadores das nossas plataformas em dezenas de idiomas, entre eles o português”. “Sabemos que o contexto local é relevante e, por isso, temos brasileiros trabalhando nessa área em diferentes países”, comunicou, sem detalhar como funciona o processo decisório na remoção do conteúdo indesejado. Segundo a Meta, as regras de conteúdo do Facebook e do Instagram “buscam garantir a liberdade de expressão e, ao mesmo tempo, um ambiente seguro para as pessoas”, sem tolerância para discurso de ódio, bullying, assédio ou conteúdos que possam colocar a vida das pessoas em risco. De acordo com a Meta, não cabe a “qualquer plataforma ou empresa privada moderar o debate político”. A empresa deixou recentemente a lista de dez companhias mais valiosas e já perdeu 230 bilhões de dólares de valor de mercado em um único dia.
Nenhuma das grandes empresas de tecnologia quis informar quantas contas de políticos e quantas postagens deles já foram removidas por ferirem suas políticas, nem detalhar o processo decisório na moderação de conteúdo. Segundo o YouTube, conteúdos que violam as regras da empresa representam uma pequena fração dos bilhões de vídeos assistidos na plataforma (entre 0,16% e 0,18% das visualizações totais). A empresa informou a VEJA que possui “uma combinação de sistemas inteligentes, revisores humanos treinados e denúncias de usuários para identificar material suspeito”.
Funciona assim: na primeira vez que um usuário violar as políticas da plataforma, ele recebe punição que começa com um simples alerta e pode evoluir para “avisos”, que limitam a possibilidade de o usuário utilizar ferramentas ou realizar ações em seu canal por um período de tempo, que pode chegar a duas semanas. Em um eventual terceiro aviso dentro desse mesmo período de 90 dias, o canal é removido permanentemente. “Às vezes, um único caso de abuso grave poderá resultar na remoção permanente do canal sem alerta. Mas sabemos que os sistemas nem sempre acertam. Por isso, é possível solicitar uma revisão humana sobre as decisões tomadas pelos mecanismos automatizados”, explicou o YouTube.
No caso de Eduardo Bolsonaro, o Twitter alega que a publicação do parlamentar foi identificada erroneamente por “sistemas automatizados” como estando em violação a nossas regras. A empresa diz trabalhar com uma “combinação de tecnologia e análise humana para identificar violações às nossas regras e tomar as medidas cabíveis”. “Temos uma equipe que trabalha ao redor do mundo, em idiomas incluindo o português, para essas análises e investimos de forma recorrente em nossos sistemas e em treinamentos de nossas equipes para aprimorar a detecção de potenciais violações e a tomada de medidas corretivas”, informou o Twitter.
A postura das plataformas é criticada pelo deputado federal Orlando Silva (PCdoB-SP), relator do PL das Fake News, que tenta criar regras mais claras na esfera digital. “A lógica das plataformas é que só elas decidem, o que pode criar um sistema privado de censura. É inaceitável, como é inaceitável você amordaçar as plataformas, impedindo que elas possam fazer a moderação. É preciso encontrar um caminho do meio”, defende Silva. RelacionadasPolíticaO que levou o Twitter a bloquear ‘por engano’ a conta de Eduardo BolsonaroEconomiaMeta, de Zuckerberg, fica menor e perde lugar entre mais valiosasPolíticaComo será o cerco do TSE às redes sociais, alavanca eleitoral de Bolsonaro