As notícias falsas (fake news, no termo em inglês) que circulam pela internet têm mostrado o grave dano que podem causar. Em um texto que publiquei neste blog, por exemplo, provei como uma história fabricada pode facilmente repercutir no Facebook, sem contestações (confira no link). Além disso, um estudo da Universidade de Columbia, nos EUA, provou que 59% dos usuários de redes sociais tendem a compartilham um conteúdo antes mesmo de lê-lo ou vê-lo. Outra pesquisa, da Universidade Stanford (EUA), exibiu como mais de 80% dos jovens não conseguem distinguir uma notícia falsa de uma real nas plataformas digitais. No último sábado (13), realizei uma palestra sobre o assunto, em um TEDx, no qual pontuei três atores que participam, de alguma forma, do ciclo de disseminação das fake news e que, portanto, podem ajudar a conter essa onda: os produtores de conteúdo; os leitores, usuários das redes sociais; e as plataformas digitais, em si, como o Facebook (em breve colocarei neste blog o vídeo desta apresentação). Então, é uma ótima notícia saber que estes últimos não só passaram a demonstrar preocupação com o tema, como estão agindo para ao menos mitigar o problema. É o que prova a novidade que o Facebook divulga hoje (17): uma série de atualizações em seus algoritmos pretendem reduzir o número do que chamam de “manchetes exageradas ou enganosas, conhecidas como ‘caça-cliques’”, na rede social.
O comunicado que será soltado pelo Facebook afirma que a empresa “está comprometida a construir uma comunidade informada e recentemente anunciou esforços para reduzir a desinformação, incluindo dicas para ajudar as pessoas a identificar notícias falsas, ferramentas para aumentar a diversidade de pontos de vista e medidas contra perfis falsos e anúncios de baixa qualidade.” Agora, porém, a companhia vai além, ao recorrer a uma de suas armas mais poderosas: seu algoritmo. A partir de hoje, o Facebook usará de softwares de inteligência artificial para identificar frases e termos usualmente usados nos “caça-cliques”, muitos dos quais links com notícias falsas.
A técnica é similar à utilizada por serviços de e-mails para filtrar spams. Após categorizar milhares de publicações desse tipo, uma equipe do Facebook criou filtros que podem identificar esses posts. De início, o recurso já será aplicado em publicações escritas em uma dúzia de idiomas, incluindo o português. Ainda não está totalmente claro o que o Facebook fará após detectar um desses “caça-cliques”. Contudo, o mais provável é que haja uma avaliação de como reagir a cada caso. A atitude, então, deve ser executada por uma equipe de profissionais que a empresa tem formado com tal objetivo.
Dará certo? É preciso testar para saber. Contudo, já é um alívio saber que haverá esse teste.
A internet apresentou ao mundo um dilema. Um que poderia ser bem descrito pelo termo duplipensamento (que, sim, ainda poderia ser aplicado a tantos outros fenômenos do mundo virtual). Criada pelo escritor inglês George Orwell (1903-1950), no clássico de ficção-científica 1984, a expressão descreve a convivência, em espantosa harmonia, de duas ideias conflitantes. No cenário distópico do maravilhoso romance orwelliano, o duplipensamento era uma forma de controle social exercida por uma autocracia. Nas redes sociais, em comparação, representa como as pessoas nunca leram tanto, tiveram contato com tanta informação (o que é incrível!), quanto hoje, na era digital. Entretanto, ao mesmo tempo, a desinformação nunca contaminou o mundo tanto quanto hoje, também, se espalhando rapidamente (e globalmente) por essas mesmas redes sociais. Nessa balança, a esperança é que prevaleça o primeiro ponto, positivo, não o segundo, negativo. Para que isso ocorra, são necessárias ações como a que o Facebook divulga hoje.
Para acompanhar este blog, siga-me no Twitter, em @FilipeVilicic, e no Facebook.