‘Deepfake’, o novo e terrível patamar das ‘fake news’
Vídeos falsos, que simulam o rosto e a voz de pessoas, mas em produções de conteúdo falacioso, são o próximo passo das manipulações virtuais
Imagine por um segundo: um homem com total controle de bilhões de dados roubados. Todos os seus segredos, vida e futuro”, teria dito o criador e CEO do Facebook, Mark Zuckerberg, em um depoimento gravado. “Devo tudo ao Spectre. O Spectre me mostrou que quem controla os dados controla o futuro”, completou. O vídeo supostamente vazado exibe Zuckerberg em um cenário familiar ao de outras de suas declarações — tratando de um assunto que certamente compete a ele. O problema: nada é o que parece ser. Um olhar mais cauteloso entrega a lorota. Ele está com uma postura mais travada que a usual, o rosto levemente desfocado, e faz loas a um tutor, ou seja lá o que for, totalmente desconhecido, o tal Spectre. Resumo da ópera: aquele cara não é Zuckerberg. Trata-se de um avatar criado pelos artistas americanos Bill Posters e Daniel Howemas usando a tecnologia conhecida como deepfake. A técnica lança mão da inteligência artificial (IA) para inserir rostos reais em cenas falsas com o objetivo de criar um vídeo com alguém dizendo algo que não disse. É um novo e péssimo degrau das fake news.
O filme do Zuckerberg de mentirinha viralizou, como quase tudo na internet que incomoda, mas vinha contida nele a ressalva fundamental — é uma contrafação, modo de alardear o perigoso potencial da estratégia de manipulação.
Não há uma data exata de nascimento das deepfakes — termo que junta a palavra fake (falso, em inglês) com a expressão deep learning (aprendizagem profunda; uma técnica de IA). No entanto, a popularização e o aperfeiçoamento do método começaram a ganhar atenção no fim de 2017, quando um vídeo pornô embusteiro, que trazia uma falsa atriz Gal Gadot, de Mulher-Maravilha (2017), foi publicado no site Reddit. Desde então, uma série dessas maquinações, com celebridades e políticos, pipocou internet afora.
Uma análise da empresa de segurança digital Deeptrace, fundada em 2018 para elaborar defesas contra falsificações criadas por IA, revela que o número de deepfakes disponíveis na web quase duplicou entre o fim de 2018 e junho de 2019. De um total de 8 000, saltou para mais de 14 000. A grande maioria — 96% — tem natureza pornográfica.
Do lado, digamos assim, leve de suas promessas, as deepfakes têm potencial para o entretenimento. Tome-se como exemplo o aplicativo chinês Zao, lançado neste ano. Com apenas uma selfie, ele permite pôr o rosto de usuários em cenas de filmes e séries famosas, ainda que seja perceptível a movimentação artificial da face. Edições satíricas, como a que transformou o ator Alec Badwin no presidente americano Donald Trump, mostram como se pode alcançar ainda maior veracidade. Já com softwares potentes, como o Synthesia, desenvolvido para a indústria cinematográfica e de publicidade, foi possível fazer o ex-jogador de futebol David Beckham falar nove idiomas com extremo realismo, em uma campanha publicitária, em 55 países, que alertava sobre os riscos da malária (leia o quadro abaixo).
“É necessário, contudo, olhar as deepfakes com a possível progressão de uso de qualquer nova tecnologia. Elas se tornarão sempre melhores e mais acessíveis”, disse a VEJA o engenheiro americano Sam Gregory, diretor da Witness, uma organização sem fins lucrativos que promove o uso de tecnologia na proteção dos direitos humanos. Mas talvez não haja risco maior do que o emprego das enganações animadas nas guerras políticas travadadas dentro das redes sociais. Há onze anos, quando Barack Obama chegou à Presidência dos EUA, um de seus grandes trunfos de campanha foi a forma como atraiu os eleitores jovens por meio dessas plataformas. A equipe do democrata havia descoberto como poderia utilizar os algoritmos para conquistar militantes on-line e pô-los na rua. Obama foi também o primeiro presidente americano a usar o Twitter, o primeiro a fazer uma live no Facebook, e ainda o pioneiro no Snapchat. De lá para cá, a coisa degringolou, dadas a avalanche tecnológica e a dramática polarização entre um lado e outro, a direita e a esquerda.
No Brasil, o uso abusivo das redes foi ferramenta que ajudou na reeleição de Dilma Rousseff , em 2014 — a suspeita de disparo em massa de fake news foi investigada pelo Tribunal Superior Eleitoral (TSE). Bolsonaro navegou na mesma onda e a incrementou, inspirado na fulminante ascensão de Trump em 2016, ao fazer uso de perfis falsos e robôs.
O amanhã que se desenha soa inexorável. “Dá para concluir que as deepfakes são o próximo passo das manipulações virtuais”, disse a VEJA o alemão Matthias Niesser, professor de computação gráfica da Universidade de Munique. Para ele, as criações digitais são tão convincentes que se tornaram um nó de forte impacto.
Nos Estados Unidos, o alerta vermelho já está aceso para as eleições do ano que vem. Cerca de 60% dos americanos acreditam que existirá interferência na disputa presidencial de 2020. Os congressistas do país requisitaram oficialmente ao Facebook, ao Twitter e a outras redes que tomem medidas contra os vídeos enganosos.
Entretanto, mesmo que fosse possível proibir as deepfakes, provavelmente já seria tarde demais. É o que constata, em entrevista a VEJA, o engenheiro americano Aviv Ovadya, fundador do Centro de Responsabilidade para Mídias Sociais da Universidade de Michigan (EUA): “A preocupação é com a desinformação criada”. O risco é que ocorra algo como a normalização de fatos absurdos — da crença no terraplanismo a movimentos extremistas. A ficção prevê algo nessa linha. Na série Years and Years (2019), da HBO, as deepfakes têm relevância numa fictícia eleição na Inglaterra, em torno de 2025, e nos anos seguintes.
E, mais uma vez, o aperfeiçoamento de uma nova forma digital de manipulação põe em xeque os alicerces da democracia. Para os especialistas consultados por VEJA, haveria duas maneiras de ao menos mitigar os efeitos: o desenvolvimento de algoritmos, por gigantes como o Facebook e a Google, que barrem os vídeos; e a via judicial, com a punição dos falsários.
Publicado em VEJA de 23 de outubro de 2019, edição nº 2657