Promoção do Ano: VEJA por apenas 4,00/mês
Continua após publicidade

Saiba como identificar deepfakes, a nova fronteira das notícias falsas

Cada vez mais popular, técnica que usa inteligência artificial para produzir falsificações em vídeo desperta para o risco que representa ao jogo democrático

Por Leonardo Lellis Atualizado em 4 out 2019, 10h36 - Publicado em 4 out 2019, 09h39

Começa sempre como uma brincadeira até que alguém tem a péssima ideia de levá-la a sério com interesses que não têm a menor graça. Este foi o roteiro percorrido pelas fake news e agora é repetido em uma nova fronteira, com potencial de estrago ainda maior: as deepfakes. A técnica que usa inteligência artificial para inserir rostos em personagens com o objetivo de criar uma falsificação em vídeo para alguém dizer algo que não disse começou a se popularizar em 2017, quando celebridades passaram a ter suas imagens inseridas em cenas de filmes pornográficos. 

No Brasil, as montagens ficaram populares neste ano por obra do editor de vídeo, jornalista e estudante de Direito Bruno Sartori, que caiu nas graças da internet tirando sarro do presidente Jair Bolsonaro (PSL) e do ministro Sergio Moro (PSL) em “papéis” como o do Chapolin Colorado ou da cantora Kelly Key. A rapidez com que a técnica se desenvolve e fica acessível, entretanto, já acendeu o sinal de alerta de empresas de tecnologia como Facebook e Microsoft, que investem em pesquisas para o desenvolvimento de ferramentas para identificar as falsificações.

O Google também se mexe. O gigante das buscas disponibilizou no final de setembro um banco de dados público com milhares de imagens para serem utilizadas em pesquisas para detecção destas lorotas audiovisuais. “Acreditamos firmemente no apoio a uma comunidade de pesquisa próspera para mitigar os potenciais danos causados pelo uso indevido de mídia sintética”, afirmou a companhia em um comunicado.

A um ano das eleições municipais, o risco imediato é o uso das deepfakes para tumultuar o processo democrático com conteúdos feitos sob medida para prejudicar adversários — o que é proibido. “A falta de capacidade em compreender os conteúdos recebidos nas mídias sociais somada ao desejo de provar a corrupção de quem está do outro lado do espectro político em um ambiente polarizado faz com que o Brasil seja um cenário ideal para que esse tipo de conteúdo gere muita confusão”, avalia o advogado Carlos Affonso Souza, diretor do Instituto de Tecnologia e Sociedade (ITS).

Continua após a publicidade

Ele recorda o vídeo íntimo atribuído ao então candidato ao governo de São Paulo João Doria (PSDB) durante a campanha de 2018 como um “aperitivo” do que vem por aí. O advogado alerta, porém, que o controle deste novo fenômeno não pode resvalar em censura nem impedir o desenvolvimento de novas tecnologias. “Não é com uma lei para criminalizar as deepfakes que este problema vai ser superado”, afirma. Além das plataformas, ele cobra uma educação do público e sua atuação para combater as mentiras: “Ser o chato do grupo de WhatsApp é um dever cívico”.

Responsável pelas montagens que viralizam zombando do presidente Bolsonaro, seus filhos ou o ministro Moro, Sartori afirma já ter sido assediado por partidos políticos interessados em suas habilidades no ano que vem, mas que pretende produzir conteúdos educativos que auxilie os eleitores a se precaverem contra as deepfakes. Ele se limita a produzir vídeos de sátira, em que o contexto absurdo afasta qualquer dúvida sobre a intenção humorística. Seu canal no YouTube contabiliza mais de 1,7 milhão de visualizações — fora o que é compartilhado no WhatsApp. Autodidata na técnica há menos de dois anos, ele reconhece o potencial danoso das montagens e preocupa-se com a velocidade com que ela evolui de modo a tornar as falsificações cada vez mais verossímeis.

Continua após a publicidade

Há, entretanto, alguns sinais que permitem a identificação de deepfakes, já que o trabalho de inteligência artificial necessita de um ajuste fino por um ser humano. Ausência de separação entre os dentes, olhares para direções diferentes ou “descolamento” do rosto que permitem a duplicação de sobrancelhas são alguns dos problemas mais comuns. “A informação é a única arma que temos. Se as pessoas não forem informadas das possibilidades dessa tecnologia, estaremos perdidos nas próximas eleições”, diz.

Veja algumas dicas de como identificar deepfakes:

Deepfake – Melindrosa e Moro
Como a inteligência artificial usa várias imagens do ministro Sérgio Moro, os traços do seu rosto ficam menos nítidos e os dentes, sem qualquer separação. (./Reprodução)

 

Deepfake – Estudante e Bolsonaro
Além do rosto de Jair Bolsonaro estar em outro formato, seus olhos apontam para uma direção diferente do sentido da cabeça. (./Reprodução)

 

Deepfake – Chapolin e Glenn Greenwald
O rosto do jornalista Gleen Greenwald não coincide 100% com o do Chapolin e, por isso, ganhou sobrancelhas extras. (./Reprodução)

Veja algumas deepfakes que fazem graça com políticos brasileiros:

Continua após a publicidade
Continua após a publicidade
Publicidade

Matéria exclusiva para assinantes. Faça seu login

Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

Veja e Vote.

A síntese sempre atualizada de tudo que acontece nas Eleições 2024.

OFERTA
VEJA E VOTE

Digital Veja e Vote
Digital Veja e Vote

Acesso ilimitado aos sites, apps, edições digitais e acervos de todas as marcas Abril

2 meses por 8,00
(equivalente a 4,00/mês)

Impressa + Digital
Impressa + Digital

Receba 4 Revistas no mês e tenha toda semana uma nova edição na sua casa (equivalente a 12,50 por revista)

a partir de 49,90/mês

*Acesso ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
*Pagamento único anual de R$118,80, equivalente a 9,90/mês.

PARABÉNS! Você já pode ler essa matéria grátis.
Fechar

Não vá embora sem ler essa matéria!
Assista um anúncio e leia grátis
CLIQUE AQUI.