Cresce uso de inteligência artificial em vídeos de abuso sexual de crianças
Criminosos aperfeiçoaram manejo de ferramentas da tecnologia generativa, segundo organização britânica de combate à prática
A Internet Watch Foundation (IWF), organização independente e sem fins lucrativos do Reino Unido que combate o abuso sexual infantil online, divulgou um relatório nesta segunda-feira, 22, sobre uso de inteligência artificial na criação de vídeos de crianças sofrendo assédio. O documento mostra como os criminosos aprenderam a usar ferramentas melhores, mais rápidas e mais acessíveis para gerar novas imagens.
Os chamados vídeos “deepfake” ou parcialmente falsos realistas de estupro e tortura de crianças são feitos por criminosos usando ferramentas de IA que adicionam o rosto ou a imagem de outra pessoa a um vídeo real. A capacidade de transformar qualquer cenário numa realidade visual é bem recebida pelos infratores, que se vangloriam de suas criações na dark web.
Num estudo relâmpago, realizado entre março e abril deste ano, a IWF identificou nove vídeos deepfake totalmente inéditos em apenas um fórum da dark web dedicado a material de abuso sexual infantil. Alguns apresentam pornografia adulta que é alterada para mostrar o rosto de uma criança. Outros são de abusos reais que tiveram o rosto de outra criança sobreposto à vítima real.
O estudo também avaliou mais de 12.000 novas imagens geradas por IA postadas em um fórum da dark web durante um mês. A maioria deles, 90%, eram tão convincentes que poderiam facilmente passar como reais. Os analistas confirmaram que mais de 3.500 imagens eram criminosas e retratavam o abuso sexual de crianças, a maioria das quais eram meninas.
Os analistas descobriram ainda que a gravidade do abuso sexual infantil gerado pela IA piorou desde que investigaram pela primeira vez o fórum da dark web. Mais de 955 fotografias falsas, 32%, foram classificadas como Categoria A – retratando sexo com penetração, bestialidade ou sadismo – um aumento de dez pontos percentuais.
Como funciona?
Programas de IA gratuito e de código aberto parecem estar por trás de muitos dos vídeos deepfake vistos pela IWF. Os métodos compartilhados pelos criminosos na dark web são semelhantes aos usados para gerar pornografia adulta deepfake. O relatório também destaca a rapidez com que a tecnologia está melhorando em sua capacidade de gerar vídeos de abuso sexual de crianças de IA totalmente falsos.
Embora estes tipos de vídeos ainda não sejam sofisticados o suficiente, os analistas dizem que é o máximo de sofisticação que podem atingir. Os avanços na IA em breve renderizarão vídeos mais realistas, da mesma forma que as imagens estáticas se tornaram realistas.
Como a tendência avança?
Desde abril do ano passado, a IWF tem observado um aumento constante no número de relatórios de conteúdo generativo de IA. Os analistas avaliaram 375 relatórios ao longo de um período de 12 meses, 70 dos quais continham imagens criminais de abuso sexual de crianças geradas por IA. Esses relatórios vieram quase exclusivamente da web aberta.
Sem controles adequados, as ferramentas generativas de IA oferecem um playground para os predadores online realizarem suas fantasias mais perversas e doentias. “As decisões certas tomadas agora – por governos, pela indústria tecnológica e pela sociedade civil – para garantir que a segurança das crianças é uma prioridade na concepção de ferramentas de IA poderiam evitar o impacto devastador que o uso indevido desta tecnologia terá na proteção global das crianças”, disse Susie Hargreaves, CEO da IWF.