UE abre nova investigação sobre IA de Elon Musk por imagens sexualizadas
Medida segue abertura de inquéritos e proibição de uso em diversos países
O órgão regulador de privacidade da União Europeia abriu na segunda-feira, 17, uma investigação de “larga escala” sobre imagens sexualizadas não consensuais geradas pelo Grok, inteligência artificial da rede social X, do bilionário Elon Musk. A medida segue abertura de inquéritos e proibição de uso em diversos países.
A Comissão de Proteção de Dados da Irlanda (DPC), responsável pela aplicação do Regulamento Geral de Proteção de Dados da UE, citou a publicação de imagens sexualizadas “potencialmente prejudiciais” pelo Grok, que continham ou envolviam o processamento de dados de usuários europeus.
+ Em nove dias, Grok publicou 1,8 milhão de imagens sexualizadas de mulheres no X
O chatbot está integrado aos feeds do X e foi desenvolvido pela startup de IA de Musk, a xAI, que adquiriu a X no ano passado. No início deste mês, a xAI se fundiu com a SpaceX, fabricante de foguetes de Musk, para criar um gigante avaliado em US$ 1,5 trilhão.
“A DPC está em contato (com o X) desde que surgiram as primeiras notícias na mídia, há algumas semanas, sobre a suposta capacidade dos usuários do X de induzir a conta @Grok a gerar imagens sexualizadas de pessoas reais, incluindo crianças”, disse Graham Doyle, vice-comissário da DPC, em um comunicado.
Ele acrescentou que a comissão “iniciou uma investigação em larga escala que examinará a conformidade com algumas de suas obrigações fundamentais”.
Em janeiro, a Comissão Europeia, órgão executivo da UE, já havia iniciado uma investigação formal sobre a rede social, com foco em verificar se a plataforma cumpriu as obrigações previstas na Lei de Serviços Digitais, que regula a atuação de grandes empresas de tecnologia no bloco.
O caso ganhou dimensão internacional depois que usuários passaram a utilizar o Grok para alterar fotografias reais de mulheres e crianças por meio de comandos simples de texto, como pedidos para que as imagens fossem modificadas para incluir roupas íntimas ou retirar peças de vestuário. Para autoridades europeias, esse tipo de prática pode configurar a disseminação de conteúdo ilegal, incluindo material que se enquadre como abuso sexual infantil.
Governos do Reino Unido, Índia, Malásia e Estados Unidos também abriram investigações para avaliar possíveis violações legais. Entidades de proteção digital classificaram o episódio como um caso sem precedentes de disseminação pública de imagens falsas com conotação sexual em escala industrial.
Em janeiro, uma análise do New York Times mostrou que, em apenas nove dias, o Grok publicou 4,4 milhões de imagens geradas por inteligência artificial. Ao todo, 1,8 milhão dessas imagens continham representações sexualizadas de mulheres.
Questionado sobre a investigação, o X replicou uma declaração anterior na qual afirmava tomar medidas contra esse tipo de uso da ferramenta Grok. Segundo a afirmação prévia, o material de abuso sexual infantil e as imagens íntimas criadas sem consentimento são removidas da plataforma e as contas que as fizeram são permanentemente banidas. “Qualquer pessoa que utilize ou incentive o Grok a criar conteúdo ilegal sofrerá as mesmas consequências que quem fizer o upload de conteúdo ilegal”, afirmou a rede social.





