Governo manda Meta interromper treinamento de IA com dados de usuários
Decisão mira nova política de privacidade da companhia, -- dona do Facebook, Instagram, Messenger e Threads -- e alerta para risco a crianças e adolescentes
Nesta terça-feira, 2, o governo federal determinou que a Meta suspenda o uso de dados pessoais dos usuários para treinamento de sistemas de inteligência artificial (IA). A decisão foi publicada pela Agência Nacional de Proteção de Dados (ANPD) e abrange todas as redes sociais controladas pelo conglomerado, como Instagram, Facebook, Messenger e Threads.
Na medida cautelar, a ANPD acusa a Meta de não esclarecer devidamente aos usuários as implicações e consequências de sua nova política de privacidade, que entrou em vigor na quarta-feira passada, 26. A legislação autoriza que todas as informações e conteúdos publicamente disponíveis e compartilhados pelos internautas sejam destinados pela empresa a treinar modelos de IA generativa — termo usado para nomear robôs que produzem textos, imagens, áudios e videos artificiais a partir de bases de dados.
“A Autoridade averiguou, ainda, que, embora os usuários pudessem se opor ao tratamento de dados pessoais, havia obstáculos excessivos e não justificados ao acesso às informações e ao exercício desse direito”, afirma a agência em nota. Além disso, o governo avalia que o “legítimo interesse” da empresa não pode se sobrepôr à proteção de informações sensíveis e que os usuários, ao compartilhar publicações destinadas a amigos, familiares e comunidade ao longo dos anos, não necessariamente esperavam que o conteúdo fosse empregado no treinamento de sistemas de IA.
Risco para crianças e adolescentes
Em particular, a ANPD se diz preocupada com o uso indiscriminado de vídeos, imagens e publicações compartilhados por crianças e adolescentes que utilizam as redes para alimentar os modelos de IA generativa, ressaltando que a Lei Geral de Proteção de Dados (LGPD) determina “a adoção de salvaguardas e medidas de mitigação de risco” no tratamento de informações que envolvem esses grupos.
Nos últimos anos, a utilização de algoritmos para gerar imagens artificiais de crianças e adolescentes vem gerando crescente alerta entre usuários ao redor do mundo, especialmente quando simulam pessoas reais. Mesmo no Brasil, já são frequentes as denúncias de compartilhamento de deepfakes — como são chamados os vídeos e fotos de teor pornográfico produzidos digitalmente — que envolvem jovens menores de idade.
O que diz a Meta
Em nota, a Meta se diz “desapontada” com a medida cautelar da ANPD, que qualifica como “retrocesso para a inovação”, e reforça que as abordagens da empresa respeitam “as leis de privacidade e regulações no Brasil”.
Leia, na íntegra, o comunicado sobre a decisão enviado à imprensa pela Meta:
“Estamos desapontados com a decisão da ANPD. Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos. Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil”.