No final de outubro, a atriz mineira Isis Valverde, de 36 anos, registrou boletim de ocorrência na Delegacia de Repressão a Crimes Cibernéticos do Rio, depois de ter sido avisada que estavam circulando pela internet nudes dela. Mas eles não eram verdadeiros. Tratava-se de modificações feitas por meio de um aplicativo que utiliza inteligência artificial para criar montagens com base em arquivos de imagens reais, de uma forma tão sofisticada que é capaz até de enganar os olhares mais atentos. No caso de Isis, ela estava de biquíni nas fotos originais, e só percebeu a adulteração porque o conteúdo fake não tinha algumas tatuagens que a roupa escondia. Como era de esperar numa situação dessas, até o caso começar a ser esclarecido, a atriz passou por um enorme constrangimento e até hoje não esconde os sentimentos de revolta e de humilhação ao lembrar o episódio.
Isis não foi a única vítima famosa desse tipo de crime pornográfico que usa as mais avançadas ferramentas tecnológicas. A atriz israelense Gal Gadot, conhecida por interpretar a Mulher-Maravilha no cinema, teve sua imagem modificada e inserida no contexto de um vídeo pornográfico que viralizou na internet. Outras mulheres que passaram por situações semelhantes foram a cantora Taylor Swift e as atrizes Emma Watson e Scarlett Johansson. A lista cresce dia após dia, causando transtornos enormes às vítimas.
No caso de Isis Valverde, o advogado dela, Ricardo Brajterman, solicitou a retirada das imagens de serviços como o Google e vem acompanhando a investigação que tentará a identificação do IP do computador responsável pela modificação. Ele pediu ainda que o autor seja condenado por calúnia e difamação. A polícia segue apurando a autoria do crime. As celebridades são o alvo preferencial dos bandidos, mas esse tipo de fraude também atinge pessoas anônimas. “Isis teve como se defender porque é uma pessoa conhecida e pode esclarecer as coisas nas redes sociais, mas e se fosse uma adolescente e o nude falso fosse espalhado pela escola?”, afirma Brajterman.
O alerta faz todo o sentido. Na quarta passada, 1º, o Colégio Santo Agostinho, tradicional escola particular na Barra da Tijuca, no Rio de Janeiro, enviou comunicado aos pais dos estudantes alertando para a circulação de imagens de falsos nudes de alunas e se colocando à disposição das famílias atingidas para apoiar as devidas providências jurídicas relacionadas ao escândalo. A Polícia Civil investiga a denúncia de que estudantes teriam manipulado imagens de ao menos vinte alunas por meio de aplicativos que usam inteligência artificial e espalhado nudes falsos pela escola e nas redes sociais. As vítimas têm idade entre 14 e 16 anos e cursam do 7º ao 9º ano. “O Colégio Santo Agostinho soube dos episódios que muito nos assustam e decepcionam, envolvendo nossos alunos em imagens montadas com inteligência artificial. Lamentamos constatar que essa ferramenta criada para solucionar problemas e apoiar a vida moderna ainda não tem seu fim utilizado de maneira correta”, afirmou o colégio. A nota é assinada pelo diretor do Santo Agostinho, Frei Nicolás Luis Caballero Peralta.
Os casos de manipulação de imagens têm resultado na incidência de crimes ainda mais graves, que muitas vezes envolvem até crianças. Na semana passada, a Internet Watch Foundation divulgou relatório em que afirma ter encontrado, somente em sites hospedados no Reino Unido, quase 3 000 imagens modificadas em que crianças reais eram “despidas” e retratadas em situação de abuso sexual e pedofilia. Em metade desses casos as vítimas tinham até 10 anos de idade, incluindo algumas menores de 2. O Brasil tem sido também terreno fértil para a ação dos bandidos. Segundo dados mais atualizados da Ouvidoria Nacional dos Direitos Humanos, foi registrada no primeiro semestre do ano passado uma média diária de mais de 400 denúncias relacionadas a crimes sexuais contra crianças no ambiente virtual. Dentro desse universo, por aqui também começam a surgir muitos problemas gerados por manipulações feitas por inteligência artificial.
O avanço exponencial dessa ferramenta representa um dos grandes paradoxos do mundo atual. A tecnologia possui uma capacidade quase inesgotável de aplicações, da possibilidade de melhorar a acuidade de diagnósticos de imagens na área de saúde ao uso na indústria do entretenimento. Na quinta 2, o mundo conheceu uma nova canção dos Beatles, produzida com a ajuda de um áudio de John Lennon recuperado com a inteligência artificial. Mas, quase na mesma medida, o recurso também tem contribuído para a ocorrência de crimes cada vez mais complexos, que têm preocupado as principais lideranças mundiais. O presidente dos Estados Unidos, Joe Biden, por exemplo, assustou-se com a qualidade de um vídeo em que ele aparece dando declarações que jamais fez. Foi o estopim para ele assinar, no último dia 30, uma ordem que estabelece padrões para a segurança e privacidade no uso da inteligência artificial. Uma delas foi a inserção de marcas-d’água em conteúdos construídos a partir dos chamados deepfakes, para que fique clara a diferenciação entre o falso e o verdadeiro.
O movimento de Biden ocorreu às vésperas de uma conferência, no Reino Unido, organizada com o objetivo de discutir riscos e construir um consenso internacional sobre o assunto. O evento ocorreu entre os últimos dias 1º e 2, com a presença do primeiro-ministro do Reino Unido, Rishi Sunak, da vice-presidente dos EUA, Kamala Harris, da chefe da União Europeia, Ursula von der Leyen e do secretário-geral da ONU, António Guterres, além de empresários como Elon Musk, dono da X (ex-Twitter). Na ocasião, os participantes assinaram uma declaração classificando a inteligência artificial como um risco potencialmente catastrófico e sugeriram a criação de um modelo de colaboração internacional a respeito do assunto.
No Brasil, a elaboração de um arcabouço legal para regular o tema tem sido discutida no Senado. A Comissão Temporária Interna sobre Inteligência Artificial tem feito audiências públicas com especialistas em diversas áreas para ampliar os pontos de vista em torno do Projeto de Lei 2338/23, de autoria do presidente da Casa, Rodrigo Pacheco (PSD-MG), elaborado a partir do relatório de uma comissão de juristas. “O uso e desenvolvimento da inteligência artificial devem acontecer dentro de marcos jurídicos que conciliem a inovação e ganhos tecnológicos com a proteção dos direitos fundamentais, especialmente a proteção à privacidade e à intimidade”, afirmou Pacheco a VEJA.
A expectativa é que o relatório final, com as propostas de emendas ao projeto, seja finalizado em novembro e vá a votação em plenário no início de 2024. Especialistas avaliam que a ideia de elaboração de um marco legal para o tema é ambiciosa, principalmente diante de uma ferramenta que se atualiza a todo momento. Em vez de tentar correr atrás das atualizações da própria ferramenta, o que seria impossível, o PL 2338/2023 estabelece parâmetros de boas práticas e de governança, lista deveres e direitos e aponta as possibilidades de aplicação de sanções administrativas.
Embora represente um claro avanço em toda essa problemática, o projeto de Pacheco não trata da questão criminal. E corre o risco de se tornar obsoleto rapidamente. A advogada Adriana Rollo, líder da Comissão Especial de Regulação de Inteligência Artificial da Associação Internacional de Inteligência Artificial (A2IA), observa que qualquer legislação que seja elaborada neste momento de forma muito prescritiva tem grande possibilidade de se tornar obsoleta em pouco tempo. “Como o potencial de aplicação da IA ainda está longe de ser atingido, a gente não sabe quais são os tipos de crimes que podem vir a ser cometidos”, afirma. Ainda é preciso levar em conta em meio a essa complexa discussão o fato de que novas regras não podem inibir o uso da inteligência artificial para o bem. “As autoridades de Singapura criaram um avatar fardado de um agente policial para combater crimes nos ambientes digitais”, conta Patricia Peck, advogada especializada em direito digital.
O debate sobre a tecnologia é recente, mas a inteligência artificial já ocupa o imaginário da humanidade há muitas décadas. Foi, inclusive, retratada em cinema no clássico 2001, uma Odisseia no Espaço, filme de Stanley Kubrick lançado em 1968. Mas ganhou corpo a partir do desenvolvimento da IA generativa, ferramenta revolucionária que utiliza padrões “aprendidos” para gerar novos conteúdos em um ambiente em que há uma quantidade cada vez maior de dados disponíveis no meio digital. Ela é a base para a criação de áudios e vídeos falsos a partir de dados disponíveis nas redes sociais. Isso tem aberto um campo enorme para crimes. Exemplo disso ocorreu em maio, quando um golpista utilizou a tecnologia de troca de rosto e se passou por um executivo de uma empresa chinesa numa videochamada. Com isso, conseguiu uma transferência de 3 milhões de reais. O país asiático também registrou em maio o primeiro caso fraudulento ligado ao uso do ChatGPT. O responsável pela manipulação acabou sendo preso, depois de confessar às autoridades que usou a ferramenta para criar fake news a partir de fragmentos de notícias que viralizaram nos últimos anos.
Devido à impressionante escalada de episódios ligados ao mau uso da inteligência artificial, a avaliação entre especialistas é que a adoção de medidas de proteção deve passar não pela restrição, mas pela utilização cada vez maior de dados para verificação da falsidade de conteúdos. O cerne do raciocínio é que, diferente do HAL 9000, o supercomputador do filme de Kubrick, a inteligência artificial não comete crimes sozinha. Isso ainda é um defeito de fábrica exclusivamente dos humanos. Cabe ao sistema de Justiça enquadrar os criminosos na forma da lei.
Publicado em VEJA de 3 de novembro de 2023, edição nº 2866