Black Friday: Revista em casa a partir de 8,90/semana
Continua após publicidade

Cientistas alertam para possível colapso das inteligências artificiais

Ferramentas generativas podem parar de funcionar se treinadas com conteúdo artificial

Por Luiz Paulo Souza Materia seguir SEGUIR Materia seguir SEGUINDO Atualizado em 25 jul 2024, 09h38 - Publicado em 24 jul 2024, 16h06

Inteligências artificiais generativas (IAs) são conhecidas por necessitar de uma grande quantidade de conteúdo gerado por humanos para funcionar de maneira satisfatória. Quanto mais dados diversos e de qualidade, melhores são os textos, imagens, áudios e vídeos produzidos por esses robôs. No entanto, à medida que mais conteúdo artificial, gerado pelas IAs, começam a se espalhar pela internet, maior o risco dessas ferramentas entrarem em colapso. 

Por que as IAs podem colapsar?

O alerta veio de um artigo científico publicado nesta quarta-feira, 24, na Nature. Isso acontece porque a internet é uma das maiores fontes de dados para treinar essas ferramentas e, à medida que o conteúdo online fica “contaminado” por textos e mídias artificiais, criados pelas próprias IAs, elas deixam de funcionar de maneira adequada. 

E isso pode acontecer muito rapidamente. De acordo com os pesquisadores responsáveis pela investigação, feita na Universidade de Oxford, um dos testes feitos por eles precisou de apenas nove ciclos de treinamento baseado em conteúdo artificial para o modelo começar a gerar respostas sem sentido – em uma conversa que deveria ser sobre arquitetura medieval, logo o sistema começou a falar sobre espécies inexistentes de coelhos. 

Isso acontece em diversas etapas diferentes. “Na fase inicial do colapso, os primeiros modelos perdem a variância e desempenho em dados minoritários”, disse Ilia Shumailov, autor principal do artigo, em entrevista ao Gizmodo. “Na fase final, o modelo entra em colapso total.”

Como reverter isso?

A pane ocorre porque os modelos são naturalmente enviesados. Suponhamos que para gerar imagens de gatos, o modelo tenha sido treinado com mais gatos laranjas do que com gatos brancos. Como resultado, também terão mais imagens artificiais do animal colorido do que do animal pálido. À medida que imagens artificiais são incorporadas, maior ainda é o enviesamento, até que, em algum momento, o modelo simplesmente ignore a existência dos gatos brancos. 

A mesma lógica funciona para qualquer assunto e, por isso, é necessário que as empresas passem a pensar em maneiras de evitar que isso aconteça. Uma delas é fazer uma boa curadoria do conteúdo utilizado, se aproveitando apenas de fontes comprovadamente humanas. A outras, é criar marcadores, ou “marcas d’água”, que permitam a identificação do conteúdo artificial, seja em texto, seja em conteúdo de áudio ou vídeo, para que os sistemas reconheçam e ignorem os dados não gerados por humanos. 

Publicidade

Matéria exclusiva para assinantes. Faça seu login

Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

Semana Black Friday

A melhor notícia da Black Friday

BLACK
FRIDAY

MELHOR
OFERTA

Digital Completo

Acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

Apenas 5,99/mês*

ou
BLACK
FRIDAY
Impressa + Digital
Impressa + Digital

Receba 4 Revistas no mês e tenha toda semana uma nova edição na sua casa (a partir de R$ 8,90 por revista)

a partir de 35,60/mês

ou

*Acesso ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
*Pagamento único anual de R$71,88, equivalente a 5,99/mês.

PARABÉNS! Você já pode ler essa matéria grátis.
Fechar

Não vá embora sem ler essa matéria!
Assista um anúncio e leia grátis
CLIQUE AQUI.