Inteligência artificial do Google é acusada de “racismo reverso”
O CEO, Sundar Pichai, reconheceu os erros do aplicativo e anunciou mudanças estruturais
O que acontece se você pedir para uma ferramenta de criação de imagens por inteligência artificial ilustrar vikings ou soldados nazistas? Se o pedido for feito para o Gemini, modelo criado pelo Google, a resposta pode ser surpreendente. Isso porque quase nenhuma dessas figuras notoriamente brancas eram retratadas como tal. A interpretação, um tanto quanto criativa, de papas indianos e colonizadores indígenas tem levantado acusações de “racismo reverso” (anti-white bias, em inglês) de usuários. De acordo com a Unicef, o racismo é o preconceito contra pessoas a partir do seu tom de pele e traços físicos que remetem a uma raça que é marginalizada, ou seja, vista como inferior e desvalorizada.
O Gemini foi programado para criar imagens que trazem uma variedade étnica. A preocupação não é de todo injustificada. Outras ferramentas de IA, como a própria DALL E, criada pela OpenAI, desenvolvedora do ChatGPT, têm sido criticadas pela ausência dessas preocupações, criando imagens com claros vieses racistas. A tentativa de evitar essas armadilhas, no entanto, fizeram a ferramenta do Google cair em outro extremo, trazendo interpretações irreais de determinadas figuras.
As denúncias levaram a gigante da tecnologia a anunciar a reformulação do modelo de imagens. A aparente boa intenção, porém, não acalmou os ânimos dos críticos, que voltaram a atenção para o chatbot. Em conversas, a ferramenta evitou classificar o Hamas como um grupo terrorista, definindo o conflito em Gaza como “complexo”, além de não conseguir opinar sobre as diferenças entre o bilionário Elon Musk e Adolf Hitler. Outras questões apontam para tendências progressistas no algoritmo. Em alguns testes, por exemplo, o chatbot se recusou a apresentar argumentos contra políticas de ações afirmativas e a escrever anúncios de emprego para grupos exploradores de combustíveis fósseis.
Em nota, Sundar Pichai, CEO do Google, afirmou que a empresa reconhece que algumas respostas podem ter sido “ofensivas para os usuários”. E definiu o comportamento das IAs como “completamente inaceitável”. Pichai também anunciou que a equipe do Google segue trabalhando 24 horas na resolução dessas questões e prometeu mudanças estruturais no aplicativo.
As controvérsias em torno do Gemini refletem uma longa lista de comportamentos estranhos em inteligências artificiais. O incidente destaca os desafios e riscos associados à implantação de tecnologias de IA, especialmente quando se trata de questões de representação, preconceito e impacto social.