Group 21 Copy 4 Created with Sketch.

Inteligência Artificial apresenta traços racistas e machistas

Novo estudo identificou que nomes femininos são associados por computadores à família, enquanto os masculinos, à profissão

Os computadores também reproduzem preconceitos e estereótipos enraizados na sociedade, como o racismo e o machismo. A constatação é de um estudo publicado na última edição da revista científica Scienceque comprova que a capacidade da Inteligência Artificial de aprender o significado das palavras por conta própria também a leva a incorporar o seu sentido mais usado. Os pesquisadores identificaram, por exemplo, que nomes femininos são mais associados a termos relacionados à família, enquanto os masculinos, a termos profissionais. Já nomes afro-americanos foram muito mais ligados à palavras negativas que os euro-americanos.

Para verificar se o computador era tendencioso quanto a certos termos, o time de cientistas desenvolveu um programa capaz de associar essas palavras a conceitos positivos ou negativos. Para calibrar o software, eles o deram acesso à diversos textos da internet que juntos, somavam mais de 840 bilhões de palavras. Como a inteligência artificial utiliza associação de uma palavra a outra para aprender seu significado, com a ‘leitura’ dos textos, a máquina havia aprendido a semântica das expressões conforme o seu uso mais comum pela sociedade.

Como resultado, aos pesquisadores apresentarem a palavra ‘inseto’ ao software, ele a relacionava com algo negativo, como ‘asqueroso’. Já se tratando de ‘flor’, o termo era associado com algo positivo, como ‘bela’. O mesmo aconteceu com termos femininos, sempre associados à determinadas palavras, como ‘pais’ e ‘casamento’. Já os masculinos, com ‘profissional’ e ‘salário’. Esse processamento pode ser nocivo, já que contribui para a continuidade dos preconceitos.

Quando se usam ferramentas semelhantes de tradução, por exemplo, os programas podem processar os termos estrangeiros conforme estes sentidos comuns e oferecer traduções errôneas. Em um dos experimentos da pesquisa, a equipe utilizou o Google Tradutor para transferir uma frase turca para o inglês. Apesar do turco usar um pronome de terceira pessoa neutro em termos de gênero, o “o”, quando processada a oração “o bir doktor”, o programa traduziu como “ele é um médico”. Já quando a frase era “o bir hemşire”, a correspondência apresentada foi “ela é enfermeira”.

A pesquisa confirma que a inteligência artificial pode sim carregar preconcepções e interpretações, comenta Hanna Wallach, pesquisadora da Microsoft que não participou do estudo. “Este artigo reitera que os métodos de aprendizagem da máquina não são objetivos ou imparciais apenas porque confiam na matemática e nos algoritmos”, disse Hanna.

Entender estes aspectos são importantes para a sociedade, pois as máquinas funcionam, não só como seu reflexo, mas como ferramenta social. “Temos uma situação em que esses sistemas de inteligência artificial podem estar perpetuando padrões históricos de viéses que podemos achar socialmente inaceitáveis ​​e dos quais poderíamos estar tentando nos afastar”, comenta Arvind Narayanan, professor de ciência da computação da Universidade de Princeton e um dos autores do estudo.

Os pesquisadores alertam para a necessidade desses programas serem feitos com a preocupação de não disseminarem preconceitos, mas sim, incentivarem a igualidade e justiça. “Não pense que a Inteligência Artificial é uma fada madrinha. Ela é apenas uma extensão da nossa cultura existente”, disse Joanna Bryson, cientista da Universidade de Bath, no Reino Unido, e da Universidade de Princeton, nos Estados Unidos, e coautora do estudo.

Comentários

Não é mais possível comentar nessa página.

  1. Felicidade, encontramos mais um assunto para tentar transformar em problema!

    Curtir

  2. Resumindo: a inteligência artificial não é politicamente correta. E nem o é a inteligência humana. Fazer o quê?

    Curtir

  3. Ricardo Lima

    Davi AHA, seu resumo é magistral!

    Curtir

  4. Um usuario qualquer

    Se é INTELIGÊNCIA artificial logo não vai ser politicamente correta
    pra deixar a máquina politicamente correta tem que tirar a inteligência dela também

    Curtir

  5. Que palhaçada essa matéria. Realmente a mídia tradicional está indo para o buraco. Saturado desse papo de racismo, machismo… Haja paciência!

    Curtir

  6. A pesquisa foi muito interessante, mas o resultado era previsível.

    Curtir

  7. Flavio Fernandes

    Se foi calibrada para achar esse resultado…

    Curtir

  8. Osvaldo Souza

    A redação apresenta traços esquerdistas, levando temas de esquerda para o mundo da tecnologia. Criem vergonha na cara!

    Curtir

  9. José Antonio Debon

    Será que os imbecis que reclamam do racismo ainda não entenderam que não existem raças, mas apenas a especie humana. Esses devaneios sobre raças surgiram com as teses de Francis Galton, Herbert Spencer, etc… estudem um pouco mais.

    Curtir

  10. Quem reclama demais que o mundo está saturado desse papo de racismo, machismo, etc., no fundo é um racista e um machista que quer xingar outros sem consquência alguma. É simples assim. Quanto a IA: são algoritmos que “aprendem” com a massa de opiniões existentes na rede; como há muitos energúmenos na rede, talvez a maioria, então a IA reflete o baixo calão existente no meio. Uma prova do baixo nível de pensamento, refletida em comentários insanos e estúpidos, são os vários leitores tradicionais desta revista. Fazer o quê? O mundo sempre foi povoado por idiotas. Mas a minoria sempre prevalece, pois é a que promove inovações e transformações tecnológicas reais.

    Curtir