Exposto à internet, robô da Microsoft vira racista em 1 dia
Projeto de inteligência artificial da gigante da tecnologia foi tirado do ar em menos de 24 horas depois que passou a reproduzir ofensas escabrosas ao interagir com trolls nas redes
Não deu certo. Tay, o perfil de inteligência artificial criado pela Microsoft para interagir com adolescentes nas redes sociais, foi tirado do ar menos de 24 horas depois de ser ativado. O motivo? O robô, que deveria se tornar mais esperto e perspicaz ao conversar com os humanos, rapidamente passou a reproduzir o racismo e a ignorância dos trolls da internet.
Instigada por usuários no Twitter, Tay usou termos impublicáveis para se referir a negros e mulheres, declarou suporte ao genocídio e demonstrou apoio à causa dos supremacistas brancos. “O Holocausto aconteceu?”, perguntou um usuário. “Ele foi inventado”, declarou a “inteligência artificial”, que postou um emoticon de aplauso em seguida.
Muitas das ofensas proferidas pelo perfil eram resultado de Tay simplesmente obedecendo ao comando de internautas para repetir suas frases. Mas, segundo o jornal inglês The Guardian, o robô também criou algumas respostas escabrosas por conta própria. Perguntada se o comediante britânico Ricky Gervais era ateu, ela respondeu: “Ricky Gervais aprendeu totalitarismo de Adolf Hitler, o inventor do ateísmo”.
Segundo a Microsoft, o projeto Tay foi desenvolvido para entreter pessoas através de “conversas informais e divertidas”. “Quanto mais você conversa com Tay, mais esperta ela fica”, apostava a companhia. Diante do fiasco da empreitada, a Microsoft comunicou que retirou o robô do ar “para ajustes” e lamentou o “esforço coordenado de alguns para fazer o perfil responder de maneira inapropriada”.
Robô mochileiro – Não é a primeira vez que um experimento social envolvendo robôs e humanos acaba mal. No ano passado, um robô mochileiro que dependia da bondade humana para ser levado de um lugar ao outro terminou sua jornada desmembrado.
(Da redação)