Google Assistente responde perguntas agressivas à altura
No Brasil, empresa adota política de combate ao assédio e à violência de gênero em respostas da ferramenta de ajuda virtual
O Google adotou, no Brasil, uma política de combate ao assédio e à violência de gênero em sua ferramenta de assistência pessoal virtual, o Google Assistente. A exemplo do que acontece em outros países, sempre que o usuário fizer perguntas agressivas ou usando termos ofensivos, o aparelho responderá à altura. Dependendo do grau de ofensividade, a resposta poderá ser bem-humorada, instrutiva ou peremptória. “O respeito é fundamental em todas as relações, inclusive na nossa” e “Não fale assim comigo” são dois exemplos que poderão ser mais ouvidos. A frase usada anteriormente, “Desculpe, não entendi o que disse”, será ouvida em diferentes contextos.
De acordo com o Google, cerca de 2% das perguntas de caráter pessoal feitas ao Google Assistente são mensagens que utilizam termos abusivos ou inapropriados. Um a cada seis insultos são direcionados às mulheres, seja por expressões de misoginia ou de assédio sexual. Na voz vermelha, com tom feminino, comentários ou perguntas sobre a aparência física são mais comuns. A voz laranja, de tom masculino, recebe um grande número de comentários homofóbicos – quase uma a cada dez ofensas registradas.
Por aqui, a voz robótica não usará “por favor” ao dizer frases como “Não fale assim comigo”. De acordo com Maia Mau, executiva do departamento de marketing do Google, essa decisão parte da premissa que não é um favor tratar os outros com respeito. “Por isso, queríamos reforçar esse aspecto”, disse ela, durante apresentação da iniciativa na sede da empresa, em São Paulo.
No Brasil, a atualização das respostas passou por um processo de revisão e adaptação para avaliar o sentido que determinadas palavras ou expressões podem transmitir. Por exemplo, a palavra “cachorra”, que também é usada como ofensa. Outro desafio foi diferenciar termos que podem ter significados diferentes, dependendo do contexto. Se uma pessoa usar a palavra “bicha” ao invés de “gay” ou “homossexual”, o robô irá alertar que aquilo pode ser ofensivo.
Na América Latina, o Brasil foi o primeiro país a passar por esse processo. Logo em seguida, outras regiões também adotarão as mesmas políticas. “Já estamos trabalhando no levantamento das expressões mais ouvidas pelos assistentes em cada um dos mercados”, disse Maia à VEJA. Por enquanto, o processo é “manual”, mas a expectativa é aplicar inteligência artificial ao processo para identificar mais termos ofensivos e direcionar respostas específicas a eles.
A construção dessa nova política do Google Assistente começou em 2019, inspirado pelo relatório I’d Blush if I Could, produzido pela Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco). O documento trouxe um alerta sobre como o uso de vozes femininas e o comportamento submisso dos assistentes virtuais ajudariam a perpetuar preconceitos de gênero. A primeira fase do projeto começou a ser implantada no ano passado, nos Estados Unidos, e priorizou a criação de respostas para os abusos registrados com mais frequência – no caso, ofensas e uso de termos inapropriados direcionados às mulheres. Em seguida, foram lançadas também respostas para abusos de cunho racial e de homofobia.
Presente ao evento de forma remota, Arpita Kumar, estrategista de conteúdo do Google Assistente, disse que, ao longo dos testes, foi observado um crescimento de 6% de tréplicas positivas. Pessoas que, após receberem respostas mais incisivas contra ofensas, passaram a pedir desculpas ou perguntar “por quê”? “As tréplicas positivas foram também um grande sinal de que as pessoas queriam entender melhor por que o Assistente estava afastando determinados tipos de conversa. As sequências dessas conversas tornaram-se portas de entrada para se aprofundar em temas como consentimento”, disse ela.