Discriminação: o desafio da inteligência artificial em processos seletivos
Pandemia do novo coronavírus acelerou uso de processos automatizados, mas eles podem amplificar distorções e discriminações vigentes no mercado de trabalho
Há uma radical mudança em curso no ambiente corporativo. Se, no passado, as vagas de emprego eram anunciadas nos jornais, e os recrutamentos eram conduzidos de forma manual – envolvendo grandes esforços operacionais nos departamentos de recursos humanos das empresas, bem como tempo e custos nada desprezíveis –, o processo seletivo tem se transformado nos últimos anos. O que se nota, nessa questão em particular, é uma forte tendência de que a triagem a postulantes de vagas de trabalho seja cada vez mais realizada de maneira automatizada e digital.
O uso da Inteligência artificial (IA), instrumento por trás da mudança, para a identificação e a retenção de profissionais talentosos apresenta vantagens e riscos bem mapeados pelos estudiosos. Como pontos a favor da tecnologia, salta aos olhos a diminuição de custos e os ganhos em eficiência e celeridade para as empresas. O processo fica padronizado e, em tese, menos dependente das análises subjetivas e dos vieses cognitivos dos recrutadores. O grau de assertividade é também um importante elemento a se considerar.
Entretanto, a tecnologia utilizada para gerar e melhor interpretar informações também possui um lado sombrio: se os dados que alimentam os algoritmos de IA são colhidos em uma sociedade misógina, homofóbica e racista, é bem provável que, na falta de um bom controle antidiscriminatório feito pelo seu programador, o algoritmo reproduza – quiçá, amplifique – esses vieses. Independentemente de fazê-lo mediante deliberada intenção do programador, esses mecanismos decisórios podem reiteradamente gerar resultados negativos para membros de minorias já em desvantagem na sociedade – e, pior, dando uma aura de legitimidade ao processo.
Presume-se que as tarefas executadas pela IA são mais justas, por serem matemáticas, mas os algoritmos reproduzem um aprendizado. Eles analisam as correlações e os dados que mais se aproximam do perfil dos supostos bons profissionais cujas contratações foram efetivadas anteriormente. Se a maioria das contratações de uma empresa tiver sido de homens, por exemplo, alguns dados, ainda que indiretamente relacionados a termos femininos, poderão sofrer uma qualificação negativa.
É conhecida a passagem do sistema de IA da Amazon, que, em 2018, foi desativado pelo seu viés discriminatório no recrutamento de empregados. Ao que parece, mesmo não se tendo valido do gênero como input, o algoritmo foi capaz de identificá-lo, por meio de algumas palavras utilizadas nos currículos e, como resultado, desenvolveu um viés a favor dos homens – historicamente, o gênero predominante nas empresas de tecnologia. Nas palavras de Jeffrey Dastin, “o sistema da Amazon ensinou a si mesmo que os candidatos masculinos eram preferíveis. Penalizava currículos que incluíam a palavra ‘feminino’, como em ‘capitã do clube de xadrez feminino’. E rebaixou as graduadas de duas faculdades só para mulheres”.
A prática de audição às cegas no processo seletivo de músicos por parte das orquestras sinfônicas dos Estados Unidos talvez seja o mais conhecido exemplo de como medidas simples podem mitigar a discriminação: em duas décadas e meia, o número geral de mulheres aprovadas quintuplicou naquele país. A “orquestração da imparcialidade”, como ficou conhecido o ato, ocorreu, nesse caso, por meio da remoção da possibilidade de o comitê de audição, ainda que inconscientemente, considerar o gênero do candidato como um atributo para a tomada de decisão.
Em tempos de Big Data e IA, o caminho de “orquestração da equidade” provavelmente será distinto. Conforme se viu no exemplo da Amazon, que, diga-se de passagem, teve os méritos de abandonar o projeto, a simples cegueira do algoritmo aos dados sensíveis não é suficiente para evitar decisões enviesadas. Mas o que fazer, então? Como se evitar tais tipos de decisões? Haveria solução para esse problema? Em tempos nos quais a desocupação dos brasileiros atinge 12,9 milhões de pessoas, o assunto projeta-se de forma central na sociedade.
Em primeiro lugar, os recrutadores devem ter em mente que no estágio atual os sistemas de IA não são capazes de fazer uma boa análise das designadas soft skills, ou seja, das habilidades ligadas aos relacionamentos interpessoais (por exemplo, trabalho em equipe, carisma, persuasão, atitude positiva diante dos desafios e flexibilidade). Portanto, ainda que a tecnologia em questão possa auxiliar na seleção prévia de candidatos, ela está longe de ser a panaceia dos empregadores.
Um ponto a mais a se destacar é que, para evitar que os modelos sejam enviesados, as empresas que possuem (ou contratam o serviço de) recrutamento digital devem auditar os seus sistemas de IA. Especialmente com a entrada em vigor da Lei de Proteção de Dados Pessoais (LGPD), elas terão de saber informar quais dados estão sendo utilizados para a tomada das decisões e os motivos pelos quais esses dados são relevantes. O acréscimo de transparência e accountability (possibilidade de prestação de contas e fiscalização), portanto, afiguram-se medidas essenciais.
Por outro lado, assume semelhante relevo a conscientização dos cidadãos em relação aos seus direitos (como os direitos à explicação e à revisão das decisões automatizadas) e o aprimoramento de canais de reclamação disponíveis para eles (por exemplo, os sindicatos, a Defensoria Pública e o Ministério Público do Trabalho). Caberá ainda a um órgão fiscalizador, a ser mais bem definido, a verificação, em periódicas auditorias, não apenas do tratamento de dados proibidos pelos empregadores, mas também se o uso dos dados, a princípio permitidos, está causando reiterados impactos desproporcionais em membros de minorias.
No campo das decisões algorítmicas, adverte Ruha Benjamin, “a indiferença para com a realidade social é tão perigosa quanto a intolerância”. Mais do que nunca, é preciso que haja um incentivo à diversidade e à inclusão nas corporações – e não o contrário. Nesse contexto de recrutamento 4.0, se as referidas salvaguardas deixarem de ser observadas, as máquinas que, hoje, estão sendo programadas para fazer acertos no futuro acabarão por replicar os nossos erros do passado.
* Thiago Junqueira é advogado, doutor em Direito Civil pela UERJ. Professor do ICDS e Sócio de Chalfin, Goldberg & Vainboim Advogados