Decisões relevantes têm sido, cada vez mais, realizadas com o uso inteligência artificial, ainda que não se tenha tanta consciência disso. Desde quem vai receber um empréstimo bancário — assim como a taxa que será ofertada — até quem será oferecida uma vaga de emprego, e até mesmo quem será selecionado para entrevista numa universidade pode ter por trás “dedos robotizados”, ou melhor dizendo, algoritmos. Mas a questão que fica é: como saber se não haverá viés ou propensão das ferramentas tecnológicas ao tomarem essas decisões? Tais resultados podem ser influenciados de acordo com a realidade de quem fizer a programação, ainda que não se trate de algo intencional, representando os vieses inconscientes.
A questão não é de fácil investigação, exigindo complexas confirmações técnicas e que podem ter grandes variações. A cada nova consulta realizada com o algoritmo, a depender dos dados de entrada, as respostas podem ser diferentes. Apesar de inteligência artificial estar mais disseminada hoje, a discussão vem de antes. Em 1988, uma Escola de Medicina no Reino Unido identificou que o programa de computador que selecionava os candidatos para as entrevistas admissionais era tendencioso contra candidatos com nomes não europeus e do gênero feminino.
Diversos outros casos como esse têm sido identificados nos últimos 30 anos. E isso pode se repetir especialmente se o programa for desenhado por equipes com pouca diversidade, diante da tendência de que o algoritmo seja “imagem-reflexo” do pensamento daqueles que estão diretamente responsáveis pela sua elaboração.
Justamente com o objetivo de ter maior controle sobre esse tema, grandes empresas de tecnologia (como Google, Facebook, Amazon, IBM, Microsoft, entre outras) já começam a ter em seus Conselhos membros focados nessa temática. A principal missão é acompanhar de perto os “julgamentos algorítmicos” buscando torná-los o mais neutro possível.
A própria apuração dessa neutralidade pode ser enviesada, uma vez que nos processos realizados por seres humanos também haverá tendência nas escolhas a serem confirmadas ou rejeitadas – crenças, preferências e aspirações podem influenciar essas definições, por mais que se deseje alcançar a imparcialidade. Não se trata, portanto, de aversão à tecnologia.
Assim, é importante confiar nas decisões algorítmicas, até mesmo para que se possibilite a análise de grande volume de dados com rapidez, eficiência e retorno mais assertivo, quando comparado com resultados que seriam obtidos se isso fosse realizado apenas por seres humanos. Com o crescimento da quantidade de informações em ambiente digital, isso se torna mais relevante.
A ética que permeia o desenvolvimento desses programas tem desafiado os estudiosos de diversas áreas, indo além do Direito e da Engenharia. Em breve, existirão padrões e boas práticas a serem seguidos pela indústria desde a concepção dessas novas ferramentas, o que vem sendo denominado de “ética by design”.
* Caio César Carvalho Lima é professor e advogado com atuação em Direito Digital e Proteção de Dados e sócio do Opice Blum, Bruno e Vainzof Advogados Associados