“É preciso regular”, diz vice-presidente de Tecnologia do Google sobre IA
Um dos maiores especialistas do mundo em inteligência artificial defende a criação de boas normas para evitar riscos e preservar os benefícios da tecnologia
Vice-presidente de Pesquisa, Tecnologia e Sociedade do Google, James Manyika, de 58 anos, é um dos mais conhecidos especialistas em inteligência artificial (IA) do mundo. Nascido no Zimbábue, formou-se engenheiro elétrico em seu país e, depois, seguiu carreira acadêmica pela Universidade de Oxford, na Inglaterra. Atuou também como consultor de tecnologia do governo dos Estados Unidos na gestão do presidente democrata Barack Obama, foi cientista-visitante na Nasa e consultor da McKinsey & Company.
No evento Google for Brasil, convenção da empresa que acontece no próximo dia 11 em São Paulo, Manyika falará sobre a tecnologia e seus impactos na sociedade moderna, além de trazer uma reflexão mais ampla sobre as oportunidades e riscos dos saltos tecnológicos. Os riscos podem ser traduzidos por um recente imbróglio do próprio Google, que tirou do ar, para depois aperfeiçoá-lo, o Gemini, ferramenta de IA que gerava imagens com imprecisões históricas e raciais. As oportunidades, por óbvio, são infinitas. “A IA pôs um espelho diante de nós como sociedade”, disse Manyika em entrevista exclusiva a VEJA, por videoconferência, antes de sua chegada ao Brasil. “O que significa ser justo e ter valores humanos?” A seguir os principais trechos da conversa.
A inteligência artificial (IA) gera imensas questões éticas, em busca do uso adequado da ferramenta. O que o Google tem feito nesse caminho? Estamos levando isso muito a sério. A abordagem do Google é, a um só tempo, ousada e comprometida. Tentamos garantir a utilidade da tecnologia para a sociedade. Mas não podemos deixar de ser responsáveis. Em 2018, estabelecemos sete princípios para o uso de IA, que começam por beneficiar os cidadãos, passam pela segurança do sistema e compromisso com os usuários. Em essência, todos estão sempre fazendo duas perguntas simultâneas: se determinado recurso pode ser benéfico e se pode ser prejudicial. Não paramos de pesquisar e pensar nesses dois aspectos.
Como é possível ter certeza de que os princípios de responsabilidade serão observados? É um questionamento relevante. À medida que tecnologias como a da IA ficam ainda mais poderosas, é fundamental acompanhar as mudanças. As perguntas que devemos nos fazer também precisam mudar. Como podemos, enfim, torná-las seguras? Como ter certeza de que abordaremos todos os danos? Em nossa conferência anual de programadores, em São Francisco, e também no encontro que faremos no Brasil, apresentamos novidades incríveis nas buscas e nas ferramentas de IA. Ancorados em estudos de mais de um ano publicados em revistas científicas reputadas, como a do MIT e a Nature, de modo a entendermos o aspecto ético da IA. Precisamos avançar, torná-la cada vez mais útil, mas sempre com a certeza de estarmos oferecendo o uso de maneira correta.
“Com a IA, provavelmente alguns empregos serão obsoletos. Mas também haverá novos postos de trabalho, a combinação de algumas profissões existentes e novos ofícios”
Mas as falhas são inevitáveis, especialmente nos aplicativos usados pelos consumidores com um smartphone em mãos. A regulamentação do uso da IA, permanente fantasma para as big techs, seria uma saída? Em primeiro lugar é preciso alertar que a inteligência artificial é muito mais do que apenas a IA generativa, presente nos robôs, nos chatbots. Sabemos, no entanto, que eles têm algumas limitações. Às vezes, há as chamadas “alucinações”. As máquinas podem ser tendenciosas a partir dos dados com que foram treinadas, pois não trabalham só com dados factuais. Portanto, é muito importante ter em mente essas limitações. Desenvolvemos constantemente técnicas para avaliar o desempenho e os resultados desses modelos. Nem sempre acertamos, mas trabalhamos duro para resolver o nó. A propósito, aprendemos muito com usuários que nos dão retorno e com nossas próprias pesquisas e avaliações.
Afinal, cabe a regulamentação? A IA não só deve ser regulamentada, como deve ser bem regulamentada. Quando pensamos em regular, temos em mente dois aspectos: atacar os riscos sociais e, simultaneamente, preservar os benefícios sociais. É fato que já temos ganhos na economia, na ciência, na saúde e em escala urbana, prevenindo inundações, incêndios florestais etc. Mas, é claro, os desenvolvedores devem trabalhar para melhorar a tecnologia de modo a garantir que possam também melhorar as pessoas.
“Melhorar as pessoas” é ensiná-las a fazer as perguntas certas, avaliar as respostas produzidas e checar se há alguma distorção no processo? O lado humano é crucial. É muito, muito decisivo. Gosto de citar o AlphaFold 3 (ferramenta de IA do Google destinada a medir e estimar as proteínas de moléculas da vida, de relevante utilidade na bioquímica), cujos resultados são utilizados por biólogos em doenças comumente negligenciadas. O AlphaFold 3 já está sendo utilizado por mais de 1,8 milhão de cientistas globalmente. O papel dos humanos é fundamental, tanto no uso quanto no desenvolvimento da tecnologia, na avaliação de seus resultados e na reflexão sobre questões éticas.
No ano passado, o The New York Times processou a OpenAI e a Microsoft por violação de direitos autorais, acusando as empresas de tecnologia de usarem milhões de notícias publicadas sem autorização. Em abril, outros oito jornais americanos entraram com uma ação semelhante na Justiça. Como o Google vê essas ações? É questão crucial. O “treinamento” dos grandes modelos de linguagem (large language models, em inglês), recurso que ajuda a educar as ferramentas de IA, é feito com base em informações disponíveis publicamente na internet. Os editores e detentores de direitos autorais têm a opção de não permitir o uso de seu conteúdo, mesmo que esteja em um banco de dados público. Além disso, uma prática nossa é licenciar algumas informações de bancos que não são públicos. É o caso, por exemplo, de parte dos livros didáticos. Para o ecossistema do Google é fundamental lidar com essas equações de forma sustentável. Ajudamos nossos parceiros editores e provedores de conteúdo direcionando tráfego para eles.
Há uma outra dúvida no ar, de olho no futuro da humanidade: a IA vai tirar nossos empregos? É uma questão muito antiga. Desde a década de 1960, pelo menos, há pesquisas em torno desse tema. A maioria dos levantamentos recentes, inclusive com a chancela da Organização Internacional do Trabalho (OIT), informa basicamente três coisas. Provavelmente, alguns empregos serão obsoletos, sim, porque as tarefas começarão a ser feitas pela tecnologia. Haverá também novos postos de trabalho, combinação de algumas profissões existentes que crescem devido à procura. E haverá novos ofícios.
Onde, então, pode haver maior repercussão? A maioria dos empregos mudará de desenho, porque trabalhadores e trabalhadoras estarão ao lado da IA. Será fundamental dotá-los de competências para saber utilizar a tecnologia. Não há dúvida: as novas habilidades, de mãos dadas com os saltos tecnológicos, são muito, muito relevantes.
O senhor citou o AlphaFold 3, de uso na medicina. Por que essa área do conhecimento é fundamental para o Google? Porque o impacto da IA na pesquisa científica é imenso, tem crescimento exponencial. Deixe-me dar outros exemplos, além do AlphaFold 3, todos consumados nas três últimas semanas. Criamos e lançamos recentemente uma variação do Gemini, nosso chatbot, ajustado especificamente para a saúde e os cuidados pessoais. Ele é capaz de compreender diagnósticos, dados de DNA e exames de imagem. Na área da neurociência, um novo método que usa IA foi desenvolvido para desvendar a estrutura do cérebro — a rigor, um pequeno pedaço dele. O estudo teve destaque em algumas das mais renomadas publicações científicas. No campo da ciência dos materiais, a IA possibilitou a descoberta de 2,2 milhões de novos cristais, com potencial para a sintetização de materiais inovadores. Além disso, outros avanços em áreas como genômica demonstram o impacto crescente da IA na pesquisa científica.
O mundo tem se debruçado, nos últimos anos, em tragédias atreladas a desastres climáticos. Esse também é um outro campo de trabalho fundamental, para o qual podemos vislumbrar avanços? Sim. Um exemplo notável é o sistema de previsão de inundações que minha equipe desenvolveu. Inicialmente testado em Bangladesh, ele agora está presente em 83 países, incluindo o Brasil — sabemos que, neste momento, o Rio Grande do Sul está sofrendo com chuvas, inundações e suas consequências trágicas. Por meio desse sistema, as populações são alertadas com antecedência, minimizando danos causados pelas inundações.
“O papel dos humanos é fundamental nessa história, tanto no uso quanto no desenvolvimento da tecnologia, na avaliação de seus resultados e na reflexão sobre as questões éticas”
Mas como informar as populações para o bom funcionamento desses instrumentos? É crucial salientar que, muitas vezes, os cidadãos se beneficiam da IA sem compreender totalmente sua dinâmica. Eles recebem alertas nos telefones, novos materiais são descobertos, mas não sabem como acontece do ponto de vista prático. Creio ser crucial aumentar a conscientização sobre o impacto social positivo da ciência e da IA.
Para além das boas práticas da IA — e dos tropeções éticos —, há ainda desafios monumentais pela frente. Em recente entrevista a VEJA, o escritor norueguês Jon Fosse, Nobel de Literatura de 2023, disse ter ficado fascinado com as traduções de seus textos a partir de mecanismos do Google. Mas mostrou-se decepcionado com o resultado de um texto supostamente inspirado em seu estilo. Aonde chegaremos? O fundamental é entender como os humanos usam essas ferramentas. E os humanos estão constantemente evoluindo na forma como as usam. Isso me lembra a história da fotografia. Quando a fotografia apareceu pela primeira vez, no século XIX, as pessoas preocupavam-se com os artistas, os pintores — o que lhes aconteceria?
E o que lhes aconteceu? Eles seguiram em frente. Abraçaram a arte abstrata, explorando caminhos diferentes que uma câmera não poderia replicar. Os artistas não estavam mais limitados a simplesmente reproduzir rostos. Acho que veremos situações semelhantes acontecendo em outros campos criativos, até mesmo na escrita. Não são soluções excludentes. A propósito, minha mulher é escritora e ela também usa essas ferramentas de IA. Acredito, então, que as pessoas encontrarão maneiras incrivelmente inovadoras de usar essas ferramentas. É o que estamos vendo com artistas, escritores e jornalistas com quem trabalhamos.
Publicado em VEJA de 31 de maio de 2024, edição nº 2895