O bioquímico e escritor de ficção científica russo-americano Isaac Asimov (1920-1992) foi responsável por antecipar e popularizar, em meados do século XX, o conceito de inteligência artificial na literatura. Influenciado pela emergente corrida espacial e pela ebulição tecnológica de seu tempo, Asimov explorou temas como moralidade, ética e as consequências da inovação para a humanidade. No livro Eu, Robô, lançado em 1950, ele reúne nove contos que mostram a evolução dos autômatos ao longo do tempo. Os enredos se passam em um mundo no qual uma série de regras, chamadas “Três Leis da Robótica”, protegem os seres humanos das máquinas. Visionário, Asimov anteviu em sua obra os temores expressos na carta divulgada há alguns dias pelo Future of Life Institute, organização que busca reduzir o risco de grandes tecnologias para a humanidade. Com milhares de assinaturas, a missiva pede aos laboratórios de pesquisa que parem imediatamente — e por pelo menos seis meses — o desenvolvimento dos modelos de inteligência artificial, que estariam se tornando perigosamente ativos na realização de tarefas cada vez mais complexas. “Esses sistemas só devem progredir quando estivermos confiantes de que seus efeitos serão positivos e seus riscos, gerenciáveis”, adverte o texto.
Subscrito por nomes insuspeitos do mundo digital, como Elon Musk, dono da Tesla e do Twitter, e Steve Wozniak, um dos fundadores da Apple, o documento se tornou um grande sinal de alerta. Entre os riscos descritos na mensagem estão a disseminação de propaganda falsa e desinformação, a potencial obsolescência humana e a perda do controle da civilização. Além do caráter alarmista, surpreende o fato de personagens cuja trajetória está diretamente ligada à inovação — Musk e Wozniak em especial — desejarem deter o avanço tecnológico. Se eles estão apreensivos com o desabrochar da inteligência artificial, imagina-se que algo realmente danoso possa nos atingir.
O temor tem crescido em intensidade e levou a reações em série de governos, empresas e organismos sociais. Na Europa, a Itália bloqueou o funcionamento do ChatGPT, aplicativo criado pela OpenAI que simula conversação humana. Segundo os italianos, o app viola a lei local de dados pessoais. França e Alemanha estão considerando seguir os mesmos passos do país vizinho. Na semana passada, o presidente americano Joe Biden se reuniu com seu conselho de consultores em ciência e tecnologia para debater os “riscos e oportunidades” envolvidos no campo da IA, agora aquecido pela competição aguerrida de conglomerados como as americanas Microsoft e Google e as chinesas Baidu e Tencent, entre outros gigantes. Uma das propostas na mesa seria regulamentar o setor. “A questão é que grupos relativamente pequenos, com recursos limitados, podem avançar a pesquisa nessas áreas”, disse a VEJA o brasileiro Marcelo Gleiser, físico, astrônomo e professor da Dartmouth College, nos Estados Unidos. “Portanto, a regulamentação torna-se muito complexa. Quem poderá garantir que as leis serão seguidas?”
A disseminação sem freios da IA gerou uma onda de oposição em diversos segmentos. Em Hollywood, aplicativos que usam inteligência artificial para o rejuvenescimento facial, a sincronização de falas e até a recriação de vozes de pessoas que morreram foram absorvidos pela indústria audiovisual porque resolvem problemas antes incontornáveis, além de reduzirem custos de produção. De que outra forma seria possível para o ator veterano Mark Hamill aparecer como um jovem Luke Skywalker na série O Livro de Boba Fett, inspirada na saga Star Wars? Sem programas específicos, seria impossível alcançar tal feito. Ainda assim, nem todos estão dispostos a aceitar os novos recursos. Keanu Reeves, estrela do cinema, adicionou aos seus contratos uma cláusula que proíbe a alteração digital de sua imagem. Em defesa da categoria, os sindicatos pedem regulamentação mais rígida. “Os trabalhadores humanos são a base das indústrias criativas e devemos garantir que sejam respeitados e pagos pelo que fazem”, disse a Screen Actors Guild, que representa 160 000 atores.
A perspectiva histórica enriquece o debate. Quando se analisam com atenção as inovações do passado — as máquinas a vapor, a internet ou o sequenciamento de genomas, para citar apenas alguns dos formidáveis saltos tecnológicos da civilização —, é importante observar que elas, especialmente em seu período de afirmação, foram alvo de questionamentos e consideradas perigosas para a humanidade. Contudo, todas se comportaram como o mito da Caixa de Pandora: uma vez aberta, seu conteúdo não pode mais ser contido. A mesma lógica vale para a inteligência artificial? Provavelmente, sim.
Por mais que cérebros potentes como Wozniak, o gênio que criou o primeiro computador da Apple, prefiram de alguma forma interromper o progresso da IA, a história ensina que impor barreiras à inovação é quase sempre impossível. Na Inglaterra do século XVIII, um movimento liderado pelo trabalhador inglês Ned Ludd consistia em quebrar equipamentos de tecelagem nas fábricas para impedir a industrialização. Como se sabe, o luddismo fracassou — as máquinas estão aí até hoje, e cada vez mais avançadas. Duvidar do potencial das novas tecnologias é típico do espírito humano. Em 1943, o então presidente da IBM, Thomas Watson, disse algo que se tornou risível com o passar dos anos: “Eu acredito que há mercado para talvez cinco computadores”. Em 1946, Darryl Zanuck, fundador do estúdio 20th Century Fox, declarou que “a televisão não vai conseguir se segurar no mercado por mais de seis meses”.
É fácil criticar o passado com os olhos do presente. Mais difícil talvez seja compreender o potencial disruptivo de uma tecnologia e dimensionar os riscos que ela representa. Não são poucos os perigos associados à inteligência artificial. Entre os mais marcantes estão a concentração de poder nas mãos de poucas empresas, o desaparecimento de empregos pela automação de atividades, a disseminação descontrolada de ataques cibernéticos e o desenvolvimento de armas autônomas. Tudo isso é factível e certamente assusta. Mas há um aspecto vital que, como sempre, não pode ser ignorado: o econômico. O mercado de IA está avaliado em 142,3 bilhões de dólares e continua a avançar impulsionado pelo fluxo crescente dos investimentos que recebe.
O que fazer diante da aparente contradição? Os especialistas arriscam algumas saídas. “Ao abordar os riscos potenciais e focar no desenvolvimento ético, acredito que seremos capazes de mitigar as chances de resultados catastróficos”, disse a VEJA o americano Jim Kaskade, presidente da Conversica, empresa de software baseada no Vale do Silício que vem criando soluções para seus clientes corporativos a partir das tecnologias de IA. Muitos cientistas, empresários e empreendedores argumentam que os benefícios da tecnologia superam os riscos embutidos nela. O bilionário e filantropo Bill Gates está entre os que pensam dessa maneira. Gates reconheceu e listou avanços gerados pela inteligência artificial que podem ser conquistados em campos como bem-estar social, educação e meio ambiente. Ao mesmo tempo, faz uma importante ponderação. Segundo ele, é imperativo garantir que todos — e não apenas os ricos — desfrutem da nova tecnologia.
O conceito de inteligência artificial como o conhecemos surgiu no fim da década de 1950, nos Estados Unidos. Um pequeno grupo de pesquisadores da computação e da ciência cognitiva se reuniu em 1956 para uma oficina na Dartmouth College, a mesma faculdade em que Marcelo Gleiser leciona atualmente. Organizado por John McCarthy, então professor de matemática da instituição, o projeto não só lançou a expressão “inteligência artificial”, como inaugurou esse campo de pesquisa na academia. Quase setenta anos depois, as ideias debatidas no evento se desenvolveram de forma tão acelerada que, na última década, acabaram obliterando representações consagradas no imaginário popular.
No cinema, o dissimulado HAL de 2001: uma Odisseia no Espaço (1968), o pequeno David de A.I. — Inteligência Artificial (2001), o temperamental Spooner de Eu, Robô (2004) e até a sedutora Samantha de Her (2013) expandiram a galeria de estereótipos futuristas e de certa forma anteciparam os riscos que os recursos da inteligência robótica trazem em sua essência. Guardados os exageros ficcionais, contudo, quase nenhum desses personagens se aproxima de aplicações que já fazem parte do cotidiano. Em vez de máquinas falantes que pilotam naves espaciais, a inteligência artificial é usada de modo mais sutil em carros autônomos, na gestão da saúde, na administração financeira, nas mídias sociais e em várias outras atividades.
Em linhas gerais, existem quatro níveis básicos de inteligência artificial. A primeira, a “fraca”, está associada a tarefas como trancar a porta do carro, que fazem parte do cotidiano de forma quase elusiva. No segundo patamar, chamado de “geral”, ela é aplicável a atividades automatizadas que quase não precisam de supervisão humana, como linhas de produção ou a gestão de lavouras. A terceira vertente, denominada “superinteligência artificial”, é usada em máquinas capazes de tomar decisões rápidas de forma quase autônoma, como os carros sem motorista. Recentemente, surgiu a “generativa”, capaz de criar textos, imagens, códigos de programação, vídeos ou qualquer outra linguagem natural, a partir de sistemas de aprendizado de máquina e grandes modelos de linguagem (LLM, na sigla em inglês). Em termos simples, o aplicativo “aprende” a partir de buscas em bancos de dados abertos e também analisando os estímulos (“prompts”, no jargão computacional) alimentados pelos usuários.
Sucesso desde que foi lançado, no fim do ano passado, o ChatGPT conquistou corações e mentes ao responder a estímulos escritos dos usuários como se fosse uma pessoa real. A despeito dos tropeços iniciais, o chatbot, como é chamada a ferramenta criada pela empresa americana OpenAI, ganhou tração popular e atraiu a atenção da Microsoft. Até agora, a big tech investiu 10 bilhões de dólares no desenvolvimento do sistema e o incorporou a produtos como o buscador Bing e o pacote de programas de escritório. A versão mais recente do aplicativo, o GPT-4, anunciado nas últimas semanas, também consegue identificar imagens. É importante reconhecer que esses modelos de linguagem não são perfeitos e têm limitações, como produzir respostas incorretas e sem sentido, além de possíveis vieses.
Mais ou menos ao mesmo tempo, surgiram os geradores de imagens como DALL-E (também da OpenAI), Midjourney e Stable Diffusion, que produzem cenas realistas a partir de definições propostas pelos usuários. Os resultados são tão impressionantes que uma fotografia falsa do papa Francisco vestindo um sobretudo de tecido sintético acolchoado enganou até veículos especializados em moda. Muito longe de ser ingênuas brincadeiras, imagens do ex-presidente americano Donald Trump sendo preso em Nova York e do presidente francês Emmanuel Macron atacando manifestantes em Paris rodaram a internet e causaram comoção por suas características muito realistas. Como a sociedade pode se proteger? “Só há uma solução”, disse a VEJA o engenheiro de robótica israelense Hod Lipson, professor da Universidade Columbia e estudioso do assunto. “Você sempre pode gerar outra inteligência artificial para distinguir o que é real e o que é falso.”
A despeito da evolução das tecnologias associadas à inteligência artificial, é consenso entre especialistas e pesquisadores que a natureza humana e sua integridade devem prevalecer. Criador do conceito de realidade virtual e ferrenho crítico das redes sociais, o cientista da computação americano Jaron Lanier declarou recentemente, em tom jocoso, que o maior perigo desses aplicativos não é seu potencial destrutivo, mas a possibilidade de que “nos deixem loucos”. Também signatário da carta que defende um freio de arrumação na inteligência artificial, o historiador e escritor israelense Yuval Noah Harari afirma que avançar na sofisticação dos computadores “pode servir apenas para fortalecer a estupidez natural dos humanos”. As possibilidades são infinitas e, de fato, algumas são assustadoras. Mas a verdade é que a inteligência artificial já está entre nós — e esse é um movimento irreversível.
Colaboraram Raquel Carneiro e Amanda Capuano
Publicado em VEJA de 12 de abril de 2023, edição nº 2836