IA é ameaça tão grande quanto guerra nuclear, dizem especialistas
Chefes da OpenAI e do Google Deepmind assinaram declaração conjunta sobre perigos da inteligência artificial
Dezenas de especialistas apoiaram nesta semana uma declaração que diz que a inteligência artificial pode levar à extinção da humanidade, publicada na página do Center for AI Safety. Entre os signatários estão os chefes da OpenAI e do Google Deepmind.
“Mitigar o risco de extinção a partir da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, diz o comunicado.
O comunicado visa superar os obstáculos para abrir uma discussão para mostrar preocupação com os riscos da inteligência artificial (IA) avançada e demonstrar o crescente número de pesquisadores e profissionais da área que reconhecem esses problemas. Sam Altman, executivo-chefe da OpenAI, fabricante do ChatGPT, Demis Hassabis, executivo-chefe do Google DeepMind e Dario Amodei, da Anthropic, apoiaram a declaração.
+ A aposta de Bill Gates para o futuro da Inteligência Artificial
Além disso, dois dos três pesquisadores considerados como os “padrinhos da IA” por trabalhos inovadores no campo também assinaram o documento. Entre eles estão Geoffrey Hinton, que emitiu um alerta anterior sobre os riscos da IA superinteligente, e Yoshua Bengio, professor de ciência da computação na Universidade de Montreal.
Entretanto, o terceiro “padrinho da IA”, Yann LeCunn, professor da Universidade de Nova York que também trabalha na Meta, disse que esses avisos apocalípticos são exagerados e chegou a fazer uma postagem no Twitter sobre a discussão. Junto com Hinton e Bengio, LeCunn ganhou o Prêmio Turing de 2018, que reconhece contribuições excepcionais na ciência da computação.
https://twitter.com/ylecun/status/1654125161300520967
+ Para maioria dos americanos, inteligência artificial ameaça humanidade
Outros especialistas concordam com LeCunn e acreditam que o medo da IA acabar com a humanidade é irreal. Para eles, essa preocupação é uma distração para as questões como preconceito em sistemas que já são um problema.
“A IA atual não é nem de longe capaz o suficiente para que esses riscos se materializem. Como resultado, isso desvia a atenção dos danos de curto prazo da IA”, disse Arvind Narayanan, cientista da computação da Universidade de Princeton, à BBC.
O debate e a cobertura da mídia sobre a suposta ameaça “existencial” da IA aumentou desde março deste ano, quando especialistas, incluindo o chefe da Tesla, Elon Musk, assinaram uma carta aberta pedindo a suspensão do desenvolvimento da próxima geração de tecnologia de IA. A carta perguntava se os cientistas deveriam “desenvolver mentes não-humanas que eventualmente superassem em número, fossem mais espertas, obsoletas e nos substituíssem”.