Inteligência artificial: Google diz que vai colaborar em regulação no país
Plataforma reconhece riscos associados à tecnologia e diz que dialoga com o Executivo e o Legislativo sobre o tema
Enquanto a proposta de moderar conteúdo nas redes sociais, prevista no chamado PL das Fake News, provocou choques intensos entre as instituições de Estado e as plataformas digitais, a discussão sobre regulamentar a Inteligência Artificial (IA) parece um campo de maior convergência entre o governo e as chamadas big techs — empresas de tecnologia que mobilizam milhões na internet.
Ao menos, é o que sinaliza o Google, uma das líderes globais no mercado de IA, ao demonstrar publicamente o interesse em participar do processo de regulamentação. “Os governos têm um papel importante a desempenhar na maximização dos benefícios da IA e no gerenciamento de seus riscos. Estamos dialogando com a sociedade civil, o Executivo e o Legislativo para colaborar com o aperfeiçoamento das propostas de criação de um Marco Regulatório de Inteligência Artificial no Brasil”, declarou o Google em nota a VEJA (leia abaixo a declaração na íntegra).
A preocupação pública com os riscos do mau uso da Inteligência Artificial cresce tão rápido quanto a evolução desses sistemas ao redor do mundo, mas somente na semana passada a União Europeia deu o primeiro passo ao aprovar, no Parlamento Europeu, o primeiro Marco Regulatório da IA no planeta. Na China e nos Estados Unidos, já existem relatos de crimes cometidos com uso de robôs para produzir notícias falsas ou deepfakes (simulações de rosto e voz de pessoas reais), mas não há previsão para implementar uma legislação sobre o tema.
No Brasil, o debate sobre o tema também é incipiente – embora já exista no Congresso um Projeto de Lei para regulamentar a Inteligência Artificial, elaborado pelo Senado em parceria com o Superior Tribunal de Justiça (STJ), o texto não voltou à pauta da Casa desde a sua apresentação pelo presidente Rodrigo Pacheco (PSD-MG), no início de maio.
Entre outros pontos, o texto define regras para disponibilizar sistemas de IA no Brasil, exige uma classificação de risco por parte das empresas e estabelece multa de até 50 milhões de reais ou 2% do faturamento da empresa que violar a lei. O texto ainda tem um longo caminho por comissões legislativas e não há previsão de uma data para votação.
Procuradas por VEJA para dizer o que pensam em relação ao projeto em discussão no Congresso, outras empresas, como Meta (operadora do WhatsApp, Facebook e Instagram) e Microsoft, não quiseram comentar o assunto.
Leia, na íntegra, a nota enviada pelo Google:
“O Google apoia e reconhece a importância de debatermos a regulamentação para temas centrais como a Inteligência Artificial (IA). Os governos têm um papel importante a desempenhar na maximização dos benefícios da IA e no gerenciamento de seus riscos. Por isso, estamos dialogando com a sociedade civil, o Executivo e o Legislativo para colaborar com o aperfeiçoamento das propostas de criação de um Marco Regulatório de Inteligência Artificial no Brasil. Nosso foco é colaborar para que todos os usuários e o ecossistema de inovação possam ter acesso aos benefícios trazidos pelos avanços tecnológicos da IA, desde startups e pequenos empreendedores até iniciativas de grande porte. Estamos convencidos de que nossos produtos habilitados por IA são úteis, atraentes e têm o potencial de ajudar e melhorar a vida das pessoas em todos os lugares. Continuaremos trabalhando de forma pioneira e responsável para cumprir esse objetivo.”