TSE proíbe IA de recomendar candidato a presidente — mesmo se o eleitor pedir
Regras valem para todos os assistentes pessoais, como ChatGPT e Gemini, e integram um pacote amplo sobre o tema aprovado pela Justiça para as eleições deste ano
Por unanimidade, o Tribunal Superior Eleitoral (TSE) aprovou normativa que disciplina o uso de conteúdo gerado por inteligência artificial durante o período de campanha em 2026, mas estabelece algumas restrições. A resolução que regula o tema nas eleições foi elaborada pelo vice-presidente do TSE, Kassio Nunes Marques, e aprovada em sessão plenária na noite de segunda-feira, 2.
Uma das restrições tenta reduzir o impacto da IA na escolha do eleitor. O TSE determinou que sistemas de inteligência artificial não podem recomendar candidatos aos usuários, mesmo que expressamente solicitados a fazê-lo. A regra vale principalmente para assistentes pessoais de IA, como ChatGPT, Gemini, DeepSeek, Copilot e Claude, que devem ser modificados pelos desenvolvedores para impedir indicações de voto — a proibição, segundo Nunes Marques, visa a “impedir a interferência algorítmica no processo decisório”.
O tribunal também autorizou a veiculação de material produzido ou alterado com uso de IA, mas vetou a prática nas 72 horas anteriores ao dia de votação e nas 24 horas seguintes ao pleito — para Nunes Marques, a ideia do limite temporal é “excluir surpresas indesejadas no período mais crítico do processo eleitoral”. As regras valem para “quaisquer conteúdos sintéticos novos produzidos ou alterados por inteligência artificial ou tecnologias equivalentes que modifiquem imagem, voz ou manifestação de candidata, candidato ou de pessoa pública”.
Desde 2024, a Justiça Eleitoral exige das campanhas que identifiquem explicitamente o uso de inteligência artificial para “criar, substituir, omitir, mesclar ou alterar a velocidade ou sobrepor imagens ou sons” — na prática, não é vedada a fabricação de vídeos e áudios de candidatos ou outras pessoas reais, desde que o material esteja rotulado como digitalmente alterado por meio de IA. O conteúdo que não se adequar às regras poderá ser enquadrado como desinformação e removido pela Justiça, tanto a partir de denúncias ao TSE e aos tribunais regionais quanto por iniciativa das próprias autoridades eleitorais.
Um dispositivo específico contra deepfakes (vídeos e imagens falsas) de teor erótico ou pornográfico também foi incluído nas novas regras, proibindo que “sejam criadas ou promovidas alterações em fotografias, vídeos ou outro registro audiovisual que contenha cena de sexo, nudez ou pornografia”. A norma, segundo o ministro relator, tem como objetivo principal o combate à misoginia e à violência política contra mulheres.
Responsabilidade solidária das big techs
Também em relação às plataformas digitais, os ministros determinaram que as redes sociais devem banir “perfis falsos, apócrifos ou automatizados” que possam “comprometer a integridade do processo eleitoral”. No escopo desta decisão estão as contas operadas por robôs ou pessoas anônimas para disparar desinformação em massa no ambiente digital.
Para fazer valer as regras, a Justiça conta com a “responsabilidade solidária” das big techs que controlam redes sociais e desenvolvem sistemas de IA, como Google, Meta, TikTok, Microsoft, OpenAI e X (ex-Twitter). O dispositivo abre caminho para que as empresas sejam responsabilizadas, em âmbito civil ou administrativo, por não remover conteúdos apontados pelas autoridades eleitorais como ilegal, irregular ou desinformativo.





