InternetSegurança

Coalizão Direitos na Rede: TSE terá que fiscalizar maior laboratório eleitoral da inteligência artificial

Disseminação de conteúdos falsos criados com IA cresceu 308% entre 2024 e 2025. Tecnologia que era usada em golpes financeiros passou a ser aplicada à desinformação política.

O avanço acelerado da desinformação política impulsionada por inteligência artificial levou o Tribunal Superior Eleitoral a endurecer as regras para propaganda digital nas eleições gerais de 2026, na tentativa de lidar com o uso de IA no processo eleitoral.

Ao todo, foram publicadas 14 resoluções que ampliam significativamente as normas já introduzidas em 2024, quando a Corte proibiu deepfakes, exigiu rotulagem de conteúdos sintéticos e vedou a criação de “candidatos virtuais”. Este ano, o tribunal avançou sobre novas frentes, com restrições temporais, maior responsabilização das plataformas digitais e limitações diretas ao uso de sistemas de inteligência artificial.

A medida mais emblemática é a criação de uma espécie de “lei seca da IA”. Pelas novas regras, fica proibida a publicação, republicação ou impulsionamento de conteúdos gerados ou manipulados por inteligência artificial que utilizem imagem, voz ou manifestações de candidatos, mesmo que devidamente identificados, nas 72 horas anteriores e nas 24 horas posteriores ao pleito.

Além disso, sistemas de IA ficam impedidos de recomendar, ranquear ou priorizar candidatos, partidos ou campanhas, ainda que a solicitação parta do próprio usuário. A restrição alcança desde mecanismos de busca até chatbots e assistentes virtuais.

As resoluções também endurecem a responsabilização das plataformas. Empresas passam a ter obrigação de remover conteúdos ilegais e suas replicações sem necessidade de nova ordem judicial, desde que já tenham sido notificadas previamente. Outro instrumento criado é o plano de conformidade obrigatório, que exige metas, indicadores e medidas concretas de prevenção por parte das plataformas para atuação durante o período eleitoral.


Apesar do avanço regulatório, especialistas apontam que os desafios são proporcionais à complexidade do problema. A Coalizão Direitos na Rede (CDR) avalia que o Brasil entra no primeiro ciclo eleitoral nacional sob regras específicas para inteligência artificial em um contexto de rápida escalada da desinformação.

Dados do Observatório Lupa indicam que a disseminação de conteúdos falsos criados com IA cresceu 308% entre 2024 e 2025, passando de 39 para 159 casos identificados. Mais do que o volume, houve mudança no perfil dessas práticas: se antes a tecnologia era usada majoritariamente em golpes financeiros, agora passou a ser aplicada sobretudo à desinformação política.

Segundo o levantamento, cerca de 45% dos conteúdos analisados tinham viés ideológico, enquanto mais de 75% exploravam imagem ou voz de figuras públicas, atingindo nomes como o presidente Luiz Inácio Lula da Silva, o ex-presidente Jair Bolsonaro e o ministro do Supremo Tribunal Federal Alexandre de Moraes.

Para a Coalizão, o principal ponto de atenção não está apenas na formulação das regras, mas na capacidade de aplicá-las em um ambiente digital marcado por volume massivo, alta velocidade e facilidade de replicação. A entidade destaca que a obrigação de remoção rápida por parte das plataformas pode esbarrar em limitações técnicas e riscos de remoção excessiva de conteúdos legítimos, como sátiras e materiais jornalísticos.

“As eleições de 2026 representarão um teste institucional decisivo: mais do que atualizar regras, será necessário demonstrar capacidade de fiscalização, resposta rápida e cooperação entre autoridades públicas, plataformas digitais e sociedade civil para proteger a integridade do debate democrático. O primeiro turno das eleições está marcado para 4 de outubro e deve consolidar o maior laboratório eleitoral já enfrentado pelo país em relação ao impacto da inteligência artificial sobre a democracia”, diz, em nota, a entidade que reúne mais de 40 organizações de direitos digitais no país.

Outro foco de preocupação é o uso de dados pessoais em campanhas eleitorais. A organização alerta que práticas como disparos em massa via aplicativos de mensagens seguem como um risco estrutural, especialmente quando baseadas em bases de dados obtidas sem consentimento. Nesse ponto, a efetividade das normas dependerá da articulação com a Lei Geral de Proteção de Dados Pessoais (LGPD), sobretudo em relação à transparência e responsabilização no uso de informações pessoais.

Há ainda o risco de deslocamento das estratégias de desinformação para ambientes menos visíveis, como grupos fechados e redes paralelas, onde a capacidade de monitoramento é mais limitada.

Botão Voltar ao topo