Coalizão Direitos na Rede: TSE terá que fiscalizar maior laboratório eleitoral da inteligência artificial

O avanço acelerado da desinformação política impulsionada por inteligência artificial levou o Tribunal Superior Eleitoral a endurecer as regras para propaganda digital nas eleições gerais de 2026, na tentativa de lidar com o uso de IA no processo eleitoral.

Ao todo, foram publicadas 14 resoluções que ampliam significativamente as normas já introduzidas em 2024, quando a Corte proibiu deepfakes, exigiu rotulagem de conteúdos sintéticos e vedou a criação de “candidatos virtuais”. Este ano, o tribunal avançou sobre novas frentes, com restrições temporais, maior responsabilização das plataformas digitais e limitações diretas ao uso de sistemas de inteligência artificial.

A medida mais emblemática é a criação de uma espécie de “lei seca da IA”. Pelas novas regras, fica proibida a publicação, republicação ou impulsionamento de conteúdos gerados ou manipulados por inteligência artificial que utilizem imagem, voz ou manifestações de candidatos, mesmo que devidamente identificados, nas 72 horas anteriores e nas 24 horas posteriores ao pleito.

Além disso, sistemas de IA ficam impedidos de recomendar, ranquear ou priorizar candidatos, partidos ou campanhas, ainda que a solicitação parta do próprio usuário. A restrição alcança desde mecanismos de busca até chatbots e assistentes virtuais.

As resoluções também endurecem a responsabilização das plataformas. Empresas passam a ter obrigação de remover conteúdos ilegais e suas replicações sem necessidade de nova ordem judicial, desde que já tenham sido notificadas previamente. Outro instrumento criado é o plano de conformidade obrigatório, que exige metas, indicadores e medidas concretas de prevenção por parte das plataformas para atuação durante o período eleitoral.

Apesar do avanço regulatório, especialistas apontam que os desafios são proporcionais à complexidade do problema. A Coalizão Direitos na Rede (CDR) avalia que o Brasil entra no primeiro ciclo eleitoral nacional sob regras específicas para inteligência artificial em um contexto de rápida escalada da desinformação.

Dados do Observatório Lupa indicam que a disseminação de conteúdos falsos criados com IA cresceu 308% entre 2024 e 2025, passando de 39 para 159 casos identificados. Mais do que o volume, houve mudança no perfil dessas práticas: se antes a tecnologia era usada majoritariamente em golpes financeiros, agora passou a ser aplicada sobretudo à desinformação política.

Segundo o levantamento, cerca de 45% dos conteúdos analisados tinham viés ideológico, enquanto mais de 75% exploravam imagem ou voz de figuras públicas, atingindo nomes como o presidente Luiz Inácio Lula da Silva, o ex-presidente Jair Bolsonaro e o ministro do Supremo Tribunal Federal Alexandre de Moraes.

Para a Coalizão, o principal ponto de atenção não está apenas na formulação das regras, mas na capacidade de aplicá-las em um ambiente digital marcado por volume massivo, alta velocidade e facilidade de replicação. A entidade destaca que a obrigação de remoção rápida por parte das plataformas pode esbarrar em limitações técnicas e riscos de remoção excessiva de conteúdos legítimos, como sátiras e materiais jornalísticos.

“As eleições de 2026 representarão um teste institucional decisivo: mais do que atualizar regras, será necessário demonstrar capacidade de fiscalização, resposta rápida e cooperação entre autoridades públicas, plataformas digitais e sociedade civil para proteger a integridade do debate democrático. O primeiro turno das eleições está marcado para 4 de outubro e deve consolidar o maior laboratório eleitoral já enfrentado pelo país em relação ao impacto da inteligência artificial sobre a democracia”, diz, em nota, a entidade que reúne mais de 40 organizações de direitos digitais no país.

Outro foco de preocupação é o uso de dados pessoais em campanhas eleitorais. A organização alerta que práticas como disparos em massa via aplicativos de mensagens seguem como um risco estrutural, especialmente quando baseadas em bases de dados obtidas sem consentimento. Nesse ponto, a efetividade das normas dependerá da articulação com a Lei Geral de Proteção de Dados Pessoais (LGPD), sobretudo em relação à transparência e responsabilização no uso de informações pessoais.

Há ainda o risco de deslocamento das estratégias de desinformação para ambientes menos visíveis, como grupos fechados e redes paralelas, onde a capacidade de monitoramento é mais limitada.

Tags

Compartilhe

Anatel remarca leilão de 700 MHz para segunda-feira, dia 4 de maio
Anatel confirma abertura das propostas do 700 MHz para dia 4
Anatel confirma abertura das propostas do 700 MHz para dia 4
Setor de data centers pede velocidade e previsibilidade no Brasil
Setor de data centers pede velocidade e previsibilidade no Brasil
IA exige redes ópticas mais escaláveis e resilientes, diz Nokia
IA exige redes ópticas mais escaláveis e resilientes, diz Nokia
Ciena vê interconexão óptica como peça-chave para data centers de IA
Ciena vê interconexão óptica como peça-chave para data centers de IA
Data center leva IA soberana para serviço público do Caribe
Data center leva IA soberana para serviço público do Caribe
Fair share e Inteligência Artificial têm movimentações no Congresso
Fair share e Inteligência Artificial têm movimentações no Congresso
Associações pedem para Justiça barrar medidas sobre Fundação Atlântico na recuperação da Oi
Associações pedem para Justiça barrar medidas sobre Fundação Atlântico na recuperação da Oi
Para nova presidente da Algar, crescimento passa por transformação e reaproximação com o consumidor
Para nova presidente da Algar, crescimento passa por transformação e reaproximação com o consumidor
Instituto Claro completa 25 anos de atuação em educação e cidadania
Instituto Claro completa 25 anos de atuação em educação e cidadania