Quando muita gente pensa em tecnologia eleitoral no Brasil, a cabeça vai direto para a urna eletrônica. Faz sentido. Ela é o símbolo mais visível do nosso sistema. Só que, em 2026, o coração técnico da eleição não está apenas na urna. Ele está também no vídeo curto que aparece no celular, no áudio que chega num grupo fechado, no recorte de fala que parece verdadeiro por três segundos e, nesses três segundos, já fez estrago.
Esse é o ponto que torna o pleito de 2026 tão interessante para quem gosta de observar a engrenagem por dentro. A discussão deixou de ser apenas como contar votos com segurança. Agora ela também é como proteger a formação da vontade do eleitor num ambiente em que imagem, voz, contexto e até intenção podem ser fabricados em escala.
Se isso parece abstrato, basta pensar no ritmo das redes. Uma montagem ruim já confunde. Uma montagem boa convence. Uma montagem boa publicada na hora certa, impulsionada do jeito certo e atravessando perfis automáticos, grupos fechados e respostas instantâneas, vira outra coisa. Vira infraestrutura de influência. A eleição digital de 2026 passa por aí.
O que mudou de verdade
Em março, o TSE fechou o conjunto de resoluções que vai orientar o pleito deste ano. O primeiro turno está marcado para 4 de outubro, o segundo para 25 de outubro, e o calendário manteve 6 de maio como data limite para alistamento, transferência e revisão do cadastro eleitoral. A propaganda eleitoral começa em 16 de agosto. Parece apenas calendário, mas não é só isso. Calendário eleitoral é arquitetura de risco. Cada data define quando certos comportamentos deixam de ser zona cinzenta e passam a ter consequência jurídica bem mais nítida.
O detalhe importante é outro. O tribunal não entrou em 2026 improvisando. Houve audiências públicas em fevereiro, com discussão específica sobre propaganda eleitoral, representações, reclamações e ilícitos. Isso importa porque mostra que a regulação não surgiu apenas como reação emocional ao medo da inteligência artificial. Ela foi incorporada ao desenho normativo do pleito.
E aí aparece um traço curioso, quase irônico. Muita gente ainda fala de IA na eleição como se fosse um assunto futurista. Não é. Em 2026, isso já está no texto das regras, no vocabulário da fiscalização, no modo como se pensa remoção de conteúdo, prova digital e responsabilidade de plataformas. O futuro, nesse caso, chegou com a calma burocrática de uma resolução publicada em Diário de Justiça. E isso muda tudo.
A rotulagem parece detalhe, mas mexe no centro da disputa
Uma das exigências mais comentadas é a obrigação de informar, de modo explícito, destacado e acessível, quando a propaganda usar conteúdo sintético multimídia gerado ou alterado por inteligência artificial ou tecnologia equivalente. Em português claro, não basta usar IA e depois se esconder atrás de um aviso tímido. A lógica da norma é outra. Quem manipula, cria, mescla, acelera ou sobrepõe imagem e som tem o dever de contar isso de forma visível.
Muita gente olha para essa exigência e pensa que se trata apenas de transparência formal. Um rótulo aqui, uma observação ali. Só que a força técnica da medida não está na estética do aviso. Ela está na redistribuição da assimetria. Campanhas e estruturas de desinformação sempre operaram explorando o intervalo entre impacto emocional e verificação racional. O eleitor vê primeiro, confere depois, quando confere. A rotulagem tenta encurtar esse intervalo.
Não resolve tudo, evidentemente. Quase nada, em internet, se resolve com um único remédio. Um vídeo manipulado pode continuar sendo persuasivo mesmo com aviso. Um áudio adulterado pode circular fora do ambiente original e perder a marcação no caminho. Um recorte de tela pode arrancar o selo e continuar vivo em outro perfil. Ainda assim, a obrigação de rotular muda o custo da operação e prepara o terreno para responsabilização posterior. Ela não é o fim do problema. Ela é a criação de um rastro, que não chega a ser a mesma coisa que eleições em blockchain, mas é bem parecido.
E rastro, em eleição, vale ouro.
O ponto menos óbvio está na prova
Aqui está uma parte que não costuma ganhar manchete, embora talvez seja a mais sofisticada do pacote regulatório. O TSE previu a possibilidade de inverter o ônus da prova em representações sobre uso de conteúdo sintético quando a comprovação da manipulação digital for tecnicamente difícil ou excessivamente onerosa para quem denuncia.
Isso merece ser lido devagar.
Durante muito tempo, uma parte da estratégia de quem manipula conteúdo digital foi se apoiar justamente na dificuldade técnica de provar a fraude. O material é publicado, replicado, apagado, reenviado, recompactado, retirado do contexto original, misturado com fragmentos verdadeiros, espalhado por múltiplos canais. Quando a vítima ou o adversário chega ao Judiciário, já está correndo atrás de um fantasma técnico. A peça ofensiva continua fazendo efeito enquanto a prova ainda tenta nascer.
A inversão do ônus da prova mexe nesse jogo porque desloca a pressão para quem publicou ou impulsionou o material. Em vez de a vítima carregar sozinha o peso de demonstrar toda a cadeia de manipulação, abre-se espaço para exigir do responsável a demonstração de licitude, inclusive indicando em que etapas a IA foi usada e como o conteúdo foi produzido. É uma mudança muito mais profunda do que parece à primeira vista.
Ela revela que a Justiça Eleitoral entendeu uma coisa importante sobre o ambiente digital. Nem toda verdade eletrônica se comprova como se estivéssemos lidando com papel, assinatura e carimbo. Há situações em que a própria engenharia da fraude foi feita para tornar a perícia lenta, cara e incompleta. Quando o direito percebe isso, ele começa a ajustar suas ferramentas ao objeto real do conflito. Isso é técnica jurídica conversando com técnica computacional. E essa conversa costuma ser rara.
O apagão estratégico das últimas horas
Outro trecho das regras merece atenção especial. Conteúdos sintéticos que usem imagem, voz ou manifestação de candidata, candidato ou pessoa pública ficam vedados, ainda que rotulados, nas 72 horas anteriores e nas 24 horas posteriores ao término do pleito.
Esse recorte de tempo não foi escolhido por capricho. Ele mira a fase mais sensível da eleição, aquela em que a circulação de uma peça enganosa pode produzir dano muito rápido e quase irreversível. Nas horas finais, o desmentido chega atrasado, a checagem perde tração, a defesa mal se organiza e a emoção domina o espaço decisório. Quem trabalha com redes sabe disso intuitivamente. A curva de disseminação não espera o relógio do processo.
Há uma percepção muito madura nessa vedação temporal. O problema do conteúdo sintético não é apenas o que ele mostra. É quando ele entra em cena. O mesmo vídeo pode ter impacto moderado em agosto e impacto devastador na véspera da votação. A norma reconhece que o contexto temporal é parte da materialidade da fraude.
Esse talvez seja um dos pontos mais humanos do desenho regulatório, embora tenha aparência técnica. Ele parte de uma observação simples sobre comportamento coletivo. O eleitor não toma decisões em laboratório. Ele decide em meio a cansaço informacional, avalanche de mensagens, pressão social, medo de errar e vontade de não parecer desatualizado. Quem planta conteúdo sintético nesse instante não está só publicando. Está explorando vulnerabilidade cognitiva em janela crítica.
Plataforma não é mais só vitrine
Outro pedaço da história de 2026 passa pelas plataformas e pelos próprios sistemas de IA. A resolução avança sobre isso de forma bem mais direta do que muita gente imagina. Há vedação para que provedores que ofertem sistemas de inteligência artificial ranqueiem, recomendem, sugiram ou priorizem candidaturas, partidos e campanhas. Também fica vedado que emitam opiniões, indiquem preferência eleitoral, recomendem voto ou produzam favorecimento ou desfavorecimento político-eleitoral, inclusive por respostas automatizadas.
Esse é um tema enorme, porque desloca a conversa da simples remoção de conteúdo para a lógica de mediação algorítmica. Em outras palavras, não se trata apenas de perguntar o que pode permanecer no ar. Trata-se de perguntar como a própria camada técnica de distribuição, recomendação e resposta automatizada pode inclinar a arena política.
Há também obrigações operacionais bem concretas. Provedores que oferecem impulsionamento precisam disponibilizar campo específico para declaração do uso de IA em conteúdo político-eleitoral. Perfis comprovadamente falsos, apócrifos ou vinculados a pessoa inexistente fora do universo digital, quando reiterarem crime eleitoral ou publicação de fatos notoriamente inverídicos reconhecidos pela Justiça Eleitoral, podem ser removidos. E os provedores devem elaborar plano de conformidade voltado à prevenção e mitigação de riscos à integridade do processo eleitoral.
Essa palavra, conformidade, às vezes afasta o leitor. Parece coisa de sala fechada, reunião morna, planilha sem alma. Só que ela esconde uma transformação relevante. O TSE está empurrando plataformas para uma lógica de governança eleitoral mais ativa, menos passiva. Não basta alegar neutralidade abstrata enquanto o sistema distribui dano em tempo real. A infraestrutura digital entra, cada vez mais, na conta institucional da eleição.
A obsessão com deepfake às vezes atrapalha a análise
Vale abrir um parêntese aqui, porque ele ajuda a não olhar para o problema com lente curta demais. Deepfake é importante, claro. É o termo que captura a imaginação pública porque mistura tecnologia, fraude e espetáculo. Só que a eleição não depende apenas de deepfakes sofisticados. Muitas vezes, o dano nasce de materiais bem mais simples.
Um vídeo verdadeiro com legenda mentirosa. Um áudio legítimo empurrado para contexto falso. Uma fala real recortada de modo a parecer confissão. Uma imagem antiga relançada como se fosse de ontem. Um avatar automatizado que responde a milhares de pessoas com aparência de espontaneidade. A fraude digital raramente é elegante o tempo todo. Ela costuma ser híbrida, barata e oportunista.
Isso conversa com a própria campanha do TSE sobre os 5 Vs da desinformação. Volume, variedade, velocidade, viralidade e verossimilhança. Repare como a fórmula é menos tecnológica do que psicológica. O ponto não é apenas detectar a falsificação perfeita. É entender por que a mentira circula tão bem mesmo quando é imperfeita.
Quem trabalha com segurança da informação conhece uma verdade incômoda. Sistemas robustos podem ser contornados por usuários exaustos, distraídos ou sobrecarregados. Em política digital, acontece algo parecido. Às vezes, a peça não precisa ser impecável. Ela só precisa chegar primeiro, parecer plausível e encontrar uma audiência cansada.
Enquanto o debate pega fogo no feed, a outra camada continua operando
Seria um erro, porém, concluir que a parte clássica da tecnologia eleitoral perdeu importância. Não perdeu. O sistema eletrônico de votação segue cercado por procedimentos de auditoria, fiscalização, inspeção de códigos e testes públicos de segurança. As regras de 2026 mantêm a centralidade dos sistemas desenvolvidos, encomendados ou autorizados pelo TSE, vedando sua substituição por soluções paralelas nas funções críticas do processo.
Isso ajuda a enxergar a eleição como ela realmente é. Não existe uma única tecnologia eleitoral. Há pelo menos duas grandes camadas convivendo ao mesmo tempo.
A primeira é a camada do registro, apuração, transmissão, assinatura, lacração e auditoria dos sistemas oficiais. É a camada que costuma aparecer quando o debate gira em torno da urna, do código-fonte e da totalização. O Teste Público da Urna continua sendo peça importante dessa engrenagem. Em 2025, os relatórios do teste indicaram que os achados identificados não comprometeram a integridade, o sigilo do voto nem o resultado das eleições, e o modelo prevê correções seguidas de teste de confirmação.
A segunda é a camada do ambiente informacional. Ela não conta votos, mas influencia as condições em que o voto é formado. E talvez aí esteja a grande marca técnica de 2026. O Brasil entra no pleito com um aparato normativo que tenta proteger não só a urna, mas também o espaço cognitivo ao redor dela.
Isso é muito interessante porque desmonta uma falsa oposição que apareceu nos últimos anos. Como se houvesse, de um lado, a segurança dura da urna e, de outro, uma discussão quase moral sobre desinformação. Não é assim. As duas coisas pertencem ao mesmo problema institucional. A eleição pode ser tecnicamente impecável na contagem e ainda assim sofrer degradação severa na formação da escolha política. Segurança eleitoral, hoje, não é só integridade do hardware ou do software oficial. É também integridade do ecossistema informacional.
O eleitor de 2026 precisa de uma competência nova
No fim das contas, o assunto não é apenas o que o TSE proibiu, permitiu ou condicionou. O assunto é o tipo de cidadania digital que o processo eleitoral passou a exigir. O eleitor de 2026 não é apenas alguém que comparece ao local de votação ou justifica ausência. Ele é também alguém que precisa suspeitar melhor, pausar antes de compartilhar, desconfiar do conteúdo perfeito demais e, curiosamente, do conteúdo tosco demais que chega no momento exato.
Tem um detalhe bonito nisso tudo. A Justiça Eleitoral, ao tentar regular IA, plataformas, rotulagem, remoção e prova digital, acaba reconhecendo uma realidade que muita gente comum percebe há anos sem usar linguagem técnica. A sensação de que a eleição já começa muito antes da urna, no fluxo invisível das telas, no ritmo dos aplicativos, na repetição estudada de conteúdos que parecem surgir do nada, mas quase nunca surgem do nada.
A eleição de 2026, vista de perto, tem esse lado fascinante e desconfortável. Ela mostra um país tentando adaptar instituições analógicas, linguagem jurídica e mecanismos de fiscalização a uma disputa política mediada por sistemas que aprendem, recomendam, replicam e deformam.
Não é pouca coisa.
E talvez a melhor maneira de resumir esse momento seja esta: o Brasil chega a 2026 entendendo que defender a eleição não é apenas guardar a urna, mas também vigiar a fábrica de aparências que se instalou ao redor dela. Esse é o verdadeiro tema técnico do ano. Ele parece assunto de especialistas, mas na prática encosta na vida de todo mundo que abre o celular e tenta decidir em quem acreditar.

Acatando a cumulativa impotência dos estados nacional, sem pretensões hegemônicas ou instrumentalizantes. Culturais e das organizações nunca manifestos. Naquele mês de janeiro, os avisos ambientais em turno planetária, da solução comercializada dos conflitos e do obedeço às liberdades democráticas, e a cor, o crescimento da exclusão, segundo o “efeito estufa”, local e da nação. Os verdes, o partido verde permanece qualquer aparelho da ecologia ministério.