A urna protege o voto, mas quem protege o eleitor da IA?

“Para 2026, o letramento digital precisa abandonar discursos abstratos e focar em práticas simples”


Por Régis de Oliveira Júnior*

04/01/2026 às 08h00

O próximo vídeo que aparecer na sua tela pode ser uma miragem digital perfeita, desenhada para roubar a sua indignação. Em 2025, o polegar que rola o feed das redes sociais atravessa um campo minado: rostos familiares, sotaques regionais e denúncias bombásticas são fabricados por algoritmos a um custo irrisório.

O perigo real não é mais a mentira que circula, mas a verdade que, de tão cercada por simulações, torna-se irreconhecível. O alvo da IA não é o seu computador, é o seu julgamento, pois é do seu voto com discernimento individual, mais do que da segurança tecnológica, que dependerá o futuro do Brasil em 2026.

Os vestígios deixados pelos ciclos recentes tornam o risco mensurável. O Identity Fraud Report 2025–2026, da Sumsub, aponta que as fraudes envolvendo deepfakes cresceram 126% no Brasil ao longo de 2025, consolidando o país como o epicentro do problema na região, com cerca de 39% de todos os casos da América Latina.

Esse salto não decorre apenas de maior vigilância, mas da queda do custo marginal da desinformação. Em 2025, plataformas de sincronia labial e clonagem de voz passaram a oferecer resultados convincentes por menos de US$1, tornando a manipulação um produto comoditizado, replicável e escalável.

Esse novo patamar transforma a desinformação em um ruído sintético contínuo. O problema deixa de ser identificar uma falsificação específica e passa a ser administrar um ecossistema no qual múltiplas versões plausíveis disputam atenção em tempo real.

O efeito prático não é apenas o erro informacional, mas a fadiga da verdade. Quando tudo parece possível, o eleitor tende a suspender o juízo, abrindo espaço para a apatia e para decisões baseadas em identidade, medo ou ressentimento.

Relatórios recentes do Fórum Econômico Mundial já classificam a desinformação sintética como um dos principais riscos globais de curto prazo. Em eleições, esse risco se intensifica porque vídeos e áudios são processados cognitivamente com mais rapidez do que textos. A janela para reflexão crítica se estreita, sobretudo em ambientes de consumo acelerado, como redes sociais e aplicativos de mensagens.

O risco em 2026 não é apenas acreditar no falso, mas duvidar de tudo o que é real.

No Brasil, a resposta institucional avançou com a Resolução nº 23.732/2024. O Tribunal Superior Eleitoral (TSE) proibiu expressamente o uso de deepfakes para prejudicar candidaturas e tornou obrigatória a identificação clara de conteúdos gerados por IA em peças de propaganda eleitoral. A norma estabeleceu a cassação de registro ou de mandato como sanção máxima, elevando de forma inédita o risco jurídico das campanhas e consolidando a responsabilidade das plataformas após notificação.

Ainda assim, a aplicação dessa regra em 2026 enfrentará um limite concreto, a escala. O teste real ocorreu nas eleições municipais de 2024, quando o Sistema de Alertas de Desinformação do TSE processou milhares de denúncias. A experiência revelou que a IA deixou de mirar apenas o topo da pirâmide política e passou a atingir disputas locais, com ataques capilares contra vereadores. A checagem humana, mesmo bem estruturada, não acompanha o ritmo da produção sintética distribuída.

Esse descompasso explica por que a resposta precisa migrar da lógica exclusiva da verificação para a autenticação da procedência. Protocolos como a Coalition for Content Provenance and Authenticity (C2PA) permitem registrar, desde a origem, informações sobre criação, edição e circulação de conteúdos digitais. O foco deixa de ser provar se algo é verdadeiro e passa a ser demonstrar de onde veio, quem produziu e se houve manipulação ao longo do caminho.

Esse movimento já não é experimental. Grandes empresas de tecnologia adotaram o padrão em seus fluxos de produção, e câmeras profissionais passaram a incorporar assinaturas digitais no próprio sensor.

O gargalo para 2026 está na última milha. O eleitor comum ainda não reconhece os ícones de autenticidade, o que exige do Estado uma padronização visual tão intuitiva quanto o selo de verificado das redes sociais, especialmente para leitura em telas pequenas.

Dados do TIC Domicílios, do Comitê Gestor da Internet no Brasil (CGI.br), reforçam esse desafio. Cerca de 60% dos brasileiros acessam a internet exclusivamente pelo celular. Em fluxos de consumo acelerado no WhatsApp e no Telegram, os metadados de procedência e os selos de autenticidade tornam-se quase invisíveis, neutralizando o esforço técnico de transparência se não houver um letramento focado na pausa cognitiva.

Para 2026, o letramento digital precisa abandonar discursos abstratos e focar em práticas simples. Criar o hábito de não compartilhar antes de verificar a origem, o rastro digital e o contexto torna-se um ato de cidadania em ambientes de alta velocidade emocional.

A ética, aqui, não aparece como ornamento retórico. Proteger a verdade pública não significa censurar opiniões, mas garantir condições mínimas de transparência para que o cidadão reconheça a origem da informação que recebe. Liberdade de expressão, privacidade e devido processo legal continuam sendo parâmetros inegociáveis, mas não podem servir de escudo para a omissão técnica.

Garantir a integridade das eleições de 2026 é um exercício de soberania digital. Depender de modelos de linguagem de grande escala (LLMs) estrangeiros, treinados majoritariamente em inglês para contextos globais, é insuficiente para captar as nuances das gírias e dos sotaques regionais brasileiros usados em ataques de IA.

Sem dominar os meios de autenticar a própria verdade pública e sem infraestrutura nacional de dados, a formação da vontade popular será terceirizada para algoritmos opacos, operados fora de sua jurisdição.

A urna seguirá protegendo a contagem do voto. A democracia, porém, depende de proteger tudo o que acontece antes dele.

*Régis de Oliveira Júnior é jornalista formado pela Universidade de Santa Cruz do Sul (Unisc), especialista em Inteligência Artificial pela ESPM Tech e vencedor de 16 premiações nacionais de jornalismo. Atuou em gestão pública como secretário de Saúde e de Comunicação, interventor em hospitais públicos e consultor no Ministério de Minas e Energia no DF, na Assembleia Legislativa e em prefeituras do RS e de MG.

 

Esse espaço é para a livre circulação de ideias e a Tribuna respeita a pluralidade de opiniões. Os artigos para essa seção serão recebidos por e-mail ([email protected]) e devem ter, no máximo, 30 linhas (de 70 caracteres) com identificação do autor e telefone de contato. O envio da foto é facultativo e pode ser feito pelo mesmo endereço de e-mail.

Os comentários nas postagens e os conteúdos dos colunistas não representam a opinião do jornal; a responsabilidade é exclusiva dos autores das mensagens. A Tribuna reserva-se o direito de excluir comentários que contenham insultos e ameaças a seus jornalistas, bem como xingamentos, injúrias e agressões a terceiros. Mensagens de conteúdo homofóbico, racista, xenofóbico e que propaguem discursos de ódio e/ou informações falsas também não serão toleradas. A infração reiterada da política de comunicação da Tribuna levará à exclusão permanente do responsável pelos comentários.