Novas tecnologias nas Eleições 2026 terão tendência por vídeos curtos e forte direcionamento de algoritmos

Doutor em informática com ênfase em Sistemas de Informação analisa como novas tecnologias poderão influenciar o pleito


Por Hugo Netto

01/01/2026 às 06h00

ronney moreira de castro foto arquivo pessoal
(Foto: Arquivo pessoal)

Esta entrevista integra a série Perspectiva 2026, da Tribuna, que analisa como o avanço das tecnologias digitais deve impactar o processo eleitoral brasileiro nos próximos anos. Em reportagem especial, o jornal reuniu especialistas para discutir os riscos associados à disseminação de desinformação, às mudanças no comportamento do eleitor e aos desafios regulatórios impostos pelo uso intensivo de plataformas digitais e Inteligência Artificial nas Eleições de 2026.

Nesta matéria, o doutor em informática, com ênfase em Sistemas de Informação, Ronney Moreira de Castro, examina o papel dos algoritmos, dos vídeos curtos e dos grupos fechados de mensagens na formação da opinião pública, além de abordar como a IA pode ser utilizada tanto para manipulação quanto para apoio ao eleitor e ao sistema eleitoral. A entrevista também trata das limitações da legislação brasileira, das medidas adotadas pelo Tribunal Superior Eleitoral e das estratégias necessárias para que eleitores e instituições lidem com a circulação de conteúdos falsos e hiper-realistas no ambiente digital.

Confira a entrevista na íntegra:

Tribuna: Que novos comportamentos do eleitor brasileiro têm emergido com o uso intensivo de plataformas digitais e como isso deve influenciar campanhas eleitorais?

Ronney: Eu acho que a primeira coisa que nós podemos perceber é que as plataformas agora têm uma tendência pelos vídeos curtos, pode ser um story, pode ser até um meme, e aí a gente pode direcionar a informação de uma forma mais rápida, a pessoa vê aquele videozinho curto ali e já consegue captar a informação. Aqueles vídeos grandes não são mais uma tendência, a gente percebe que realmente os videozinhos curtos são uma grande tendência daqui para frente e eu acredito que isso deve ser utilizado bastante na próxima eleição.

Outra coisa que a gente percebe são os próprios algoritmos das plataformas que direcionam o que vai ser exibido para os usuários dependendo daquilo que ele gosta, da tendência que ele tem, da crença que ele tem, e aí o algoritmo consegue direcionar de modo que o eleitor vai ver apenas aqueles conteúdos que estão fortemente alinhados à visão dele, uma visão específica em um determinado assunto, no caso da política, um determinado candidato, um determinado partido, uma ideologia.

Outra coisa também são os grupos fechados, nesses aplicativos de mensagens, tanto o WhatsApp como o Telegram também, são grupos fechados que viram uma central de informações ou desinformações com conteúdo variado, no caso da eleição vai ser um conteúdo mais político, e eu acredito que nesses grupos rola muita, muita, muita desinformação.

Uma outra vertente é a questão dos influenciadores. A gente tem influenciadores que nem são muito políticos, mas começam a misturar as coisas, o que eles falam realmente, o tipo de assunto, com alguma coisa em cima de alguma informação que eles queiram também divulgar, pode ser política. Isso aí, no caso, é uma prática também que pode acontecer.

Bom, a gente pode pensar também que o conteúdo produzido vai ter que ser verificado, a gente vai ver vários órgãos falando muito sobre fake news. Enfim, eu acho que o ano que vem vai ser um ano onde a gente vai ver muita coisa, muita coisa falsa na política, principalmente também por causa do uso da IA e a gente, com certeza, vai ter que filtrar muito. Então, eu acho que o ano que vem nós temos uma disputa que não vai ser apenas pragmática, mas vai muito pela credibilidade da informação, é mostrar o que é de uma fonte confiável. 

Tribuna: Muito se fala sobre as preocupações com o uso de IA, mas de que forma ela e outras tecnologias podem auxiliar o eleitor e o próprio processo eleitoral?

Ronney: Essa questão é bem pertinente para poder verificar como é que a IA pode ajudar, tanto o eleitor quanto o processo eleitoral. Vamos ver aqui dos dois lados. Para o eleitor, eu acredito que as ferramentas de verificação podem auxiliar bastante. A IA pode ajudar a identificar uma imagem, um áudio, um texto que pode ter sido manipulado. O próprio Senado tem uma ferramenta que faz esse tipo de checagem. Você pode pegar as propostas, pedir para a IA comparar essas propostas para poder te ajudar a decidir, por exemplo, seu voto, você verificar o que tem diferença entre uma e outra. Coisa que a gente fazia antigamente, às vezes, olhando no papel mesmo ali, no livreto de campanha. Isso eu acho que pode ajudar bastante também o eleitor. Outra coisa que a gente está percebendo é que existem IAs que pegam um vídeo, por exemplo, legendam esse vídeo. Na verdade, traduzem aquilo, podem colocar em áudio, podem colocar em texto. Isso acaba colocando um público que era, vamos dizer assim, um pouco deslocado da eleição. Que são aí, por exemplo, os surdos, o pessoal que tem uma certa dificuldade, talvez até mesmo para poder ver um vídeo, preferem ler. Você pode incluir um público que não estava presente nesse cenário político. Agora com a IA é possível, porque a gente tem essas IAs que fazem esse tipo de trabalho.

Para o sistema eleitoral, a gente tem uma análise, por exemplo, de um volume grande de postagens para verificação de desinformação. A gente pode usar a IA para isso. Afinal de contas, ela trabalha de uma forma muito, muito rápida. Pode ajudar. E também eu acho que é interessante aí no caso, por exemplo, o TSE, eu acho que já tem isso, que são aqueles chatbots para tirar dúvidas para a campanha. O próprio político, o próprio candidato pode utilizar um chatbot para isso. Pode colocar ali, por exemplo, para poder tirar dúvida. Pode ser feito via WhatsApp isso. E aí ele vai falando a respeito dos números, do local de votação. Enfim, te ajudar como uma forma de também integrar um pouco mais o eleitor. Desde que isso seja usado de uma forma correta. Não para divulgar uma desinformação, mas sim, como eu falei, uma coisa da credibilidade da informação.

Tribuna: O Brasil está preparado do ponto de vista regulatório para lidar com campanhas digitais baseadas em IA?

Ronney: Essa aí é uma questão que não está resolvida aqui no país. Ou seja, não temos ainda uma legislação totalmente vigente, totalmente acertada para esse tipo de coisa. A gente tem algumas regras, que para IA, por exemplo, e para Deepfake, tem uma resolução do TSE, é a 23.610 de 2019 e editada na 23.732 de 2024, que proíbe aí no caso as Deepfakes. E tem que ter um aviso explícito do uso da IA na propaganda. E aí restringe também, por exemplo, o uso de chatbots e avatares que simulam a interação humana. É diferente do que eu falei atrás, na questão anterior sobre o chatbot. Não é o chatbot que se passa como se fosse humano. É aquele chatbot que pode ajudar o eleitor. É diferente, eles são regulados. Eles são regulados e identificados, falando que eu sou um assistente virtual. Não é um chatbot que vai simular um comportamento humano. Esse é proibido pela resolução. Então, a gente tem essa legislação. Existe também uma questão para as plataformas, por exemplo, plataformas tipo a Meta, que tem no caso o Instagram, o Facebook, o próprio TikTok também, que podem ser responsabilizadas se não remover, por exemplo, algum conteúdo que seja falso. É a gente responsabilizar a plataforma também por esse tipo de coisa. A famosa PL das fake news, essa aqui é a PL 2630 de 2020, que estava numa lei das redes sociais, ela ainda tem uma abordagem que não está pronta. Ela está em uma abordagem mais light, ou seja, a eficácia dela ainda é bem questionada. Então, a gente ainda tem isso em evolução aqui no país. Então, sim, a gente tem um avanço nessa parte aqui no país, por exemplo, as de fakes, a questão da IA, mas no âmbito, vamos dizer, mais geral, não. A gente ainda tem uma fase que tem alguns buracos para serem resolvidos, algumas lacunas aí que precisam ser resolvidas nessa parte. 

Tribuna: Vídeos e áudios manipulados devem se tornar mais comuns em 2026. Como o eleitor e as instituições podem se preparar para lidar com esse cenário?

Ronney: Hoje, no cotidiano, a gente já vê isso. Vou pegar aqui um caso que a gente percebe e já escutou com certeza falar de alguém que escutou a voz do Willian Bonner falando alguma coisa que ele realmente não falou. Porque a gente tem uma IA por trás disso que consegue capturar a voz e aí você pede para ela falar o que você quiser e acaba gerando uma desinformação também. E, pelo que a gente percebe, existe uma tendência muito grande no aumento desses vídeos e áudios que a gente chama de hiperrealistas, que são as famosas deepfakes. Como eu disse em uma questão anterior, o TSE já proibiu isso, é necessário que você fale que aquele conteúdo foi produzido por IA, mas a gente vai ver, como eu disse também em grupos, etc., muita coisa que foi feita por IA e que eles não vão colocar que foi feito por IA. Então, o que a gente pode falar para o eleitor? Como é que ele pode se precaver disso? Bom, se ele verificar algum conteúdo que está muito chocante, talvez, ou que está despertando um ódio, raiva, é importante ele checar aquilo ali. Ou seja, dar uma olhada em outras fontes. E aí vem também, se viu alguma coisa e achou estranho, checa em uma fonte confiável. Outra, sites oficiais, por exemplo, o site do próprio TSE, dos TREs, enfim, também é importante checar a informação nesses sites. Mas muitas pessoas têm uma desinformação digital. Então, isso é um problema muito grande, porque são duas vertentes. A gente pode colocar o pessoal que vai realmente checar e o pessoal que realmente não vai checar. Então, como é que o eleitor pode fazer? Procurar sempre fontes confiáveis, para poder verificar quando você encontrar um áudio, um vídeo, alguma coisa que você achar que aquilo ali é estranho. Checa em fonte confiável.

Os comentários nas postagens e os conteúdos dos colunistas não representam a opinião do jornal; a responsabilidade é exclusiva dos autores das mensagens. A Tribuna reserva-se o direito de excluir comentários que contenham insultos e ameaças a seus jornalistas, bem como xingamentos, injúrias e agressões a terceiros. Mensagens de conteúdo homofóbico, racista, xenofóbico e que propaguem discursos de ódio e/ou informações falsas também não serão toleradas. A infração reiterada da política de comunicação da Tribuna levará à exclusão permanente do responsável pelos comentários.