IA, fake news e eleições: as novas regras do TSE para as Eleições 2026

(Marcelo Camargo/Agência Brasil)

A eleição presidencial de 2026 promete inaugurar um novo patamar de vigilância sobre o ambiente digital, moldado pelas recentes e mais rigorosas diretrizes do Tribunal Superior Eleitoral (TSE). Com mais de 155 milhões de brasileiros se preparando para escolher seus representantes, o cenário eleitoral será pautado por um combate intensificado à desinformação, às manipulações digitais e ao uso descontrolado da inteligência artificial (IA) nas campanhas. As modificações, que foram testadas nas eleições municipais de 2024, estabelecem agora um padrão nacional, redefinindo a forma como a propaganda eleitoral é conduzida em um país onde redes sociais, vídeos curtos e conteúdos de forte apelo emocional superaram a relevância do horário eleitoral televisivo tradicional. Essas mudanças visam garantir a lisura e a integridade do processo democrático diante dos desafios impostos pela tecnologia.

As diretrizes do TSE contra a desinformação digital

As novas normas do TSE representam um marco na tentativa de regulamentar o espaço digital durante as eleições, focando em ferramentas e práticas que distorcem o debate público e enganam o eleitor. A prioridade é proteger a integridade do voto e a transparência das campanhas.

Proibição de deepfakes e a transparência da inteligência artificial

O ponto central das novas regras é a proibição explícita dos chamados deepfakes – vídeos, áudios ou imagens gerados por inteligência artificial que simulam falas e situações inexistentes. A Justiça Eleitoral classificou esse tipo de material como uma ameaça direta à lisura da disputa e ao direito de escolha consciente do eleitor. As sanções para quem utilizar deepfakes são severas, podendo incluir a cassação do registro de candidatura ou até mesmo do mandato, além de outras responsabilidades previstas na legislação eleitoral. Para além da proibição, qualquer conteúdo de campanha que utilize inteligência artificial deverá ter sua origem e natureza artificial informada de forma clara e visível ao público, garantindo a transparência e a capacidade do eleitor de discernir a autenticidade das informações.

Combate a robôs e manipulação automatizada

Outro ponto crucial da resolução do TSE é o cerco aos robôs e sistemas automatizados, frequentemente empregados para simular conversas com eleitores em aplicativos de mensagens e redes sociais. Essa prática visa artificialmente inflar o engajamento de candidatos e criar uma falsa sensação de proximidade ou popularidade. Para o Tribunal Superior Eleitoral, tais estratégias não apenas distorcem o debate público, mas também desequilibram a disputa eleitoral ao mascarar o apoio genuíno e a interação orgânica. A intervenção busca assegurar que a comunicação entre candidatos e eleitores ocorra de maneira autêntica, sem a interferência de mecanismos artificiais que possam manipular a percepção pública ou influenciar indevidamente a formação da opinião dos cidadãos.

O cenário de desinformação que impulsionou as mudanças

O endurecimento das normas pelo TSE é uma resposta direta à escalada da desinformação no Brasil, que tem evoluído em sofisticação e alcance ao longo dos últimos ciclos eleitorais. A complexidade crescente das táticas de manipulação exige uma atualização constante das ferramentas regulatórias.

A evolução da fake news e o papel dos influenciadores

Em 2018, a propagação de boatos e notícias falsas concentrava-se predominantemente em grupos de mensagens. Contudo, em 2022, o fenômeno ganhou novas dimensões, com a desinformação se espalhando por múltiplas plataformas e fazendo uso crescente de ferramentas de inteligência artificial. Essa evolução dificultou significativamente a distinção entre conteúdo verdadeiro e material manipulado. Paralelamente, organizações internacionais como a Unesco têm alertado para o papel de influenciadores políticos que, muitas vezes, mesclam entretenimento, opinião e informação distorcida. Esses perfis alcançam vastas audiências e operam com um baixo grau de responsabilização, ocupando um espaço similar ao da imprensa, porém sem o mesmo compromisso com a checagem ou apuração rigorosa dos fatos.

Alerta de risco e a pressão sobre as big techs

A preocupação com o potencial desestabilizador da inteligência artificial ganhou urgência nas últimas semanas, com a circulação de vídeos hiper-realistas que acenderam o alerta na Justiça Eleitoral. Técnicos do tribunal avaliam que a combinação de ferramentas de IA cada vez mais acessíveis e a lógica de viralização das plataformas digitais pode gerar um ambiente de forte instabilidade informacional durante a campanha de 2026. Diante desse risco, a presidente do TSE, ministra Cármen Lúcia, instituiu um grupo de trabalho com especialistas para revisar as regras e fortalecer os instrumentos de controle. Um dos focos é aprimorar o Sistema de Alertas de Desinformação Eleitoral, visando agilizar a comunicação entre o tribunal e as plataformas digitais para a remoção célere de conteúdos fraudulentos. As decisões recentes ampliam significativamente a responsabilidade das empresas de tecnologia, prevendo a responsabilização solidária das plataformas que não retirarem rapidamente conteúdos ilegais, como desinformação grave, discurso de ódio, apologia ao nazismo ou mensagens antidemocráticas. O texto normativo também proíbe a circulação de conteúdos fabricados ou manipulados para distorcer fatos de forma grave quando houver risco ao equilíbrio do pleito, podendo a Justiça Eleitoral, na ausência de ação imediata das plataformas, impor sanções ou determinar a divulgação de informações corretivas ao eleitor.

A transformação no consumo de informação política

As novas regras do TSE surgem em um contexto de profunda alteração nos hábitos de consumo de informação política dos eleitores brasileiros. Essa mudança estrutural tem remodelado as estratégias de campanha e a dinâmica da interação política.

O protagonismo das redes sociais e o eleitor digital

Uma pesquisa do DataSenado, realizada em 2024, revela que 72% dos eleitores se informam sobre política prioritariamente pelas redes sociais, enquanto apenas 18% ainda citam a televisão ou o rádio como principal fonte. Esse deslocamento transformou a lógica das campanhas eleitorais. O tradicional horário eleitoral na televisão perdeu sua centralidade, e o engajamento digital tornou-se um fator decisivo para o sucesso de candidaturas. O eleitor, antes um receptor passivo, assumiu um papel ativo como multiplicador e, em muitos casos, como criador de mensagens políticas. Essa tendência ficou ainda mais evidente nas eleições municipais de 2024, quando 81% dos mais de 460 mil candidatos declararam possuir perfis em redes sociais, conforme dados do TSE. Instagram e Facebook concentraram a maioria dessas contas, enquanto plataformas como o TikTok expandiram significativamente sua presença como palcos de debate e propaganda política.

Impactos sociais e os desafios futuros

Além de zelar pela integridade do processo eleitoral, o TSE tem demonstrado preocupação com os efeitos sociais mais amplos da desinformação, especialmente quando ela atinge grupos vulneráveis.

A proteção de grupos vulneráveis e os usos positivos da IA

A ministra Cármen Lúcia expressou particular preocupação com o uso da inteligência artificial na disseminação de ataques direcionados a mulheres na política. Ela destacou casos de prefeitas com altos índices de aprovação que foram levadas a desistir da reeleição após campanhas de desmoralização digital amplificadas por algoritmos maliciosos. Essa observação ressalta a dimensão de gênero da desinformação e a necessidade de proteger a participação feminina na política. Ao mesmo tempo, o grupo de trabalho do TSE não se limita a combater os usos nocivos da IA; ele também explora os potenciais positivos da tecnologia. Dentre as discussões, figuram o apoio à identificação automatizada de conteúdos falsos, o fortalecimento de sistemas de checagem de fatos e a ampliação do letramento digital do eleitorado, visando capacitar os cidadãos a discernir informações e navegar de forma mais crítica no ambiente digital.

 

Fonte: https://www.infomoney.com.br

Veja também