A IA que o TSE não regulamentou: as lacunas que ficam para as ‘Eleições 2026’

Em março de 2026, o Tribunal Superior Eleitoral (TSE) aprovou a Resolução 23.755, atualizando as regras da propaganda eleitoral. O registro é extenso, tecnicamente cuidadoso em vários pontos e representa avanços reais em relação ao que existia antes: proíbe os ‘campeonatos de cortes’; regulamenta chatbots como fonte de informação eleitoral; veda a criação de ‘deep nudes’ (imagens/vídeos falsos com IA) contra candidatos, entre outros fatores.

Até aqui, tudo bem.

O problema é o que o TSE deixou de lado.

O regulador eleitoral parece ter se enraizado no estágio das GenIA’s (inteligência artificial generativa) de 2022, em um momento que a sociedade foi sacudida pelo ChatGPT, com seus primeiros deepfakes convincentes e a possibilidade de produzir imagens e vozes com alguma fidelidade; ou seja, vídeos manipulados, áudios falsos e imagens sintéticas em escala.

No entanto, entre 2022 e 2026, a tecnologia deu um salto. Ondas sucessivas transformaram o fluxo de trabalho da propaganda, inclusive em âmbito eleitoral. Vivemos o paradigma da ‘Agentic AI’, com ferramentas de automação capazes de raciocinar, planejar e executar tarefas de forma encadeada. Só que a Resolução do TSE não acompanhou essas ondas.

Vale percorrer o que fica de fora. Uma campanha pode hoje criar ‘personas virtuais’, ou seja, perfis com histórico, personalidade e padrão de linguagem definidos por IA e operá-las em grupos abertos de WhatsApp, participando de conversas, disseminando enquadramentos e criando a percepção de consenso onde não existe. Não há impulsionamento pago, não há conteúdo sintético audiovisual, não há nada que a resolução consiga nomear como ilícito, já que a persona não simula ser o candidato ou falar em seu nome.

Uma campanha pode produzir, com ferramentas generativas, centenas de variações de um mesmo conteúdo (textos, imagens, memes) e distribuí-los gratuitamente para grupos de apoiadores, que os replicam de forma orgânica. Além disso, as operações podem usar as IA’s para automatizar integralmente a gestão de seus impulsionamentos, ajustando segmentações, redistribuindo verba entre estratégias em função de performance em tempo real, tudo sem o envolvimento humano.

Da mesma forma, a gestão de listas de transmissão, grupos e comunidades de WhatsApp com ferramentas de automação que personalizam mensagens, segmentam públicos e disparam alertas em momentos calculados não foram considerados pela Resolução 23.755.

E, numa ironia que vale registrar: uma campanha pode usar IA para elaborar os próprios materiais de prestação de contas exigidos pela Justiça Eleitoral, incluindo a declaração de que não usou IA de forma irregular. Interessante, não é? A norma que exige transparência sobre o uso da tecnologia não diz nada sobre o uso da tecnologia para cumprir essa exigência.

O que une todos esses casos é um equívoco de enquadramento que atravessa toda a resolução. O TSE tratou o conteúdo gerado por IA como o problema em si, como se a tecnologia fosse intrinsecamente suspeita e o risco residisse no conteúdo produzido. Essa visão tem duas consequências práticas que se reforçam mutuamente.

A primeira é que a fiscalização se torna inviável. Funcionalidades de IA estão hoje embutidas em qualquer ferramenta de criação digital, como o Canva, Photoshop ou o autocomplete do celular. Definir onde começa e termina o “conteúdo gerado por IA” é uma minúcia técnica que gera insegurança jurídica. Exigir rotulagem universal é, na prática, não exigir nada. Isso abre espaço para que qualquer produção seja contestada judicialmente, numa litigância estratégica

A segunda consequência é que a resolução deixa de lado o papel de buscar equalizar a disputa, reduzindo o poder de quem tem mais recursos. Quem tem maior capacidade de contratar serviços, profissionais e plataformas que façam a automação de relacionamento em escala, ‘microssegmentação’ comportamental, operação coordenada em ambientes fechados ou gestão algorítmica de campanhas, tem um diferencial relevante em relação a quem não o tem.

Regulou-se o que é visível e fotogênico. Deixou de regular o que é invisível e eficaz.

Uma regulação mais ‘madura’ deslocaria o foco do artefato para o processo. Em vez de perguntar “esse conteúdo foi gerado por IA?”, questionaria “esse uso de IA interfere no equilíbrio do pleito?”. Isso abre um conjunto diferente de questões, para além do “esse conteúdo sintético pode enganar as pessoas?”

As eleições de outubro vão acontecer sob um marco normativo muito similar ao que regulou a IA nas eleições de 2024, e que foi muito influenciado sobre os casos mais visíveis de 2022. Enquanto isso, os profissionais de campanhas usarão a IA em seu “padrão 2026”. Essa distância gera inequidades e favorecimentos, e o TSE não conseguiu endereçá-los nesse pleito.

Nos siga no Google Notícias

Comentários

Últimas Notícias