Persistir nos erros de 2024 não tornará as eleições mais seguras – apenas mais silenciosa
A regulação da propaganda eleitoral para o pleito municipal de 2024 deixou um legado problemático que agora se projeta sobre as eleições gerais de 2026. Em vez de corrigir escolhas mal calibradas à luz da experiência recente, a nova minuta relatada pelo ministro Kassio Nunes preserva dispositivos que interferem diretamente na arquitetura das plataformas digitais e produzem efeitos profundos (e pouco debatidos) sobre a circulação do discurso político. O mais emblemático deles é o tratamento conferido aos sistemas de recomendação algorítmica.
O § 1.º-A do art. 28 da Resolução n.º 23.610 do Tribunal Superior Eleitoral (TSE) impõe aos provedores de aplicação que utilizam sistemas de recomendação a obrigação de excluir, desses sistemas, os perfis e canais informados à Justiça Eleitoral, bem como os conteúdos por eles publicados, ressalvadas apenas as hipóteses legais de impulsionamento pago. À primeira vista, a regra pode parecer uma medida técnica de contenção de abusos. Na prática, ela parte de uma premissa equivocada sobre como o debate público ocorre hoje no ambiente digital.
Em grande parte das plataformas contemporâneas, a recomendação não é um recurso acessório, mas o próprio modo de funcionamento do serviço. O acesso a conteúdos políticos não depende, em regra, do seguimento direto de perfis, mas de sistemas automatizados que organizam, priorizam e distribuem informações com base em critérios de relevância, contexto e interesse do usuário. Excluir perfis e conteúdos desses sistemas equivale, portanto, a inviabilizar sua circulação normal na plataforma, ainda que permaneçam formalmente disponíveis.
Cria-se, assim, uma distinção artificial entre conteúdos “existentes” e conteúdos efetivamente “circuláveis”. Em ambientes digitais estruturados por recomendação algorítmica, essa diferença é decisiva. A exclusão da recomendação opera, na prática, como um bloqueio funcional do discurso político, com efeitos semelhantes aos de uma remoção direta, mas sem as mesmas garantias processuais e sem transparência quanto aos seus impactos reais.
É válido lembrar que esse tipo de exclusão não afeta apenas os emissores diretamente alcançados pela medida, mas repercute sobre todo o ecossistema informacional, reduzindo a diversidade de fontes e pontos de vista acessíveis aos usuários. Ao limitar a circulação algorítmica de conteúdos políticos, corre-se o risco de empobrecer o debate público e de restringir o direito dos cidadãos de receber informações relevantes para a formação de sua opinião política. Trata-se de uma intervenção sistêmica, cujos efeitos extrapolam em muito o objetivo de disciplinar campanhas eleitorais.
Esse desenho normativo se articula com outro erro herdado da regulação de 2024: a imposição de responsabilidade solidária às plataformas pela não remoção imediata de conteúdos eleitorais considerados de risco. O dispositivo tensiona, e em certa medida ignora, o regime do Marco Civil da Internet, recentemente reformado de forma capenga pelo Supremo Tribunal Federal (STF). Mesmo na decisão do STF se exigiu notificação para que conteúdos que afetem a honra de parlamentares se tornem também responsabilidade das plataformas. Assim, ao deslocar para agentes privados decisões sensíveis sobre a licitude de discursos políticos, a norma cria incentivos claros à remoção preventiva e à restrição excessiva da circulação de conteúdos.
Diante da ameaça de sanções, plataformas tendem a adotar políticas internas mais conservadoras do que a própria regulação exige, reduzindo recomendações, limitando funcionalidades e, em alguns casos, afastando-se completamente da propaganda eleitoral. Em vez de fortalecer a transparência e a integridade do processo democrático, a regulação acaba estimulando formas privadas e opacas de controle do discurso político, com impacto direto sobre a visibilidade de ideias e propostas.
A abordagem da inteligência artificial (IA) segue a mesma lógica de desconfiança estrutural. Ao tratar usos de IA (conteúdos sintéticos, avatares e chatbots, por exemplo) como riscos em si mesmos, independentemente de contexto ou potencial de engano do eleitor, a regulação de 2024 adota uma visão tecnicista e pouco sensível às práticas contemporâneas de comunicação política. Ferramentas automatizadas podem ampliar o acesso à informação, explicar propostas em linguagem simples e reduzir barreiras de escala e custo na comunicação eleitoral. Regulá-las sem considerar seu impacto concreto contribui para a insegurança jurídica e para decisões arbitrárias. Mas mais do que isso: impede o barateamento das campanhas, favorecendo estruturas tradicionais e atores com maior poder econômico.
O problema central dessas escolhas não é a existência de regulação, mas sua falta de calibragem. Ao ignorar a arquitetura técnica das plataformas e a forma como a sociedade contemporânea consome informação política, a Justiça Eleitoral acaba produzindo normas que não protegem melhor o eleitor, mas restringem a circulação legítima do debate público. Persistir nos erros de 2024 não tornará as eleições mais seguras – apenas mais silenciosas.
Texto reproduzido do Estadão. Leia a publicação original.
Por Henrique Zétola | Diretor Executivo do Instituto Sivis


