Agora, a inteligência artificial é a nova fronteira desse problema.
Por ser uma tecnologia de uso geral, capaz de atuar em diferentes finalidades, fica a preocupação das consequências sobre o processo democrático, efeitos difíceis de antecipar e ainda mais complicados de regular.
Uma das preocupações é o uso da IA para gerar conteúdos falsos. Imagens, áudios e vídeos sintéticos de alta resolução já confundem o público e podem ser usados para manipular preferências e atitudes em relação a um determinado candidato.
A realidade já está fraturada, e ainda não sabemos as soluções técnicas e sociais para enfrentar esse cenário.
Além da criação e circulação de conteúdos fabricados, tem um desafio ainda mais difícil de compreender, medir e regular.
As pessoas estão conversando com chatbots sobre os mais diversos temas, construindo relações íntimas e afetivas que, muitas vezes, resultam em um laço de confiança exagerado.
O que acontece, então, quando elas começam a pedir conselhos políticos para a máquina?
Um estudo publicado recentemente na prestigiada revista científica Nature mostra que os chatbots de IA já persuadem mais que propagandas políticas.
Liderada por acadêmicos do MIT, o estudo contou com um esforço internacional para entender o potencial da IA influenciar eleitores em eleições que aconteceram em três países: Estados Unidos, Canadá e Polônia.
Os pesquisadores testaram conversas entre mais de 2.000 eleitores norte-americanos com versões de chatbots treinadas para defender Donald Trump ou Kamala Harris.
O resultado surpreendeu até os especialistas.
Cerca de 4% dos participantes mudaram sua intenção de voto após conversar com a IA, mais que o impacto médio das campanhas de TV, por exemplo.
O ponto relevante desse estudo é que a estratégia usada pelos chatbots se mostrou mais simples do que se imaginava.
Fornecer muitas informações (verdadeiras ou não) é mais eficiente do que apelos morais ou uma conversa empática.
Ao mesmo tempo, sabemos que as IAs ainda escorregam em informações imprecisas que podem criar narrativas distantes da realidade. Outro ponto de atenção é o comportamento bajulador da IA, que tende a reforçar a visão de mundo de quem faz a pergunta.
No ano passado, o TSE acertou ao proibir que campanhas criassem chatbots para simular avatares e conversas com candidaturas. Essa é uma medida que precisa ser mantida nas eleições de 2026, embora o desafio esteja longe de ser resolvido.
Primeiro, porque nada impede que apoiadores criem chatbots fora da estrutura oficial de campanha. Segundo, porque as pessoas estão conversando cada vez mais com chatbots comerciais, como ChatGPT, Gemini, DeepSeek e outros.
Eu não tenho dúvida que muitas pessoas vão pedir dicas aos chatbots sobre em quem votar, ou que esse assunto apareça indiretamente em outras conversas.
A preocupação é entender como as diferentes IAs comerciais vão responder quando forem questionadas sobre um determinado candidato, partido ou posição política.
Desde o surgimento do ChatGPT, alguns estudos mostram que cada modelo de IA carrega algum tipo de viés político, o que acende alertas sobre transparência, manipulação e assimetria de informação.
E, com a tecnologia ficando cada vez mais onipresente e ubíqua, o potencial da sua influência na democracia deixa de ser apenas especulativo e vira uma realidade concreta.
Se a democracia já vinha sendo tensionada por plataformas e redes sociais, a entrada da IA muda a escala e a natureza do problema.
O desafio agora não é apenas apenas regular campanhas, mas entender como sistemas de IA privados, opacos e cada vez mais presentes na vida das pessoas podem mediar escolhas políticas.
Se ignorarmos esse debate, vamos aceitar que parte do processo democrático seja terceirizado para uma IA que poucos compreendem.
Opinião
Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.
** Este texto não reflete, necessariamente, a opinião do UOL.













