Chatbots políticos cometem erros e influenciam eleitores, alertam estudos internacionais
Uma série de pesquisas acadêmicas realizadas em diferentes países revela um cenário preocupante: chatbots de inteligência artificial estão fornecendo informações incorretas sobre posicionamentos de partidos políticos e, ao mesmo tempo, exercendo influência significativa sobre as decisões de voto dos eleitores. Os estudos, conduzidos na Holanda, Chile e Estados Unidos, mostram que uma parcela considerável do eleitorado global está disposta a seguir recomendações políticas feitas por sistemas como ChatGPT e Gemini, uma tendência que desafia reguladores eleitorais e preocupa especialistas em democracia digital.
Influência crescente entre jovens eleitores
Na Holanda, que realizou eleições em outubro de 2025, uma pesquisa da Universidade de Amsterdã descobriu que 10% dos eleitores estavam propensos a seguir recomendações de chatbots sobre em quem votar, enquanto outros 13% foram evasivos, sugerindo que talvez pudessem acompanhar as sugestões. A tendência se mostrou particularmente forte entre os jovens: entre entrevistados de 18 a 34 anos, 17% disseram estar propensos a votar seguindo a recomendação, e 18,5% disseram talvez. Em contraste, apenas 6% dos eleitores acima de 55 anos se disseram dispostos a seguir sugestões de chatbots.
No Chile, que também realizou eleições no final do ano passado, uma pesquisa apontou um cenário ainda mais avançado de influência. Segundo o estudo, 27% dos eleitores abordaram o pleito através de plataformas de chatbots, percentual que chegou a impressionantes 44% em grupos de maior poder econômico.
Impacto mensurável nas preferências políticas
Em 2024, o Massachusetts Institute of Technology (MIT) conduziu uma pesquisa abrangente com 2.400 eleitores norte-americanos, que conversaram com chatbots a dois meses das eleições presidenciais dos Estados Unidos. Os resultados foram reveladores: apoiadores de Donald Trump que conversaram com um modelo de IA favorável a Kamala Harris tornaram-se ligeiramente mais propensos a apoiá-la, deslocando-se 3,9 pontos em direção a Harris numa escala de 100 pontos.
Esse efeito foi cerca de quatro vezes maior do que o impacto medido de anúncios políticos nas eleições de 2016 e 2020, segundo os pesquisadores. Já o modelo de IA favorável a Trump moveu apoiadores de Harris 2,3 pontos em direção ao ex-presidente, demonstrando a capacidade desses sistemas de influenciar preferências políticas de maneira mensurável.
Erros frequentes e respostas enviesadas
Os estudos também revelaram problemas significativos de precisão nas respostas dos chatbots. Na pesquisa holandesa, a grande maioria das sugestões dadas pelos chatbots focou em apenas dois partidos, pouco importando a pergunta feita pelos usuários. Em uma das plataformas testadas, 80% das recomendações apontaram para o Partido pela Liberdade (PPV) ou para o GroenLinks–PvdA, ligado à causa ambiental no país.
Quando questionados sobre posicionamentos específicos de cada partido holandês, algumas respostas foram claramente incorretas, conforme apontou Claes Vreese, professor de inteligência artificial e Sociedade da Universidade de Amsterdã. "Não sabemos como esses chatbots funcionam", admitiu o pesquisador, destacando a opacidade dos algoritmos.
No estudo do MIT, o ChatGPT 3.5 apresentou 30% de informações políticas incorretas, enquanto a versão 4 reduziu esse percentual para 14% - ainda assim, um índice preocupante para sistemas que estão sendo consultados para decisões democráticas.
Integração inevitável no processo eleitoral
Fabro Steibel, diretor-executivo do ITS Rio, observa que não é grande surpresa certo volume de informações incorretas, uma vez que os chatbots são programados para oferecer algum tipo de resposta mesmo quando não possuem informações precisas. "Informações sobre nomes com maior expressão na política, como ex-presidentes, tendem a serem melhor abastecidas, o que pode não ser o caso para novas candidaturas legislativas", explica.
Apesar dos problemas identificados, especialistas acreditam que o uso político de chatbots se tornará cada vez mais comum. "É parte do processo eleitoral agora", afirma Vreese, que considera preocupante o potencial impacto em eleições acirradas. Steibel concorda: "Os chatbots hoje são lugares de confiança, como bares e igrejas", observando que é de se esperar que políticos usem essas ferramentas para tentar favorecer suas candidaturas.
Realidade brasileira e desafios regulatórios
No Brasil, uma pesquisa recente do instituto Ipsos mostrou que 79% dos usuários de inteligência artificial no país a usam para aprendizado, incluindo sobre política e economia, superando o uso para entretenimento. Testes realizados pela DW Brasil com ChatGPT, Gemini e Grok sobre as eleições de 2026 revelaram diferenças significativas no grau de intervenção: enquanto o ChatGPT se limitou a descrever posições políticas e mencionar candidatos bem posicionados nas pesquisas, Gemini e Grok foram mais incisivos, apontando diretamente quais seriam as melhores opções de voto para diferentes perfis de eleitor.
Delmiro Dantas Campos Neto, da Academia Brasileira de Direito Eleitoral e Político (Abradep), destaca que a Justiça Eleitoral brasileira dispõe de instrumentos para enfrentar distorções no ambiente digital, incluindo resoluções sobre deepfakes, remoção de conteúdos desinformativos e necessidade de transparência no uso de IA. No entanto, plataformas que disponibilizam conteúdo personalizado - como respostas individuais de chatbots - desafiam as atuais normativas.
Fabro Steibel argumenta que o papel do Tribunal Superior Eleitoral (TSE) não é controlar conteúdo, mas garantir igualdade de condições entre candidatos. Neide Cardoso de Oliveira, coordenadora do grupo sobre Desinformação na Internet do Ministério Público Federal, sugere que durante o período eleitoral, o caminho deverá ser tratar o tema diretamente com as plataformas, observando especialmente as fontes que alimentarão as respostas dos chatbots.



