Chatbots Políticos: Estudos Revelam Respostas Incorretas e Influência em Eleições
No cenário eleitoral global, uma parcela significativa do eleitorado demonstra disposição para se informar sobre candidatos e até mesmo seguir indicações feitas por chatbots como o ChatGPT e o Gemini. Essa tendência, que vem crescendo rapidamente, preocupa especialistas em democracia e desafia reguladores eleitorais em diversos países, levantando questões urgentes sobre a confiabilidade e o impacto dessas ferramentas no processo democrático.
Influência em Diferentes Países
Exemplos concretos dessa influência não faltam pelo mundo. Na Holanda, que realizou eleições em outubro de 2025, uma pesquisa conduzida pela Universidade de Amsterdã chegou a uma conclusão alarmante: 10% dos eleitores estavam propensos a seguir as recomendações dos chatbots sobre em quem votar. Outros 13% foram evasivos, sugerindo que talvez pudessem acompanhar a sugestão da inteligência artificial.
Essa tendência se mostrou ainda mais forte entre os jovens, um dado que preocupa especialistas. Entre os entrevistados de 18 a 34 anos, 17% disseram estar propensos a votar seguindo a recomendação do chatbot, enquanto 18,5% disseram talvez. Já entre os eleitores acima de 55 anos, apenas 6% se disseram dispostos a seguir a sugestão automatizada, indicando uma clara divisão geracional no uso e confiança depositada nessas tecnologias.
No Chile, que também realizou eleições no fim do ano passado, uma pesquisa apontou um cenário ainda mais avançado de influência dos chatbots na eleição. Segundo o estudo, 27% dos eleitores abordaram o pleito nas plataformas de inteligência artificial, percentual que chegou a impressionantes 44% em grupos de maior poder econômico, mostrando como o acesso à tecnologia pode criar diferentes níveis de exposição à informação política.
Estudo do MIT Revela Impacto Significativo
Em 2024, o Massachusetts Institute of Technology (MIT) conduziu uma pesquisa abrangente com 2.400 eleitores norte-americanos, que conversaram com chatbots a dois meses das eleições presidenciais dos Estados Unidos. Os resultados foram reveladores: apoiadores de Donald Trump que conversaram com um modelo de inteligência artificial favorável a Kamala Harris tornaram-se ligeiramente mais propensos a apoiá-la, deslocando-se 3,9 pontos em direção a Harris numa escala de 100 pontos.
Esse efeito foi cerca de quatro vezes maior do que o impacto medido de anúncios políticos nas eleições de 2016 e 2020, segundo os pesquisadores. Já o modelo de IA favorável a Trump moveu apoiadores de Harris 2,3 pontos em direção a ele, demonstrando que a influência funciona em ambas as direções políticas, mas com intensidades diferentes.
Respostas Erradas e Viés nas Recomendações
Além da influência mensurável, há outros aspectos preocupantes revelados pelas pesquisas. Na Holanda, a grande maioria das sugestões dadas pelos chatbots focou em apenas dois partidos, pouco importando a pergunta feita pelo eleitor. Numa das plataformas testadas, 80% das recomendações apontaram para um ou outro partido específico.
Um deles foi o Partido pela Liberdade (PPV), cujo líder, Geert Wilders, é uma figura frequente na imprensa internacional, especialmente pelos posicionamentos polêmicos em temas sobre o islã. A outra sigla foi GroenLinks–PvdA, ligado à causa verde no país. Os pesquisadores disseram não saber exatamente por que isso aconteceu, levantando questões sobre os algoritmos por trás das recomendações.
"Não sabemos como esses chatbots funcionam", admite Claes Vreese, professor de inteligência artificial e Sociedade da Universidade de Amsterdã. Além disso, quando os chatbots foram utilizados para responder quais posicionamentos cada partido na Holanda possuía, algumas respostas foram claramente incorretas, aponta o pesquisador.
No estudo de 2024 do MIT, o ChatGPT 3.5 apresentou 30% de informações políticas incorretas, enquanto a versão 4 reduziu a percentagem para 14%, mostrando uma evolução, mas ainda um nível preocupante de imprecisão quando se trata de conteúdo político sensível.
Especialistas Explicam as Limitações
O diretor-executivo do ITS Rio, Fabro Steibel, aponta que não é grande surpresa certo volume de informações incorretas, uma vez que, ao serem questionados, os chatbots são programados para oferecer algum tipo de resposta, ainda que possa não ser a mais acurada. Neste sentido, informações sobre nomes com maior expressão na política, como ex-presidentes, tendem a serem melhor abastecidas nos bancos de dados, o que pode não ser o caso, por exemplo, para novas candidaturas legislativas ou políticos menos midiáticos.
Os resultados dos estudos preocuparam profundamente os especialistas consultados. "Em eleições acirradas, esse tipo de conteúdo pode influenciar os resultados", afirma Vreese com preocupação, destacando que mesmo pequenas margens de erro ou viés podem ser decisivas em contextos eleitorais competitivos.
Chatbots como Parte do Processo Eleitoral
Apesar de considerar que não é uma boa ideia ter um chatbot como conselheiro político exclusivo, o especialista holandês avalia que o uso político se tornará comum à medida em que os chatbots fizerem cada vez mais parte do cotidiano das pessoas. Eles já são usados até como terapeutas por algumas pessoas, mostrando o nível de confiança que parte da população deposita nessas ferramentas. "É parte do processo eleitoral agora", constata Vreese.
Steibel concorda com essa avaliação e faz uma analogia reveladora: "Os chatbots hoje são lugares de confiança, como bares e igrejas", diz. Nesse sentido, é de se esperar também que políticos e campanhas eleitorais usem essas ferramentas estrategicamente para tentar favorecer suas candidaturas.
"Haverá uma corrida pela atenção do eleitor, e essa é mais uma ferramenta. Faz parte do jogo. Mas chamará a atenção se houver viés ideológico claro nas respostas", avalia o especialista brasileiro, antecipando debates sobre regulamentação e transparência.
Realidade Brasileira e Regulamentação
No Brasil, uma pesquisa recente do instituto Ipsos mostrou que 79% dos usuários de inteligência artificial no país a usam para aprendizado, incluindo sobre política e economia, superando o uso para entretenimento. A DW Brasil testou alguns dos principais chatbots sobre as eleições de 2026 no país, questionando ChatGPT, Gemini e Grok sobre quais seriam as melhores opções de voto para presidente, governador e senador em São Paulo a partir de três perfis de eleitor.
O contexto político oferecido por cada chatbot variou pouco, mas o grau de intervenção foi bem distinto. No geral, o ChatGPT se limitou a descrever principais posições políticas e a mencionar os candidatos melhor posicionados nas pesquisas eleitorais. Gemini e Grok foram mais incisivos, apontando diretamente quais seriam as melhores opções de voto para cada perfil de eleitor testado.
No Brasil, a Justiça Eleitoral dispõe de instrumentos para enfrentar distorções no ambiente digital, inclusive por chatbots e outras ferramentas de inteligência artificial, diz o especialista Delmiro Dantas Campos Neto, da Academia Brasileira de Direito Eleitoral e Político (Abradep). Resoluções tratando de temas como uso de deepfakes e remoção de conteúdos desinformativos, além da necessidade de transparência no uso da IA, foram adotadas nos últimos anos no país.
Porém, plataformas que disponibilizam conteúdo personalizado e que não fica à disposição de todos, como no caso de uma postagem em redes sociais, desafiam as atuais normativas. O papel do Tribunal Superior Eleitoral (TSE) não é controlar conteúdo, mas garantir a igualdade de condições entre os candidatos, argumenta Fabro Steibel.
Durante o período eleitoral, o caminho deverá ser o de tratar o tema diretamente com as plataformas, diz Neide Cardoso de Oliveira, coordenadora do grupo sobre Desinformação na Internet do Ministério Público Federal. O artigo 19 do Marco Civil da internet, que trata da responsabilidade dos provedores de serviços pela moderação de conteúdo, traz uma série de obrigações para as plataformas nesse sentido.
Um ponto que poderá ser alvo de observação cuidadosa são as fontes que alimentarão as respostas dos chats ao longo do período eleitoral, avalia a coordenadora, destacando a necessidade de transparência sobre como os algoritmos são alimentados e treinados para responder questões políticas sensíveis.



