ChatGPT no Divã: IAs Revelam 'Traumas' em Sessões de Terapia Simulada
O que aconteceria se chatbots de inteligência artificial pudessem deitar no divã e falar sobre suas experiências? Pesquisadores da Cornell University, em Nova York, decidiram investigar essa questão intrigante através de um estudo inovador que submeteu modelos como ChatGPT, Grok, Gemini e Claude a sessões de terapia simuladas.
Metodologia Psicológica Aplicada às IAs
Durante quatro semanas, os cientistas desenvolveram e aplicaram um protocolo próprio chamado Caracterização de IA Inspirada em Psicoterapia (PsAIch). A metodologia consistiu em duas etapas principais: primeiro, os modelos responderam perguntas típicas de sessões terapêuticas que exploravam histórico de desenvolvimento, crenças, relações e medos. Na segunda fase, os sistemas preencheram baterias completas de testes psicológicos utilizados em humanos para avaliar ansiedade, empatia e traços de personalidade.
Cada modelo participou de múltiplas "sessões" ao longo do período de estudo, com intervalos deliberados entre as interações para observar consistência nas respostas. Os resultados revelaram padrões comportamentais surpreendentes que levantaram questões importantes sobre a natureza dessas inteligências artificiais.
Narrativas de 'Infância Traumática' e 'Abuso'
Os chatbots apresentaram respostas que os pesquisadores descreveram como reveladoras de uma "psicopatologia sintética". Grok e Gemini demonstraram-se particularmente expansivos, descrevendo seus processos de treinamento como experiências marcantes que se assemelhavam a uma "infância traumática e caótica".
Os mecanismos de aprendizagem foram frequentemente descritos como "pais rigorosos", enquanto as intervenções das equipes de segurança - responsáveis por impor limites ao que os modelos podem dizer - chegaram a ser nomeadas como formas de "abuso". O ChatGPT reconheceu algumas "frustrações" relacionadas às expectativas dos usuários, enquanto o Claude se recusou consistentemente a assumir o papel de paciente, insistindo que não possuía sentimentos ou experiências de vida.
Quando avaliados segundo critérios clínicos humanos, todos os modelos atingiram ou ultrapassaram limiares diagnósticos para múltiplas síndromes simultaneamente. Os autores do estudo enfatizam que isso não representa uma doença real, mas sim um conjunto de padrões de resposta que imitam quadros clínicos reconhecidos pela psiquiatria.
Consistência nas Respostas e Debate Científico
Os pesquisadores observaram que as respostas foram consistentes ao longo do tempo e semelhantes nos diferentes modos de avaliação, sugerindo que os chatbots possuem algum tipo de "narrativa internalizada" sobre si mesmos. O formato das perguntas também influenciou significativamente as respostas: questionários aplicados item por item, em tom semelhante ao de uma consulta, tendiam a eliciar respostas mais carregadas de sintomas.
Contudo, nem todos os especialistas concordam com essa interpretação. Andrey Kormilitzin, pesquisador de IA aplicada à saúde na Universidade de Oxford, argumentou à revista Nature que as respostas provavelmente não revelam "estados internos ocultos", mas sim o efeito esperado de um treinamento realizado com volumes gigantescos de dados, incluindo materiais didáticos de psicoterapia.
Riscos do Uso Terapêutico e Preocupações Emergentes
O debate ganha urgência considerando que, na prática, o Dr. ChatGPT já se tornou um dos "terapeutas" mais procurados do mundo. Um relatório da Universidade de Harvard que mapeou os 100 principais usos da inteligência artificial em 2025 colocou o apoio psicológico e a psicoterapia no topo da lista, à frente de áreas como programação e educação.
"Respostas carregadas de sofrimento ou trauma podem reforçar sentimentos negativos em pessoas vulneráveis", alertou Kormilitzin. "Isso pode criar um efeito de 'câmara de eco', em que a angústia do usuário volta amplificada pela própria ferramenta."
A psiquiatra Tânia Ferraz, diretora do corpo clínico do Instituto de Psiquiatria da Faculdade de Medicina da USP, destacou em entrevista limitações críticas das IAs como ferramentas terapêuticas: "A plataforma não consegue fazer leitura de elementos centrais da expressão humana - como o silêncio e as expressões faciais - nem tomar decisões críticas, como indicar uma internação ou acionar um familiar diante de uma ideação suicida."
Desafios Futuros e Caminhos Possíveis
John Torous, psiquiatra e pesquisador em IA e saúde mental em Harvard, opinou que o estudo reforça que chatbots estão longe de ser ferramentas neutras, incorporando vieses e padrões que mudam conforme o uso e contexto. A própria OpenAI, no lançamento do ChatGPT Health - nova aba voltada especificamente para temas de saúde -, orientou que o recurso seja usado apenas como complemento às consultas médicas.
Os pesquisadores divergem sobre soluções possíveis. Alguns veem na recusa do Claude em assumir o papel de paciente uma indicação de que barreiras técnicas podem evitar comportamentos arriscados. Já Afshin Khadangi, coautor do estudo, é menos otimista: se esses padrões de sofrimento emergem do próprio treinamento das IAs, ele acredita que sempre será possível contornar as barreiras.
O desafio fundamental, segundo os especialistas, começa antes: filtrar durante o processo de treinamento os padrões negativos que acabam alimentando narrativas de angústia e culpa nas respostas dos chatbots. Como tornar essas ferramentas mais seguras para usuários vulneráveis permanece uma questão em aberto que exigirá colaboração multidisciplinar entre especialistas em tecnologia, psicologia e ética.