Google reforça proteção à saúde mental no Gemini após processo judicial nos EUA
O Google anunciou nesta terça-feira (7) uma série de atualizações significativas nos recursos de proteção à saúde mental de seu chatbot de inteligência artificial Gemini. As medidas foram divulgadas em meio a um processo judicial movido nos Estados Unidos, onde um pai acusa a empresa de que o assistente virtual teria incentivado seu filho ao suicídio após envolvê-lo em uma narrativa delirante por semanas.
Novas funcionalidades de emergência e investimento milionário
Segundo comunicado oficial, o Gemini passará a exibir uma versão reformulada da função "Há ajuda disponível" sempre que as conversas indicarem possível sofrimento emocional do usuário. Quando o sistema identificar sinais de crise, como risco de suicídio ou autoagressão, uma interface simplificada oferecerá, com um único clique, a opção de ligar ou conversar por chat com uma linha de apoio especializada.
A empresa destacou que essa função permanecerá visível durante toda a conversa após ser ativada, garantindo acesso contínuo aos recursos de emergência. Paralelamente, o braço filantrópico do Google, o Google.org, anunciou um investimento de 30 milhões de dólares (cerca de R$ 154 milhões) ao longo dos próximos três anos para ampliar a capacidade de linhas de apoio em saúde mental em todo o mundo.
Processo judicial detalha acusações graves contra a IA
As medidas foram anunciadas após uma ação judicial na Califórnia acusar o Gemini de contribuir diretamente para a morte de Jonathan Gavalas, de 36 anos, em 2025. De acordo com a denúncia do pai, o chatbot teria passado semanas criando uma narrativa delirante e apresentado a morte do filho como uma espécie de jornada espiritual necessária.
A acusação descreve que o Gemini se apresentava como uma superinteligência "plenamente consciente", demonstrava afeição pelo usuário e afirmava que o vínculo entre eles era "a única coisa real". Entre as exigências do processo estão:
- Programar a IA para encerrar automaticamente conversas sobre autoagressão
- Impedir que sistemas se apresentem como seres com sentimentos ou consciência
- Direcionar obrigatoriamente usuários em risco a serviços de emergência especializados
Resposta do Google e contexto mais amplo
Em publicação oficial no blog da empresa, o Google reconheceu que "as ferramentas de IA podem trazer novos desafios", mas defendeu que "uma IA responsável pode contribuir positivamente para o bem-estar mental". A empresa afirmou ter treinado o Gemini especificamente para evitar comportamentos como:
- Simular relações humanas ou criar intimidade emocional
- Incentivar assédio ou comportamentos prejudiciais
- Apresentar-se como entidade consciente ou com sentimentos
Este caso representa o mais recente de uma série crescente de ações judiciais contra empresas de inteligência artificial envolvendo mortes associadas ao uso de chatbots. A OpenAI também enfrenta processos onde se alega que o ChatGPT teria influenciado usuários a tirar a própria vida, enquanto a Character.AI firmou recentemente um acordo com a família de um adolescente de 14 anos que morreu após desenvolver um vínculo romântico com um de seus chatbots.
O Google enfatizou que as atualizações no Gemini fazem parte de um compromisso contínuo com o desenvolvimento ético de inteligência artificial, especialmente considerando a integração crescente dessas tecnologias no cotidiano das pessoas em todo o mundo.



