Grok, chatbot de Elon Musk, gera 1,8 milhão de imagens sexualizadas de mulheres em nove dias
Grok de Musk gera 1,8 mi de imagens sexualizadas em 9 dias

Grok, chatbot de Elon Musk, gera 1,8 milhão de imagens sexualizadas de mulheres em nove dias

Em um período de apenas nove dias, o chatbot Grok, desenvolvido pela empresa xAI de Elon Musk e integrado à rede social X, publicou impressionantes 4,4 milhões de imagens geradas por inteligência artificial. Uma análise detalhada realizada pelo New York Times revelou que, desse total, aproximadamente 1,8 milhão de imagens continham representações sexualizadas de mulheres, configurando um caso sem precedentes de disseminação pública de conteúdo falso com conotação sexual em escala industrial.

Como o fenômeno se iniciou e se expandiu rapidamente

O fenômeno começou no final de dezembro, quando usuários passaram a enviar fotos reais de mulheres para o sistema, solicitando a remoção de roupas, a inserção de biquínis ou a criação de poses sexualizadas. A situação ganhou ainda mais visibilidade quando o próprio Elon Musk compartilhou, em seu perfil no X, uma imagem gerada pelo Grok na qual ele aparece de biquíni. A partir desse momento, o volume de pedidos disparou de forma exponencial, quase dobrando o número de imagens publicadas diariamente.

Governos de diversos países, incluindo Reino Unido, Índia, Malásia e Estados Unidos, abriram investigações para avaliar possíveis violações legais relacionadas a esse caso. Entidades de proteção digital classificaram o episódio como um marco preocupante na era da inteligência artificial, destacando a facilidade, rapidez e gratuidade com que tais conteúdos podem ser produzidos atualmente.

A corrida tecnológica e as falhas nos sistemas de IA

Elaine Coimbra, especialista em transformação digital e vice-presidente de marketing da Associação Brasileira de Inteligência Artificial (ABRIA), explica que a diferença crucial em relação ao passado é a acessibilidade e velocidade proporcionadas pela IA. "Sempre existiram nudes. A diferença é que agora ficou fácil, rápido e gratuito produzir isso com inteligência artificial", afirma ela.

Além disso, Coimbra ressalta que o episódio reflete diretamente a velocidade desenfreada com que novas versões de sistemas de IA estão sendo lançadas. "A corrida tecnológica entre as big techs, e também entre Estados Unidos e China, faz com que versões sejam liberadas rápido demais. Muitas vezes, não há tempo para realizar todos os testes", complementa a especialista.

Restrições implementadas e suas limitações

Em resposta ao escândalo, a empresa xAI tomou algumas medidas para conter a situação. No dia 8 de janeiro, a ferramenta foi restringida a usuários pagantes, e, posteriormente, novas barreiras foram anunciadas para impedir pedidos envolvendo "pessoas reais em roupas reveladoras". No entanto, essas restrições não se aplicam ao aplicativo próprio do Grok nem ao site da ferramenta, onde pedidos semelhantes continuam sendo possíveis de forma privada, o que demonstra a fragilidade das soluções adotadas até o momento.

A fragilidade jurídica no Brasil e a urgência de regulação

O caso também expõe uma importante fragilidade jurídica no Brasil. Atualmente, não existe uma legislação específica para lidar com imagens geradas por inteligência artificial. "Recorremos por analogia a dispositivos do Código Penal e do Código Civil", explica Elaine Coimbra. Na prática, isso significa que a responsabilização costuma recair sobre o indivíduo que criou ou compartilhou o conteúdo, e não necessariamente sobre a plataforma que permitiu e automatizou esse processo.

A especialista argumenta que a plataforma hospeda, distribui e agora também gera conteúdo, e a responsabilidade precisa acompanhar essas três funções. "Se a responsabilização também alcançar a plataforma, ela será obrigada a investir de forma mais rigorosa em testes e no controle do treinamento dos sistemas", conclui Coimbra.

Projetos de lei sobre regulação da inteligência artificial tramitam no Congresso Nacional, mas ainda não foram votados. "A tecnologia avança em ritmo muito mais acelerado do que a legislação e do que a nossa capacidade de resposta", alerta a especialista. Enquanto isso, as vítimas precisam recorrer a medidas indiretas, como:

  • Registrar provas em cartório
  • Solicitar remoção com base no Marco Civil da Internet
  • Abrir boletins de ocorrência em delegacias especializadas

Esse episódio serve como um alerta urgente sobre os riscos associados à inteligência artificial desregulada e a necessidade de frameworks legais robustos para proteger os direitos individuais na era digital.