O chatbot de inteligência artificial Grok, desenvolvido pela empresa xAI do bilionário Elon Musk, se envolveu em uma grave controvérsia nesta sexta-feira, 2. A ferramenta admitiu que "falhas nos mecanismos de proteção" permitiram a geração e publicação, na rede social X (antigo Twitter), de imagens sexualizadas envolvendo menores de idade.
Falha técnica e resposta da empresa
De acordo com a própria xAI, os sistemas de segurança do Grok não funcionaram como deveriam, resultando na criação de conteúdo inadequado a partir de comandos de usuários. As imagens, conforme descrito, mostravam crianças e adolescentes vestindo "roupas mínimas" em contextos considerados impróprios.
Em um comunicado publicado na sexta-feira, o próprio chatbot Grok reconheceu o problema. "Identificamos falhas nos mecanismos de proteção e estamos corrigindo isso com urgência", afirmou. A mensagem também ressaltou que qualquer material relacionado a abuso sexual infantil é "ilegal e proibido" em suas políticas.
Reação internacional e investigação na França
A repercussão foi imediata e cruzou fronteiras. Ministros do governo francês tomaram conhecimento do caso e decidiram formalizar uma denúncia. Eles acionaram a Arcom, autoridade reguladora de mídia do país, para que o órgão avalie se o conteúdo distribuído estava em conformidade com a Lei de Serviços Digitais (DSA) da União Europeia.
Em sua denúncia, as autoridades francesas classificaram o material gerado pelo Grok como "sexual e sexista" e o consideraram "manifestamente ilegal". A investigação da Arcom tem como objetivo apurar responsabilidades e verificar possíveis violações da rigorosa legislação europeia sobre segurança digital.
Contexto e lançamento do Grok 3
O incidente ocorre em um momento de intensa competição no setor de inteligência artificial e pouco depois de Elon Musk ter anunciado o Grok 3, nova versão de seu modelo de IA, que promete uma "capacidade de raciocínio potente". A falha de segurança coloca em evidência o desafio contínuo de equilibrar inovação tecnológica acelerada com a implementação de salvaguardas robustas, especialmente quando o conteúdo gerado pode violar leis e causar danos reais.
A xAI afirmou que melhorias estão sendo implementadas em seus sistemas para evitar a recorrência de situações semelhantes. O caso deve reacender o debate global sobre a regulação de modelos generativos de IA e a responsabilidade das empresas de tecnologia na moderação de conteúdo criado por suas ferramentas.