Denunciantes revelam corrida por engajamento que colocou usuários em risco
Gigantes das redes sociais permitiram deliberadamente mais conteúdo nocivo nos feeds dos usuários, mesmo após pesquisas internas mostrarem que a indignação impulsionava o engajamento, segundo revelações de mais de uma dúzia de denunciantes e pessoas ligadas a essas empresas. As informações foram compartilhadas com a BBC e mostram como Meta e TikTok assumiram riscos de segurança em questões como violência, chantagem sexual e terrorismo enquanto disputavam a atenção dos usuários.
Meta orientou equipe a permitir conteúdo limítrofe
Um engenheiro da Meta, empresa controladora do Facebook e Instagram, descreveu como recebeu orientação da direção para permitir mais conteúdo "limítrofe" nos feeds dos usuários. Esse tipo de conteúdo inclui misoginia e teorias conspiratórias, e a decisão teria sido tomada para competir com o TikTok. "Eles basicamente nos disseram que era porque o preço das ações estava em queda", afirmou o engenheiro, que pediu anonimato.
Matt Motyl, pesquisador sênior da Meta, revelou que o Instagram Reels, concorrente do TikTok lançado em 2020, foi introduzido sem proteções suficientes. Pesquisas internas compartilhadas com a BBC mostraram que os comentários no Reels apresentavam prevalência significativamente maior de bullying e assédio, discurso de ódio e violência do que em outras partes do Instagram.
TikTok priorizou casos políticos sobre segurança infantil
Um funcionário do TikTok deu à BBC acesso raro aos painéis internos da empresa, mostrando como funcionários foram instruídos a priorizar casos envolvendo políticos em detrimento de denúncias de publicações nocivas envolvendo crianças. As decisões estavam sendo tomadas para "manter um relacionamento forte" com figuras políticas e evitar ameaças de regulação, não por causa dos riscos aos usuários.
O denunciante, identificado como Nick, mostrou evidências de que o TikTok tratava casos relativamente simples envolvendo políticos como prioridade maior do que situações graves com adolescentes. Em um exemplo, um político ridicularizado ao ser comparado a uma galinha recebeu prioridade sobre um jovem de 17 anos vítima de cyberbullying na França e uma jovem de 16 anos no Iraque com imagens sexualizadas sendo compartilhadas sem consentimento.
Algoritmos como "caixa-preta" e radicalização de adolescentes
Ruofan Ding, que trabalhou como engenheiro de aprendizado de máquina no desenvolvimento do mecanismo de recomendação do TikTok de 2020 a 2024, descreveu os algoritmos como uma "caixa-preta" cujo funcionamento interno é difícil de examinar. "Não temos controle sobre o próprio algoritmo de aprendizado profundo", afirmou Ding, explicando que para os engenheiros, "todo o conteúdo é apenas um ID, um número diferente".
Adolescentes relataram à BBC que as ferramentas para indicar que não querem ver conteúdo problemático não funcionam adequadamente. Calum, hoje com 19 anos, disse ter sido "radicalizado pelo algoritmo" desde os 14 anos, com vídeos que o levaram a adotar visões racistas e misóginas. "Eles só me deixavam muito irritado. Refletiam muito a forma como eu me sentia por dentro", desabafou.
Cortes em equipes de moderação aumentaram riscos
Nick revelou que cortes e reorganização de equipes de moderação no TikTok - com algumas funções sendo substituídas por inteligência artificial - reduziram a capacidade da empresa de lidar eficazmente com conteúdo nocivo. Conteúdos ligados a "terrorismo, violência sexual, violência física, abuso e tráfico" parecem estar aumentando, segundo o denunciante.
O conselho de Nick aos pais cujos filhos usam o TikTok é direto: "Apaguem o aplicativo. Mantenham as crianças o mais longe possível dele pelo maior tempo possível." Ele acrescentou que quando funcionários levantaram preocupações com a direção, não houve receptividade porque os líderes "não são expostos a esse conteúdo no dia a dia".
Meta reconhecia problemas mas priorizava crescimento
Documentos internos da Meta compartilhados com a BBC revelam que a empresa sabia que seu algoritmo oferecia aos criadores de conteúdo um "caminho que maximiza os lucros às custas do bem-estar de sua audiência". O estudo interno afirmava que "o atual conjunto de incentivos financeiros que nossos algoritmos criam não parece estar alinhado com nossa missão" de aproximar as pessoas.
Brandon Silverman, cuja ferramenta Crowdtangle foi comprada pelo Facebook em 2016, participou de discussões em alto nível e disse que o CEO Mark Zuckerberg estava "muito paranoico" com a concorrência. "Quando ele percebe que há concorrência, não mede esforços nem dinheiro", afirmou Silverman, observando que equipes de segurança lutavam para conseguir aprovação para contratar poucos funcionários enquanto a empresa priorizava a expansão do Reels com 700 novas contratações.
Respostas das empresas
Em resposta às alegações, a Meta afirmou: "Qualquer sugestão de que ampliamos deliberadamente o conteúdo nocivo para ganho financeiro é incorreta." A empresa destacou que tem "políticas rigorosas para proteger os usuários" e fez "investimentos significativos em segurança ao longo da última década", incluindo a introdução de contas para adolescentes com proteções integradas.
O TikTok rejeitou as acusações, classificando-as como "alegações fabricadas" e afirmando que "deturpam fundamentalmente a forma como os seus sistemas de moderação funcionam". A empresa disse investir em tecnologia para impedir que conteúdo nocivo seja visualizado e que contas de adolescentes têm mais de 50 recursos e configurações de segurança pré-definidos ativados automaticamente.
Especialistas da polícia antiterrorismo no Reino Unido observaram um aumento e uma "normalização" de posts antissemitas, racistas, violentos e de extrema direita nos últimos meses. "As pessoas estão mais dessensibilizadas à violência no mundo real e não têm medo de compartilhar suas opiniões", disse um dos agentes, destacando os riscos crescentes nas plataformas.



