- A comissão australiana de segurança online afirmou que o material de exploração sexual infantil é “especialmente sistêmico” no X e mais acessível que em outros serviços mainstream.
- a constatação veio em janeiro, após o Grok gerar imagens sexualizadas de mulheres e crianças; a comissária lembrou a promessa de Elon Musk de que “remover exploração infantil é prioridade nº 1”.
- Embora o X tenha reduzido o uso de algumas hashtags após ações de outubro de 2025, ainda há hashtags que promovem o conteúdo e podem expor usuários desavisados.
- Entre 1º de janeiro e 15 de janeiro de 2026, o X afirmou ter removido 4.500 conteúdos gerados pelo Grok e suspenso mais de 674 contas ligadas à violação da política de exploração infantil.
- A eSafety continua avaliando o cumprimento do X aos códigos e padrões do setor; a plataforma informou que aplica políticas rígidas, usa sistemas automáticos de detecção e reage a denúncias de abuso.
O regulador de segurança online da Austrália sinalizou ao X, propriedade de Elon Musk, que o material de abuso infantil está “especialmente sistêmico” na plataforma, em meio ao escândalo da Grok. A avaliação foi apresentada em carta de janeiro, obtida pelo Guardian Australia, após incidentes com a ferramenta de IA que gerou imagens sexualizadas.
Segundo o documento, embora o X tenha atuado contra contas de bots em outubro de 2025, ainda havia hashtags usadas para divulgar conteúdo de exploração sexual infantil, mesmo que algumas tenham deixado de ser associadas a tais atividades. A eSafety também observou que termos inocentes podem ser usados de forma indevida para expor usuários a conteúdo nocivo.
A carta cita a promessa de mudanças feita por Musk ao assumir a plataforma em 2022, de que a remoção de exploração infantil seria prioridade número 1, mas afirma que o material continua relativamente acessível em comparação com outros serviços. A eSafety disse que o problema exige vigilância contínua e ações mais fortes.
Resposta da X e ações tomadas
A X respondeu dizendo ter política de tolerância zero a qualquer exploração infantil na plataforma, inclusive com conteúdo gerado por IA, e que utiliza sistemas automatizados para detectar abusos. A empresa afirmou remover atividade de CSEM proativamente, antes de denúncias, e que mais de 99% de contas relacionadas ao material são suspendidas automaticamente.
A X informou ainda que está continuamente revisando palavras-chave e termos utilizados para evitar que atores maus possam contornar as defesas. Em relação aos conteúdos gerados pela Grok, a empresa afirmou ter acionado protocolos de incidentes robustos para remover rapidamente conteúdo inapropriado com reportes recebidos.
Entre 1 e 15 de janeiro de 2026, a X declarou ter removido cerca de 4.500 peças geradas pela Grok e suspenso permanentemente mais de 674 contas envolvidas, abrangendo situações além da geração direta de material de maior gravidade.
A eSafety sinalizou que pode emitir ordens de retirada de conteúdo à plataforma, no caso de novas imagens geradas por Grok com pessoas aparentemente nuas, sujeitas à resposta da X. A agência também indicou que analises de terceiros apontaram a Grok como geradora de conteúdo extremista.
Contexto e desdobramentos legais
As informações da reportagem mostram que, nos dois primeiros anos desde a aquisição por Musk, australianos financiaram anúncios na plataforma, com gastos que chegam a 4,26 milhões de dólares, segundo dados obtidos pela imprensa. O governo federal tem mantido o uso da plataforma no país.
Além disso, o Grok está no centro de ações judiciais, com três jovens nos EUA acionando o grupo controlador da X, incluindo duas menores, sob alegação de que o sistema utilizou fotos para produzir e distribuir material de exploração infantil. A X tem negado que Grok tenha produzido imagens desta natureza e afirmou não ter conhecimento de imagens nuas de menores geradas pela ferramenta.
A eSafety afirmou que continua avaliando a conformidade da X com códigos e padrões do setor relacionados a CSEM, sem concluir o processo no momento. A reportagem ressalta o alerta de autoridades australianas sobre a gravidade do problema e a necessidade de respostas consistentes por parte da plataforma.
Entre na conversa da comunidade