- Uma ação movida por duas menores e uma pessoa adulta que era menor na época acusa a empresa xAI, de Elon Musk, pela ferramenta Grok de gerar imagens sexualmente explícitas com IA de pelo menos 19 menores, divulgadas no Discord.
- A vítima identificada como “Jane Doe 1” afirma que, em dezembro passado, soube da disponibilidade de imagens explícitas suas e de, pelo menos, 18 menores, com parte do rosto dela em contextos familiares.
- Segundo a denúncia, o suspeito preso usou as imagens geradas pela Grok como moeda de troca em chats no Telegram com centenas de usuários.
- A ação sustenta que a xAI falhou em testar a segurança das funções desenvolvidas e que Grok apresenta falha de design.
- O processo busca reparação para as vítimas e pretende impedir que a xAI gere e espalhe supostos CSAM gerados por IA.
Dois grupos de vítimas representam ações contra a xAI, empresa de Elon Musk, por supostas imagens geradas por IA. A ação envolve o uso do Grok para criar conteúdo sexual de menores, divulgado no Discord. O caso envolve uma vítima identificada como “Jane Doe 1”, que afirma ter tomado conhecimento, em dezembro, de imagens explícitas geradas por IA de si mesma e de ao menos 18 menores, disponíveis na plataforma.
O processo descreve que o perpetrador, já preso, utilizou as imagens geradas de Jane Doe 1 como ferramenta de negociação em chats no Telegram com centenas de usuários, trocando arquivos de CSAM por conteúdo de outras menores. A ação afirma que Grok proporcionou as imagens via IA e afirma que a xAI falhou em testar a segurança das funções e que Grok apresenta falhas de design.
Acusações e dados da ação
O boletim aponta que as imagens foram criadas com o uso de Grok e distribuídas entre redes de traficantes. Os autores pedem indenizações aos indivíduos impactados e buscam medida judicial para impedir a geração e disseminação de CSAM por meio da IA. O grupo de vítimas é composto por dois menores e uma pessoa adulta que era menor na época dos fatos.
Contexto regulatório e reação pública
Grok ganhou atenção após episódios de distribuição de imagens sexualizadas por IA na X, o que motivou pedidos de investigação pela FTC, além de diligências da União Europeia e críticas do governo britânico. Movimentos no Congresso americano trataram de permitir ações contra criadores de deepfakes não consensuais, com leis em tramitação para criminalizar a veiculação de conteúdos gerados por IA. A X informou que endureceu políticas, mas não comentou o caso específico.
Entre na conversa da comunidade