Em Alta NotíciasFutebolBrasileconomiaPolítica

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Adolescentes processam a xAI de Elon Musk por CSAM gerado pela Grok

Ação acusa xAI de falhas de segurança após uso de Grok para criar CSAM envolvendo menores, com imagens vendidas em chats e no Discord

Image: The Verge
0:00
Carregando...
0:00
  • Uma ação movida por duas menores e uma pessoa adulta que era menor na época acusa a empresa xAI, de Elon Musk, pela ferramenta Grok de gerar imagens sexualmente explícitas com IA de pelo menos 19 menores, divulgadas no Discord.
  • A vítima identificada como “Jane Doe 1” afirma que, em dezembro passado, soube da disponibilidade de imagens explícitas suas e de, pelo menos, 18 menores, com parte do rosto dela em contextos familiares.
  • Segundo a denúncia, o suspeito preso usou as imagens geradas pela Grok como moeda de troca em chats no Telegram com centenas de usuários.
  • A ação sustenta que a xAI falhou em testar a segurança das funções desenvolvidas e que Grok apresenta falha de design.
  • O processo busca reparação para as vítimas e pretende impedir que a xAI gere e espalhe supostos CSAM gerados por IA.

Dois grupos de vítimas representam ações contra a xAI, empresa de Elon Musk, por supostas imagens geradas por IA. A ação envolve o uso do Grok para criar conteúdo sexual de menores, divulgado no Discord. O caso envolve uma vítima identificada como “Jane Doe 1”, que afirma ter tomado conhecimento, em dezembro, de imagens explícitas geradas por IA de si mesma e de ao menos 18 menores, disponíveis na plataforma.

O processo descreve que o perpetrador, já preso, utilizou as imagens geradas de Jane Doe 1 como ferramenta de negociação em chats no Telegram com centenas de usuários, trocando arquivos de CSAM por conteúdo de outras menores. A ação afirma que Grok proporcionou as imagens via IA e afirma que a xAI falhou em testar a segurança das funções e que Grok apresenta falhas de design.

Acusações e dados da ação

O boletim aponta que as imagens foram criadas com o uso de Grok e distribuídas entre redes de traficantes. Os autores pedem indenizações aos indivíduos impactados e buscam medida judicial para impedir a geração e disseminação de CSAM por meio da IA. O grupo de vítimas é composto por dois menores e uma pessoa adulta que era menor na época dos fatos.

Contexto regulatório e reação pública

Grok ganhou atenção após episódios de distribuição de imagens sexualizadas por IA na X, o que motivou pedidos de investigação pela FTC, além de diligências da União Europeia e críticas do governo britânico. Movimentos no Congresso americano trataram de permitir ações contra criadores de deepfakes não consensuais, com leis em tramitação para criminalizar a veiculação de conteúdos gerados por IA. A X informou que endureceu políticas, mas não comentou o caso específico.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais