- O CEO Mark Zuckerberg e o chefe do Instagram, Adam Mosseri, participaram de depoimentos gravados em um julgamento no Novo México sobre a segurança de crianças nas plataformas da Meta.
- A procuradoria acusa a empresa de colocar lucro e engajamento acima da segurança de menor; a Meta nega e cita medidas como Contas de Adolescentes com proteções automáticas implementadas em 2024.
- Em 2020, a Meta estimou que 500 mil crianças recebiam comunicações sexualmente inadequadas por dia no Instagram, com grooming entre adultos e menores.
- Zuckerberg autorizou a criptografia de ponta a ponta no Messenger em 2023, apesar de alertas de grupos de proteção infantil; a Meta afirma que pode agir mediante denúncias de usuários, mesmo com criptografia.
- Em 2025, a empresa informou ter usado sinais para identificar milhões de contas potencialmente perigosas e evitar que se conectassem a adolescentes; internal findings apontam falhas em proteções e recomendações.
Mark Zuckerberg afirmou em depoimento gravado que comportamentos criminosos nas redes da empresa são inevitáveis quando se atende a bilhões de usuários. O executivo do Meta, junto com o chefe do Instagram, Adam Mosseri, foi apresentado em depoimentos no processo que corre no Novo México.
A fala de Zuckerberg ocorreu durante o julgamento, em que o estado acusa a empresa de colocar lucro e engajamento acima da segurança de crianças. Segundo Raul Torrez, procurador-geral do estado, as plataformas da Meta permitem que predadores ataquem menores.
A audiência, iniciada no começo de fevereiro, deve se estender por cerca de sete semanas. A Meta nega as acusações, destacando mudanças implementadas desde 2024, como contas de adolescentes com proteções padrões.
Contexto do processo
A defesa destaca que a Meta investe em detecção proativa e recursos de segurança, além de transparência sobre conteúdo violador removido e conteúdo não detectado. A empresa sustenta que nenhum sistema é perfeito, mas que trabalha para reduzir danos.
Procuradores mostraram que, em 2020, a Meta estimou que cerca de 500 mil crianças recebiam comunicação sexual inadequada diariamente no Instagram, incluindo grooming. A defesa atribui parte dessas interações a um conjunto de dados excessivamente amplo de então.
Relatórios apresentados indicaram que o algoritmo “People you may know” contribuía para a identificação de vítimas em grande parte dos casos. A audiência também ouviu que, em 2018, adultos ligados a contas desativadas por violar políticas retornaram à plataforma e repetiram comportamentos.
Medidas de proteção e criptografia
Zuckerberg autorizou, em 2023, a criptografia de ponta a ponta no Messenger, mesmo com avisos de grupos de proteção infantil. A criptografia impede leitura de mensagens por terceiros, mas a Meta afirma que pode atuar quando há denúncias de usuários.
Mosseri mencionou que a empresa desenvolveu tecnologia para detectar contas com comportamento suspeito e impedir interações com contas de jovens. Em 2025, sinais usados impediram que milhões de contas de Facebook e Instagram se conectassem a adolescentes.
Documentos internos citados no julgamento indicaram falhas na proteção de menores, com auditoria de 2022 apontando que algumas contas de menores ainda eram recomendadas a adultos. A Meta lançou contas para menores em 2024, com configurações mais restritivas.
Entre na conversa da comunidade