- A BBC ouviu denunciantes e ex-funcionários de Meta (Facebook e Instagram) e TikTok dizendo que as plataformas permitiram mais conteúdo nocivo nos feeds para ganhar engajamento, mesmo com pesquisas internas sobre o impacto da indignação.
- Segundo um engenheiro da Meta, a empresa orientou a permitir conteúdo “limítrofe” para competir com o TikTok, citando queda nas ações como motivação para essa prática.
- Um funcionário do TikTok teve acesso a painéis internos que mostravam prioridade a casos envolvendo políticos em detrimento de denúncias de conteúdos nocivos que afetam menores.
- Usuários jovens relataram que ferramentas para indicar conteúdos problemáticos não funcionam e que houve aumento de conteúdos de violência, bullying e discurso de ódio, mesmo após atualizações de moderação.
- A TikTok negou que conteúdo político tenha prioridade sobre a segurança dos jovens, e afirmou ter recursos de segurança para adolescentes, além de investir em tecnologia para impedir conteúdos nocivos e oferecer personalização de experiência.
O TikTok e a Meta teriam tolerado conteúdo nocivo em feeds para manter a disputa por engajamento, segundo relatos de ex-funcionários ou pessoas ligadas às empresas. A BBC ouviu mais de uma dúzia de denunciantes sobre decisões que favoreceram a exposição de violência, chantagem sexual e terrorismo.
Entre as alegações, há a afirmação de que a Meta orientou a permitir mais conteúdo “limítrofe” no Instagram Reels para competir com o TikTok, mesmo com sinalizações de risco. A ideia era sustentar o crescimento das ações da companhia, segundo relatos de um engenheiro da empresa.
Além disso, um funcionário do TikTok forneceu à BBC acesso a painéis internos que mostraram prioridades dadas a casos envolvendo políticos em detrimento de denúncias de conteúdo nocivo envolvendo crianças. O objetivo seria manter relação com figuras políticas para evitar regulações.
Os relatos também indicam que o funcionamento dos algoritmos é pouco transparente. Engenheiros teriam dependido de equipes de segurança para frear conteúdos nocivos, já que o próprio aprendizado profundo não seria totalmente controlável pelos responsáveis pelas plataformas.
A BBC teve acesso a relatos de que o TikTok atualizava o algoritmo com frequência, buscando ampliar alcance, o que resultaria em maior quantidade de publicações problemáticas após o usuário já ter assistido a vídeos. Conteúdos limítrofe seriam aqueles que não violam regras, mas são prejudiciais.
Adolescentes afirmaram que ferramentas de indicação de conteúdo problemático não funcionam, com recomendações de violência e discurso de ódio persistentes nas redes. Em alguns casos, jovens relataram adoção de visões extremistas após o consumo repetido de vídeos.
Em entrevista a ex-funcionário conhecido como Nick, a BBC descreveu cortes e reorganizações de equipes de moderação, incluindo substituição por inteligência artificial, o que teria reduzido a capacidade de prevenir danos a usuários, especialmente menores.
Ocorrências citadas mostram que casos envolvendo jovens às vezes recebiam menor prioridade do que publicações políticas de menor risco, segundo os relatos. A BBC destacou exemplos de casos de cyberbullying, identidades falsas e conteúdo sexual de menores não priorizados.
Em resposta, o TikTok afirmou que não há prioridade de conteúdo político sobre a segurança de jovens e que as acusações distorcem o funcionamento de seus sistemas de moderação. A empresa também ressaltou recursos de segurança criados para adolescentes.
A plataforma informou ainda que contas de adolescentes contam com mais de 50 recursos automáticos de segurança, além de investimentos em tecnologia para reduzir a exibição de conteúdos nocivos e permitir personalização da experiência.
Ao longo do período relatado, a BBC manteve contato com o que chamou de Nick, integrante da equipe de confiança e segurança do TikTok, que descreveu o volume de casos como alto demais para a manutenção de padrões de segurança ideais.
Entre na conversa da comunidade