Em Alta NotíciasFutebolBrasileconomiaPolítica

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

TikTok e Meta teriam ignorado segurança para engajamento, dizem ex-funcionários

BBC revela que TikTok e Meta teriam priorizado engajamento, abrindo espaço a conteúdo nocivo para evitar regulações e manter relações políticas

Denunciantes deram uma visão de dentro da corrida entre algoritmos que se seguiu ao crescimento explosivo do TikTok — Foto: BBC/Getty Images
0:00
Carregando...
0:00
  • A BBC ouviu denunciantes e ex-funcionários de Meta (Facebook e Instagram) e TikTok dizendo que as plataformas permitiram mais conteúdo nocivo nos feeds para ganhar engajamento, mesmo com pesquisas internas sobre o impacto da indignação.
  • Segundo um engenheiro da Meta, a empresa orientou a permitir conteúdo “limítrofe” para competir com o TikTok, citando queda nas ações como motivação para essa prática.
  • Um funcionário do TikTok teve acesso a painéis internos que mostravam prioridade a casos envolvendo políticos em detrimento de denúncias de conteúdos nocivos que afetam menores.
  • Usuários jovens relataram que ferramentas para indicar conteúdos problemáticos não funcionam e que houve aumento de conteúdos de violência, bullying e discurso de ódio, mesmo após atualizações de moderação.
  • A TikTok negou que conteúdo político tenha prioridade sobre a segurança dos jovens, e afirmou ter recursos de segurança para adolescentes, além de investir em tecnologia para impedir conteúdos nocivos e oferecer personalização de experiência.

O TikTok e a Meta teriam tolerado conteúdo nocivo em feeds para manter a disputa por engajamento, segundo relatos de ex-funcionários ou pessoas ligadas às empresas. A BBC ouviu mais de uma dúzia de denunciantes sobre decisões que favoreceram a exposição de violência, chantagem sexual e terrorismo.

Entre as alegações, há a afirmação de que a Meta orientou a permitir mais conteúdo “limítrofe” no Instagram Reels para competir com o TikTok, mesmo com sinalizações de risco. A ideia era sustentar o crescimento das ações da companhia, segundo relatos de um engenheiro da empresa.

Além disso, um funcionário do TikTok forneceu à BBC acesso a painéis internos que mostraram prioridades dadas a casos envolvendo políticos em detrimento de denúncias de conteúdo nocivo envolvendo crianças. O objetivo seria manter relação com figuras políticas para evitar regulações.

Os relatos também indicam que o funcionamento dos algoritmos é pouco transparente. Engenheiros teriam dependido de equipes de segurança para frear conteúdos nocivos, já que o próprio aprendizado profundo não seria totalmente controlável pelos responsáveis pelas plataformas.

A BBC teve acesso a relatos de que o TikTok atualizava o algoritmo com frequência, buscando ampliar alcance, o que resultaria em maior quantidade de publicações problemáticas após o usuário já ter assistido a vídeos. Conteúdos limítrofe seriam aqueles que não violam regras, mas são prejudiciais.

Adolescentes afirmaram que ferramentas de indicação de conteúdo problemático não funcionam, com recomendações de violência e discurso de ódio persistentes nas redes. Em alguns casos, jovens relataram adoção de visões extremistas após o consumo repetido de vídeos.

Em entrevista a ex-funcionário conhecido como Nick, a BBC descreveu cortes e reorganizações de equipes de moderação, incluindo substituição por inteligência artificial, o que teria reduzido a capacidade de prevenir danos a usuários, especialmente menores.

Ocorrências citadas mostram que casos envolvendo jovens às vezes recebiam menor prioridade do que publicações políticas de menor risco, segundo os relatos. A BBC destacou exemplos de casos de cyberbullying, identidades falsas e conteúdo sexual de menores não priorizados.

Em resposta, o TikTok afirmou que não há prioridade de conteúdo político sobre a segurança de jovens e que as acusações distorcem o funcionamento de seus sistemas de moderação. A empresa também ressaltou recursos de segurança criados para adolescentes.

A plataforma informou ainda que contas de adolescentes contam com mais de 50 recursos automáticos de segurança, além de investimentos em tecnologia para reduzir a exibição de conteúdos nocivos e permitir personalização da experiência.

Ao longo do período relatado, a BBC manteve contato com o que chamou de Nick, integrante da equipe de confiança e segurança do TikTok, que descreveu o volume de casos como alto demais para a manutenção de padrões de segurança ideais.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais