Em Alta NotíciasFutebolBrasil_POLÍTICA_economia

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

A saga do sósia do Grammarly

Grammarly desativa o recurso Expert Review após uso de nomes de especialistas sem consentimento, gerando ação judicial e críticas à IA

An illustration of a hand with extra fingers where a head should be
0:00
Carregando...
0:00
  • Grammarly, rebatizado como Superhuman, lançou em agosto de 2025 a função “Expert Review”, que prometia insights de profissionais renomados para orientar sugestões de escrita.
  • A ferramenta trazia sugestões assinadas por nomes de autores e especialistas, como Stephen King e Neil deGrasse Tyson, com um símbolo de checagem e disclaimer de que as referências não representavam afiliação ou endorsement.
  • Em março, relatos divulgaram que o recurso usava nomes de colaboradores falecidos para sugerir conteúdos, sem autorização dos citados; além disso, muitos links de fonte estavam quebrados ou levavam a conteúdos não relacionados.
  • Em resposta, a Grammarly/Superhuman abriu uma caixa de e-mails para que especialistas pudessem pedir opt-out, e, no dia seguinte, anunciou o desligamento do Expert Review, citando a necessidade de repensar o recurso.
  • A estreia do recurso gerou processo coletivo movido pela jornalista Julia Angwin e levantou debates sobre privacidade, uso de imagem e consentimento, com a empresa sinalizando a possibilidade de relançar o recurso no futuro de forma mais controlada.

O Grammarly, conhecido pela extensão que sugere melhorias de texto, passou por uma reformulação pública em outubro, anunciando a mudança para uma empresa de IA chamada Superhuman. A marca foi adotada após a aquisição do AI email platform Superhuman Mail em junho de 2025. O objetivo é manter o Grammarly dentro da estrutura da Superhuman, mas com a área de escrita se tornando um hub de agentes de IA.

Em agosto de 2025, Grammarly lançou discretamente um recurso chamado Expert Review. A função prometia insights de profissionais, autores e especialistas, exibidos ao lado do texto com um selo de verificação. Entre os nomes usados estavam figuras como Stephen King, Neil deGrasse Tyson e Carl Sagan. Um aviso discreto dizia que as referências não implicavam afiliação ou endosso.

A controvérsia apenas ganhou repercussão em março, com reportagens que indicaram o uso de nomes de professores falecidos para emitir feedback crítico. Testes do The Verge mostraram sugestões atribuídas a colegas da publicação, sem permissão prévia. Perguntas sobre consentimento ficaram sem resposta inicial.

Como funcionava, na prática, o Expert Review gerava sugestões sob o nome do especialista, com links de fontes que nem sempre estavam estáveis ou conduziam a conteúdos relacionados. Em alguns casos, os links apontavam para artigos fora do contexto de edição de textos.

A Grammarly prorrogou respostas ao público: abriu uma caixa de e-mails para que especialistas pudessem optar por sair do recurso. A partir do dia seguinte, a empresa decidiu desativar o Expert Review e reimaginar a ferramenta, dando maior controle aos especialistas sobre a forma como desejam ser representados.

Em comunicado posterior, a diretora de gestão de produtos da Superhuman explicou a desativação para tornar a ferramenta mais útil e com controle real sobre a representação dos especialistas. O CEO Shishir Mehrotra também reconheceu críticas de que a função poderia ter deturpado vozes de terceiros.

O episódio levou a uma ação judicial movida pela jornalista Julia Angwin, acusando violação de privacidade e direitos de publicidade, com alegações de uso indevido de imagens e nomes sem consentimento. O recurso foi removido, embora não haja confirmação de seu desligamento definitivo.

Espera-se um possível redesenho da função, conforme declarações de Mehrotra, que sinalizam interesse em um modelo no qual especialistas escolhem participar e definem como suas obras e identidades são representadas. A temporada atual mostra o potencial impacto da IA na relação entre criadores e plataformas.

O caso ilustra a reação do público a ferramentas geradas por IA e o debate sobre consentimento e remuneração de conteúdos de especialistas. A discussão continua, com várias fontes destacando o episódio como exemplo de extrativismo tecnológico.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais