Em Alta NotíciasPolíticaFutebolAcontecimentos internacionaisConflitos

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Google AI Overviews expõe usuários a risco com informações de saúde enganosas

Investigação revela que resumos de IA do Google trazem informações de saúde imprecisas, colocando pacientes em risco e exigindo revisão

The Guardian uncovered several cases of inaccurate health information in Google’s AI Overviews.
0:00
Carregando...
0:00
  • A investigação do Guardian aponta que o Google AI Overviews, que aparecem no topo dos resultados de busca, pode apresentar informações de saúde falsas ou enganosas, colocando pessoas em risco.
  • Entre os exemplos citados estão orientação incorreta para pacientes com câncer de pâncreas sobre evitar alimentos com gordura alta, e informações imprecisas sobre testes de função hepática que poderiam levar a interpretações erradas.
  • Também houve casos de dados equivocados sobre sintomas e exames de câncer em mulheres, incluindo associação de um Papanicolau a câncer vaginal, o que pode atrasar diagnósticos.
  • Especialistas destacam que as respostas podem variar entre buscas e que informações incompletas ou fora de contexto podem causar danos, especialmente em saúde mental, com orientações potencialmente perigosas.
  • A Google respondeu que a maioria dos Overviews é factual e útil, que há melhorias de qualidade em curso e que, quando há interpretação incorreta, ações são tomadas conforme políticas internas.

Google AI Overviews coloca usuários em risco com informações de saúde imprecisas, aponta investigação do Guardian. A reportagem verifica casos em que resumos gerados por IA apresentaram dados incorretos no topo de resultados de busca.

A investigação identifica exemplos graves envolvendo câncer de pâncreas, funções hepáticas e sintomas de câncer vaginal. Especialistas afirmam que as informações podem levar pacientes a decisões incorretas ou atrasos no tratamento.

O Guardian analisou casos em que os resumos apontaram recomendações inadequadas, como orientar pacientes com câncer de pâncreas a evitar alimentos ricos em gordura, o que pode agravar a condição. Outros itens apresentaram números sem contexto.

Além disso, a divulgação de testes de função hepática mostrou informações inconsistentes, com interpretações de resultados que poderiam levar usuários a acreditarem estar saudáveis quando não estão. Médicos alertam para riscos de follow-up negligenciado.

A equipe de pesquisa também verificou informações sobre câncer de colo de útero e sintomas, com descrições incorretas de exames. Profissionais apontam que isso pode atrasar o reconhecimento de sinais relevantes.

Desse modo, organizações de saúde e pacientes envolvidos indicam que as IA, mesmo com potencial, podem gerar mensagens incorretas. O Guardian acompanhou respostas de entidades de saúde e de ONGs.

A Google informou que a maioria dos Overviews é precisa e que há melhorias contínuas na qualidade. A empresa ressalta que muitos exemplos compartilhados eram capturas de tela parciais e que os resumos costumam vir de fontes confiáveis.

A companhia afirmou que, quando há interpretação equivocada ou falta de contexto, ações são tomadas conforme as políticas da empresa. O objetivo é reduzir erros e aumentar a confiabilidade dos resumos de saúde.

Especialistas envolvidos na cobertura destacam a necessidade de validação humana, especialmente em temas sensíveis como saúde. Organizações de pacientes pedem maior transparência sobre fontes e critérios de verificação.

Fontes consultadas pelo Guardian incluem associações de câncer e entidades de apoio a pacientes, que defendem padrões rigorosos para conteúdo de saúde gerado por IA. A divulgação de informações incorretas pode impactar decisões clínicas.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais