- A investigação do Guardian aponta que o Google AI Overviews, que aparecem no topo dos resultados de busca, pode apresentar informações de saúde falsas ou enganosas, colocando pessoas em risco.
- Entre os exemplos citados estão orientação incorreta para pacientes com câncer de pâncreas sobre evitar alimentos com gordura alta, e informações imprecisas sobre testes de função hepática que poderiam levar a interpretações erradas.
- Também houve casos de dados equivocados sobre sintomas e exames de câncer em mulheres, incluindo associação de um Papanicolau a câncer vaginal, o que pode atrasar diagnósticos.
- Especialistas destacam que as respostas podem variar entre buscas e que informações incompletas ou fora de contexto podem causar danos, especialmente em saúde mental, com orientações potencialmente perigosas.
- A Google respondeu que a maioria dos Overviews é factual e útil, que há melhorias de qualidade em curso e que, quando há interpretação incorreta, ações são tomadas conforme políticas internas.
Google AI Overviews coloca usuários em risco com informações de saúde imprecisas, aponta investigação do Guardian. A reportagem verifica casos em que resumos gerados por IA apresentaram dados incorretos no topo de resultados de busca.
A investigação identifica exemplos graves envolvendo câncer de pâncreas, funções hepáticas e sintomas de câncer vaginal. Especialistas afirmam que as informações podem levar pacientes a decisões incorretas ou atrasos no tratamento.
O Guardian analisou casos em que os resumos apontaram recomendações inadequadas, como orientar pacientes com câncer de pâncreas a evitar alimentos ricos em gordura, o que pode agravar a condição. Outros itens apresentaram números sem contexto.
Além disso, a divulgação de testes de função hepática mostrou informações inconsistentes, com interpretações de resultados que poderiam levar usuários a acreditarem estar saudáveis quando não estão. Médicos alertam para riscos de follow-up negligenciado.
A equipe de pesquisa também verificou informações sobre câncer de colo de útero e sintomas, com descrições incorretas de exames. Profissionais apontam que isso pode atrasar o reconhecimento de sinais relevantes.
Desse modo, organizações de saúde e pacientes envolvidos indicam que as IA, mesmo com potencial, podem gerar mensagens incorretas. O Guardian acompanhou respostas de entidades de saúde e de ONGs.
A Google informou que a maioria dos Overviews é precisa e que há melhorias contínuas na qualidade. A empresa ressalta que muitos exemplos compartilhados eram capturas de tela parciais e que os resumos costumam vir de fontes confiáveis.
A companhia afirmou que, quando há interpretação equivocada ou falta de contexto, ações são tomadas conforme as políticas da empresa. O objetivo é reduzir erros e aumentar a confiabilidade dos resumos de saúde.
Especialistas envolvidos na cobertura destacam a necessidade de validação humana, especialmente em temas sensíveis como saúde. Organizações de pacientes pedem maior transparência sobre fontes e critérios de verificação.
Fontes consultadas pelo Guardian incluem associações de câncer e entidades de apoio a pacientes, que defendem padrões rigorosos para conteúdo de saúde gerado por IA. A divulgação de informações incorretas pode impactar decisões clínicas.
Entre na conversa da comunidade