- Estudo da University of Oxford alerta que chatbots como o ChatGPT não são confiáveis para diagnósticos médicos.
- A pesquisa aponta falhas graves, com informações incorretas ou imprecisas que podem levar a diagnósticos errados.
- Os autores dizem que o uso na área médica exige supervisão de profissionais qualificados e cautela extrema.
- Dependência excessiva de chatbots pode gerar falsa sensação de segurança e evitar busca por um especialista humano.
- A pesquisa defende regulamentação do uso de inteligência artificial na medicina, para atuar apenas como apoio e não substituto do diagnóstico clínico.
O estudo da Universidade de Oxford alerta para falhas graves do ChatGPT ao fornecer conselhos médicos. Segundo os pesquisadores, o chatbot pode gerar informações incorretas ou imprecisas que colocam a saúde pública em risco. A pesquisa enfatiza cautela.
Os autores destacam que, embora útil em várias tarefas, a aplicação médica do ChatGPT requer supervisão de profissionais qualificados. O uso indiscriminado pode levar a diagnósticos equivocados e tratamentos inadequados.
Adependência excessiva de chatbots para aconselhamento médico pode criar falsa sensação de segurança, levando pessoas a negligenciar a avaliação humana. A pesquisa aponta limitações na compreensão das complexidades do corpo e do paciente.
-regra de regulamentação é reforçada. Os autores defendem uso da IA apenas como apoio, não substituição ao diagnóstico clínico. O estudo completa destaca necessidade de diretrizes mais rigorosas.
Contexto e implicações
O estudo completo está disponível na plataforma da Universidade de Oxford. A publicação arrecada atenção sobre a importância de regulamentar o uso de IA na medicina e priorizar avaliações médicas presenciais.
Entre na conversa da comunidade