- Pesquisadores liderados pelo MIT estão desenvolvendo IA médica mais colaborativa e hesitante em conclusões, para evitar decisões excessivamente confiantes.
- O framework inclui módulos que avaliam a própria certeza da IA; se a confiança superar as evidências, o sistema sinaliza a dúvida e pede testes ou histórico adicionais.
- O objetivo é transformar a IA de “oráculo” para co-piloto, ajudando médicos a conectar informações e decidir com mais autonomia.
- O estudo, liderado por Leo Celi, aparece no BMJ Health and Care Informatics, com coautoria de Sebastián Andrés Cajas Ordoñez, usando dados do projeto MIMIC e integrando-se a sistemas do Beth Israel Deaconess Medical Center.
O MIT lidera pesquisa para tornar a IA médica mais colaborativa e menos contundente. O objetivo é evitar que sistemas atuais orientem médicos de forma errônea ao apresentar confiança excessiva em diagnósticos.
Uma equipe internacional, liderada pelo MIT, desenvolve frameworks para IA que revelam incerteza. A busca é criar co-pilotos que sinalizem quando é necessário buscar mais informações antes de decisões clínicas.
O estudo, divulgado hoje na BMJ Health and Care Informatics, conta com Sebastián Andrés Cajas Ordoñez como autor principal. O grupo trabalha com dados da rede MIMIC, do Beth Israel Deaconess Medical Center.
O que mudou na prática
O projeto propõe módulos computacionais para IA existente, incluindo uma autoavaliação de certeza chamada Epistemic Virtue Score. Esse recurso ajusta a confiança conforme a complexidade de cada caso clínico.
Se a IA detectar que a confiança excede a evidência disponível, o sistema pode pausar, solicitar exames adicionais ou levantar a necessidade de consultoria especializada. A intenção é reduzir a influência excessiva da IA nas decisões.
Para Celi, o conceito é transformar IA de oráculo para co-piloto, ampliando a capacidade de conectividade entre dados e avaliação humana. O pesquisador atua no MIT, no Beth Israel Deaconess e no Harvard Medical School.
Implementação e impacto
A equipe já desenvolveu bases de dados amplas, como a MIMIC, para treinar modelos de IA. O próximo passo envolve aplicar o framework em IA usadas para analisar imagens de raio-X e indicar tratamentos no pronto atendimento.
O estudo também aborda viés e inclusão, ressaltando que muitos modelos são treinados com dados públicos dos EUA e podem excluir perfis de pacientes. Diferentes perspectivas são consideradas para reduzir impactos discriminatórios.
Colaboração e financiamento
Os pesquisadores defendem que IA médica deve ser criada com a participação de profissionais de saúde, enfermos e comunidades. Workshops do MIT Critical Data envolvem designers, médicos, assistentes sociais e pacientes para revisar conjuntos de dados.
O financiamento do estudo veio do Boston-Korea Innovative Research Project, via Korea Health Industry Development Institute. A equipe aponta que avanços técnicos devem andar junto de práticas mais transparentes e inclusivas.
Entre na conversa da comunidade