Em Alta NotíciasFutebolBrasileconomiaEsportes

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Como criar IA humilde

Equipe liderada pelo MIT propõe IA médica mais colaborativa, capaz de indicar incerteza e sugerir testes adicionais para evitar decisões precipitadas

A thinking robot with a “certainty” meter overhead.
0:00
Carregando...
0:00
  • Pesquisadores liderados pelo MIT estão desenvolvendo IA médica mais colaborativa e hesitante em conclusões, para evitar decisões excessivamente confiantes.
  • O framework inclui módulos que avaliam a própria certeza da IA; se a confiança superar as evidências, o sistema sinaliza a dúvida e pede testes ou histórico adicionais.
  • O objetivo é transformar a IA de “oráculo” para co-piloto, ajudando médicos a conectar informações e decidir com mais autonomia.
  • O estudo, liderado por Leo Celi, aparece no BMJ Health and Care Informatics, com coautoria de Sebastián Andrés Cajas Ordoñez, usando dados do projeto MIMIC e integrando-se a sistemas do Beth Israel Deaconess Medical Center.

O MIT lidera pesquisa para tornar a IA médica mais colaborativa e menos contundente. O objetivo é evitar que sistemas atuais orientem médicos de forma errônea ao apresentar confiança excessiva em diagnósticos.

Uma equipe internacional, liderada pelo MIT, desenvolve frameworks para IA que revelam incerteza. A busca é criar co-pilotos que sinalizem quando é necessário buscar mais informações antes de decisões clínicas.

O estudo, divulgado hoje na BMJ Health and Care Informatics, conta com Sebastián Andrés Cajas Ordoñez como autor principal. O grupo trabalha com dados da rede MIMIC, do Beth Israel Deaconess Medical Center.

O que mudou na prática

O projeto propõe módulos computacionais para IA existente, incluindo uma autoavaliação de certeza chamada Epistemic Virtue Score. Esse recurso ajusta a confiança conforme a complexidade de cada caso clínico.

Se a IA detectar que a confiança excede a evidência disponível, o sistema pode pausar, solicitar exames adicionais ou levantar a necessidade de consultoria especializada. A intenção é reduzir a influência excessiva da IA nas decisões.

Para Celi, o conceito é transformar IA de oráculo para co-piloto, ampliando a capacidade de conectividade entre dados e avaliação humana. O pesquisador atua no MIT, no Beth Israel Deaconess e no Harvard Medical School.

Implementação e impacto

A equipe já desenvolveu bases de dados amplas, como a MIMIC, para treinar modelos de IA. O próximo passo envolve aplicar o framework em IA usadas para analisar imagens de raio-X e indicar tratamentos no pronto atendimento.

O estudo também aborda viés e inclusão, ressaltando que muitos modelos são treinados com dados públicos dos EUA e podem excluir perfis de pacientes. Diferentes perspectivas são consideradas para reduzir impactos discriminatórios.

Colaboração e financiamento

Os pesquisadores defendem que IA médica deve ser criada com a participação de profissionais de saúde, enfermos e comunidades. Workshops do MIT Critical Data envolvem designers, médicos, assistentes sociais e pacientes para revisar conjuntos de dados.

O financiamento do estudo veio do Boston-Korea Innovative Research Project, via Korea Health Industry Development Institute. A equipe aponta que avanços técnicos devem andar junto de práticas mais transparentes e inclusivas.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais