IAs: Estudo avaliou respostas da IA em cenários clínicos e identificou erros em casos graves (Getty Images)
Redação Exame
Publicado em 7 de março de 2026 às 15h46.
Um estudo recente levantou preocupações sobre o uso de inteligência artificial para orientar pacientes em situações de emergência médica. A pesquisa, feita pela Escola de Medicina Icahn no Monte Sinai, em Nova York, e publicado na revista Nature, analisou o desempenho do ChatGPT em cenários clínicos simulados e concluiu que a ferramenta ainda apresenta limitações importantes quando o assunto é triagem de urgências.
Os pesquisadores testaram dezenas de casos clínicos, que iam desde sintomas leves até situações potencialmente fatais. Ao todo, foram avaliadas cerca de 960 interações entre pacientes fictícios e a inteligência artificial com o objetivo de comparar as respostas da tecnologia com as recomendações de médicos especialistas.
Os resultados indicam que a ferramenta deixou de recomendar atendimento de emergência em mais da metade dos casos realmente graves. Em muitos cenários, a IA sugeriu aguardar ou buscar atendimento de rotina, quando o correto seria procurar ajuda imediata em um hospital.
Segundo os autores, esse tipo de erro pode gerar uma falsa sensação de segurança nos usuários. Isso ocorre porque o sistema tende a acertar casos de gravidade intermediária com frequência, o que aumenta a confiança das pessoas. O problema é que as falhas aparecem justamente nos episódios mais críticos, quando a rapidez no atendimento pode fazer diferença para salvar vidas.
Outro ponto observado no estudo foi a presença de possíveis vieses nas respostas. Em alguns testes, pequenas mudanças nas informações fornecidas, como comentários de familiares ou características demográficas do paciente, alteraram as recomendações da inteligência artificial. A pesquisa também apontou indícios de viés racial em determinadas orientações médicas.
Além disso, os pesquisadores destacam que a tecnologia ainda apresenta inconsistências na identificação de situações delicadas, como crises de saúde mental. Em alguns casos analisados, mensagens de alerta ou orientações de segurança apareceram de forma irregular ou desapareceram quando novas informações foram incluídas no cenário clínico.
Diante dos resultados, os pesquisadores defendem cautela no uso de ferramentas de inteligência artificial para decisões médicas urgentes. Embora a tecnologia tenha potencial para auxiliar na orientação de pacientes e profissionais de saúde, os pesquisadores afirmam que ela ainda precisa de melhorias, testes independentes e maior transparência antes de ser considerada segura para situações de emergência.