Inteligência Artificial

Uso de IA para diagnóstico médico cresce e acende alerta sobre riscos

Milhões de pacientes recorrem a chatbots como o ChatGPT para interpretar exames, mas precisão limitada e falta de proteção legal preocupam especialistas

Prática inclui o compartilhamento de exames laboratoriais, laudos, imagens e históricos clínicos (Krongkaew/Getty Images)

Prática inclui o compartilhamento de exames laboratoriais, laudos, imagens e históricos clínicos (Krongkaew/Getty Images)

Publicado em 4 de dezembro de 2025 às 09h32.

Cada vez mais pacientes estão adicionando registros médicos completos em sistemas de inteligência artificial como o ChatGPT para obter respostas imediatas sobre sua saúde. Essa prática, que inclui o compartilhamento de exames laboratoriais, laudos, imagens e históricos clínicos, vem crescendo à medida que as pessoas buscam entender sintomas e diagnósticos de forma rápida e autônoma.

Casos recentes ilustram o potencial – e os riscos – desse uso, que já é feito por milhões de pessoas ao redor do mundo. Em um episódio, um paciente conseguiu identificar um bloqueio arterial grave após, com orientação do ChatGPT, insistir por um exame mais aprofundado. Em outro, no entanto, uma jovem recebeu um alarme falso de possível tumor, também a partir da análise feita pela IA.

Especialistas alertam que, embora esses sistemas possam oferecer respostas convincentes, a precisão dos diagnósticos feitos pela IA ainda é limitada, com taxas de erro consideráveis em usos sem supervisão médica. Estudos apontam que chatbots acertam menos da metade dos diagnósticos quando operados por pessoas sem formação técnica.

Além dos riscos clínicos, a prática levanta sérias preocupações de privacidade. Os dados de saúde enviados a sistemas como o ChatGPT não são protegidos por leis como a HIPAA — norma federal dos EUA que regula a privacidade de informações médicas —, já que empresas de IA não estão sujeitas a essa legislação.

Isso significa que, ao usar essas ferramentas, os usuários podem estar abrindo mão de proteções legais e permitindo que suas informações alimentem novos modelos de IA.

Privacidade ainda depende da política das empresas

Segundo especialistas em proteção de dados, mesmo com salvaguardas implementadas por empresas como a OpenAI para aumentar a privacidade dos usuários, ainda é possível que informações confidenciais sejam reutilizadas ou vazem devido a falhas técnicas.

Embora usuários possam optar por não permitir o uso de seus dados para treinar futuros modelos, poucos fazem isso. E, mesmo com nomes ocultados ou metadados removidos, informações clínicas detalhadas podem ser rastreáveis.

Diante desse cenário, médicos e pesquisadores recomendam cautela. A IA pode auxiliar no entendimento de resultados, mas não substitui a avaliação clínica. Como alerta a professora Karni Chagal-Feferkorn em entrevista ao New York Times: "não tenha medo da tecnologia, mas esteja plenamente ciente dos riscos".

Acompanhe tudo sobre:Inteligência artificialMédicosPrivacidadeChatGPTChatbotOpenAI

Mais de Inteligência Artificial

DeepMind troca ambição de decifrar redes neurais por abordagem pragmática na IA

OpenAI compra a startup polonesa Neptune, de aprimoramento de IAs

OpenAI distribui US$ 40,5 milhões a 208 entidades filantrópica

Google testa fusão de ferramentas para aproximar buscas da experiência do ChatGPT