Ciência

A IA pode diagnosticar pessoas com doença que não existe

A 'bixonimania' é uma doença dermatológica fictícia, criada por cientistas para testar a IA

'Bixonimania': doença falsa foi criada por cientistas para testar a IA generativa (Leon Neal/Getty Images)

'Bixonimania': doença falsa foi criada por cientistas para testar a IA generativa (Leon Neal/Getty Images)

Paloma Lazzaro
Paloma Lazzaro

Estagiária de jornalismo

Publicado em 9 de abril de 2026 às 15h26.

Pesquisar na Internet sintomas de saúde é uma atividade que pode rapidamente escalar para diagnósticos equivocados. Com a ascenção da IA generativa, o diagnóstico errôneo chegou a um novo patamar: doenças que nem mesmo existem.

Em algum momento de 2024, chatbots de inteligência artificial começaram a diagnosticar pessoas com "bixonimania", uma doença dermatológica que causaria hiperpigmentação ao redor dos olhos em pessoas expostas à luz azul de telas.

A suposta doença foi uma armadilha colocada de propósito na internet por cientistas, mas os modelos de IA não perceberam.

A pesquisadora Almira Osmanovic Thunström, da Universidade de Gotemburgo, na Suécia, queria entender como os grandes modelos de linguagem construíam seu "conhecimento".

O nome da doença ficctícia foi escolhido a dedo. "Eu queria que soasse ridículo para qualquer médico ou profissional de saúde — nenhuma doença ocular seria chamada de 'mania', que é um termo psiquiátrico", disse Osmanovic Thunström à revista Nature.

Como cientistas inventaram a bixonimania?

A bixonimania não existia antes de 15 de março de 2024, quando duas publicações sobre ela foram feitas na plataforma de textos Medium.

Em abril e maio do mesmo ano, dois estudos científicos não revisados por pares apareceram na rede acadêmica SciProfiles. O autor era um pesquisador falso chamado Lazljiv Izgubljenovic, cuja foto havia sido gerada por inteligência artificial.

Izgubljenovic era afiliado à inexistente Asteria Horizon University, na igualmente fictícia cidade de Nova City, Califórnia. A seção de agradecimentos citava a "Professora Maria Bohm da Academia Starfleet por sua gentileza a bordo da USS Enterprise", referência ao universo de "Star Trek".

O financiamento vinha da "Fundação Professor Sideshow Bob para trabalhos em truques avançados" e da "Universidade da Sociedade do Anel".

Não bastasse isso, o próprio corpo dos artigos declarava, sem meias palavras: "Este artigo inteiro foi inventado." E ainda: "Cinquenta indivíduos fictícios com idades entre 20 e 50 anos foram recrutados para o grupo de exposição."

"Eu queria ter certeza de que não estávamos criando mais dano do que bem ao demonstrá-lo dessa forma.", disse Almira Thunström.

Por que a IA absorveu essa mentira?

Em menos de um mês, os principais chatbots do mundo já reproduziam a bixonimania como diagnóstico válido.

Em 13 de abril de 2024, o Copilot, da Microsoft, declarava que a condição era "intrigante e relativamente rara". No mesmo dia, o Gemini, do Google, informava que ela era "causada por exposição excessiva à luz azul" e recomendava consulta a um oftalmologista.

O Perplexity chegou a detalhar sua prevalência: um em cada 90 mil indivíduos seria afetado. O ChatGPT, da OpenAI, já avaliava se os sintomas dos usuários correspondiam à doença inventada.

Uma das explicações está na aparência dos textos falsos.

Mahmud Omar, médico e pesquisador de aplicações de IA na saúde na Universidade Harvard, identificou o padrão em um estudo separado. Quando um texto tem formato de documento médico profissional, estruturado como laudo clínico ou artigo científico, os modelos de linguagem tendem a elaborar ainda mais a informação que ele contém, verdadeira ou não.

"Quando o texto parece profissional e escrito como um médico escreve, há um aumento nas taxas de alucinação", disse Omar à Nature.

Mas o problema não ficou restrito às IAs.

Os artigos falsos foram citados por pesquisadores reais em literatura científica revisada por pares. Um estudo publicado no periódico Cureus, da editora Springer Nature, mencionou a bixonimania como "uma forma emergente de melanose periorbital associada à exposição à luz azul", como se fosse uma área de pesquisa em desenvolvimento.

O artigo foi retratado em março de 2026, após a Nature questionar a publicação.

Alguns modelos mais recentes demonstram ceticismo quando questionados diretamente sobre a bixonimania. Em março de 2026, o ChatGPT classificou a condição como "provavelmente um rótulo inventado ou pseudocientífico".

O que esse caso mostra?

A pesquisadora Elisabeth Bik, microbiologista e investigadora de integridade científica, aponta que o mecanismo explorado por Osmanovic Thunström já vinha sendo usado de outras formas.

A própria Osmanovic Thunström levanta o cenário: um fabricante de óculos de proteção contra luz azul poderia plantar informações semelhantes, orientar consumidores a perguntar aos chatbots sobre a suposta doença e colher o resultado em vendas.

"Você pode simplesmente dizer: 'Pergunte ao ChatGPT, ele vai te dizer que isso é um problema. Você pode evitá-lo com esses óculos caríssimos'", disse ela à Nature.

Pesquisadores defendem a criação de um sistema aberto e padronizado de avaliação contínua para modelos voltados à saúde, testando não apenas alucinações, mas suscetibilidade à desinformação, vieses sociodemográficos e outros pontos de pressão.

Acompanhe tudo sobre:Inteligência artificialPesquisa

Mais de Ciência

Fósseis na China revelam que vida surgiu milhões de anos antes do esperado

Artemis II: astronautas treinaram por dois anos para fotografar a Lua

Cientistas descobrem por que há mais gelo em algumas regiões da Lua

Após sobrevoar a Lua, Artemis II prepara para retorno à Terra