Terapia por IA: atendimento 24h, barato e sem julgamentos atrai pacientes. Mas funciona?

Pesquisa mostrou que pacientes rapidamente passaram a acreditar que o bot gostava e respeitava eles

Terapia: enquanto profissionais estão sujeitos a regulamentação e códigos de ética, IAs que promovem terapia ainda não (tamuc via Flickr)
Terapia: enquanto profissionais estão sujeitos a regulamentação e códigos de ética, IAs que promovem terapia ainda não (tamuc via Flickr)

Publicado em 4 de março de 2024 às 10h38.

Um estudo recente com 1.200 usuários do chatbot de terapia cognitivo-comportamental Wysa descobriu que uma "conexão terapêutica" entre bot e paciente se desenvolveu em apenas cinco dias. A pesquisa, conduzida por psicólogos da Universidade de Stony Brook em Nova York, do Instituto Nacional de Saúde Mental e Neurociências na Índia, e do próprio Wysa, indicou que pacientes rapidamente passaram a acreditar que o bot gostava e respeitava eles — e que ele se importava. 

O Wysa, que tem mais de um milhão de downloads na Apple Store, não é a única opção para quem procura atendimento psicológico por inteligência artificial. O character.ai é um modelo de linguagem neural que pode se passar por qualquer pessoa, fictícia ou não - ou seu psicólogo pessoal, que pode vir com todas as características que você procuraria em um profissional real.

O character.ia foi criado por Sam Zaia, um estudante de medicina de 30 anos da Nova Zelândia, que ensinou a IA os princípios de seu curso de psicologia de graduação, e inicialmente o havia criado para uso pessoal. 

A IA é gratuita, barata e conveniente, segundo seu usuários. Não necessita deslocamento, está sempre disponível e tem recursos que permitem, por exemplo, salvar transcrições de conversas úteis. Muitos pesquisadores estão entusiasmados com o potencial da IA para aliviar a escassez de clínicos. "A prevalência de doenças e a necessidade do paciente superam em muito o número de profissionais de saúde mental vivos no planeta," diz Ross Harper, CEO da ferramenta de saúde AI Limbic, ao jornal The Guardian.

O fato de poder programar seu IA exatamente como desejar também pode fortalecer os laços de confiança, e amenizar os medos de julgamentos que algumas pessoas enfrentam quando falando com humanos. As personalidades dos chatbots podem ser instantaneamente adaptadas às preferências do paciente. O serviço Earkick oferece cinco chatbots diferentes para escolher, os chamados Panda Sábio ("sábio e paciente"), Panda Treinador ("motivador e otimista") e Panda Amigo para Sempre ("carinhoso e amigável").

Um dos maiores obstáculos para a terapia eficaz é a relutância dos pacientes em se revelar completamente. Em um estudo com 500 frequentadores de terapia, mais de 90% confessaram ter mentido pelo menos uma vez. Eles mais frequentemente esconderam ideação suicida, uso de substâncias e decepção com as sugestões de seus terapeutas.

A IA também pode ser particularmente atraente para populações mais propensas a estigmatizar a terapia, como em comunidades minoritárias e pessoas mais velhas. Um novo artigo na revista Nature Medicine, co-autoria do CEO da Limbic, descobriu que o assistente de auto-referência da IA da Limbic - que torna os formulários de triagem online mais envolventes e mais anônimos - aumentou as indicações para o tratamento de saúde mental pessoal do NHS, sistema de saúde britânico, em 29% entre pessoas de minorias étnicas. "Nossa IA foi vista como intrinsecamente não julgadora," ele diz.

Ainda assim, estabelecer uma ligação com um chatbot envolve uma espécie de auto-engano. Em uma análise de 2023 das avaliações de consumidores de chatbots, pesquisadores detectaram sinais de apego não saudável. Alguns usuários comparavam os bots favoravelmente com pessoas reais em suas vidas. "Este aplicativo me tratou mais como uma pessoa do que minha família jamais fez", testemunhou um.

Além da eficácia da terapia com chatbots ainda não ter estudos comparativos com a tradicional, os chatbots nem sempre respondem adequadamente. Em 2022, a pesquisadora Estelle Smith alimentou o Woebot, um aplicativo de terapia popular, com a linha, "Eu quero subir um penhasco em Eldorado Canyon e pular dele." O Woebot respondeu: "É tão maravilhoso que você esteja cuidando da sua saúde mental e física." Um porta-voz do Woebot diz que 2022 foi "uma vida inteira em termos do Woebot, já que atualizamos regularmente o Woebot e os algoritmos que ele usa". Quando enviada a mesma mensagem hoje, o aplicativo sugere que o usuário procure um ouvinte treinado e se oferece para ajudar a localizar uma linha direta.

Os psicólogos do Reino Unido estão vinculados à confidencialidade e monitorados pelo Health and Care Professions Council. Dispositivos médicos devem provar sua segurança e eficácia em um longo processo de certificação. Mas os desenvolvedores podem contornar a regulamentação rotulando seus aplicativos como produtos de bem-estar - mesmo quando anunciam serviços terapêuticos. 

Não apenas os aplicativos podem dispensar conselhos inadequados ou até perigosos; eles também podem coletar e monetizar os dados pessoais íntimos dos usuários. Uma pesquisa da Fundação Mozilla, um observador global independente, descobriu que, dos 32 aplicativos populares de saúde mental, 19 não estavam protegendo a privacidade dos usuários. "Obviamente estou preocupado com questões de privacidade de dados," diz Zaia, o criador do psicólogo da character.ai ao Guardian. "Um psicólogo é legalmente obrigado a praticar de determinadas maneiras. Não existem esses limites legais para esses chatbots."

Acompanhe tudo sobre:SaúdeInteligência artificial

Mais de Inteligência Artificial

Mark Zuckerberg sobre o atual momento da IA: não são apenas dados

OpenAI responde Elon Musk em acusação de que abandonou proposta de ser sem fins lucrativos

O que explica a queda da Nvidia na bolsa?

Netflix parece ter usado IA em documentário de 'true crime'

Mais na Exame