(EvgeniyShkolenko/Getty Images)
Redatora
Publicado em 30 de março de 2026 às 17h05.
Última atualização em 30 de março de 2026 às 17h36.
O avanço dos chamados “companheiros de IA” — aplicativos que simulam amizades, relacionamentos e apoio emocional — abre uma nova fronteira para a inteligência artificial. Mas também acende um alerta. Um estudo da Universidade Aalto, na Finlândia, aponta que, embora esses sistemas ofereçam conforto no curto prazo, podem intensificar sentimentos de solidão ao longo do tempo.
Para um mercado que acelera a adoção da IA em escala, o tema revela um novo desafio de entender os impactos humanos da tecnologia.
O uso de amizades digitais cresce rapidamente, impulsionado por uma demanda real. O estudo Talk, Trust, and Trade-Offs: How and Why Teens Use AI Companions , do Common Sense Media, indica que até um terço dos adolescentes já utiliza assistentes virtuais.
Dados divulgados pela OpenAI indicam que quase um milhão de pessoas recorrem diariamente ao ChatGPT em busca de apoio emocional.
Se inteligência artificial ainda parece confusa, comece por esta aula de 15 minutos. Acesse aquiA oferta acompanha essa demanda. Plataformas como Replika e aplicativos similares se multiplicam nas lojas digitais, prometendo companhia, escuta ativa e ausência de julgamento — um diferencial frente às relações humanas tradicionais.
A pesquisa da Universidade Aalto identifica um paradoxo central. Ao mesmo tempo, esse padrão altera a percepção sobre relações reais. Interações humanas passam a ser vistas como mais difíceis, imprevisíveis e custosas emocionalmente.
O efeito, segundo o estudo, é gradual: com o tempo, usuários passam a evitar buscar apoio em pessoas reais.
Para analisar esse comportamento, os pesquisadores acompanharam a atividade de quase 2 mil usuários do Replika no Reddit, comparando publicações antes e depois do uso do aplicativo. Também foram conduzidas entrevistas aprofundadas com usuários ativos.
Os resultados indicam uma tendência preocupante. Embora as interações com IA aumentem discussões sobre relacionamentos, também crescem sinais de solidão, depressão e até pensamentos suicidas em comparação com grupos de controle.
Apesar dos alertas, o estudo não classifica os companheiros de IA como inerentemente prejudiciais. O impacto depende do contexto, da frequência de uso e das condições emocionais do usuário.
Ainda assim, os pesquisadores defendem uma abordagem mais cautelosa no desenvolvimento e adoção dessas tecnologias.
Outro ponto crítico é o poder concentrado nas empresas que desenvolvem essas plataformas. Ao controlar interações emocionais, essas companhias passam a influenciar comportamentos e dependência — com implicações inclusive comerciais