Inteligência artificial: uso eficaz depende mais da confiança e linguagem clara do que da tecnologia em si. (westend61/Getty Images)
Colunista
Publicado em 8 de dezembro de 2025 às 10h30.
A inteligência artificial tem evoluído em velocidade impressionante. Modelos cada vez mais robustos e acessíveis fazem parte das iniciativas de transformação digital das empresas. Porém, muitas organizações ainda enfrentam dificuldade para transformar potencial em resultados concretos.
A empresa que lidero vive diariamente esse desafio a partir de duas realidades complementares. De um lado, operamos grandes esteiras de BPO, que processam milhares de fluxos e validações todos os dias. De outro, desenvolvemos o Zai, nossa plataforma de IA utilizada de forma autônoma por mais de 350 mil usuários no Brasil para automatizar processos de negócios.
Ao observar esse movimento por dentro, ficou claro para mim que parte da lacuna entre promessa e entrega não está na tecnologia. Está nas pessoas, nos processos e na forma como as organizações conduzem o processo de mudança.
Nos últimos meses, conduzimos uma série de avaliações internas com dezenas de entrevistas diretas e análises de campo. A partir dessas conversas, emergiram padrões que ajudam a explicar por que a IA ainda encontra resistência, mesmo em ambientes onde faz total sentido utilizá-la.
Em uma das entrevistas realizadas com analistas de uma operação de BPO, ouvimos uma frase que resume um sentimento comum: “Quando a automação funciona, ela acelera muito. Mas, quando traz alguma inconsistência, preciso revisar o trabalho. Aí o manual acaba sendo mais rápido.”
A fala não expressa rejeição à tecnologia. Todos reconhecem os ganhos de produtividade que ela oferece. O ponto central é que, em operações que exigem alto grau de assertividade, até pequenos desvios podem abalar a percepção de efetividade. Nessas situações, o desafio não se resolve apenas com ajustes técnicos. Ele exige compreender, em detalhes, como o usuário utiliza a ferramenta, acelerar ciclos de melhoria contínua e reforçar a comunicação sobre correções e evoluções.
Também adotamos um movimento simples, mas eficaz: convidar usuários-chave para atuarem como multiplicadores. Quando esses profissionais adotam e recomendam a tecnologia, isso transmite segurança ao restante da operação. Pequenos gestos de confiança, vindos das pessoas certas, costumam ter impacto maior do que qualquer explicação técnica.
Termos técnicos podem afastar as pessoas. Quando a explicação é carregada de jargões, a tecnologia passa a parecer distante. Lembro de uma conversa recente com um CEO que afirmou: “Agentes de IA são para as outras empresas, não para a minha.” Essa percepção não nasce da tecnologia em si, mas da forma como ela é apresentada.
A pesquisa que fizemos com nosso time de implementação trouxe luz sobre isso. Avaliando como os recursos de IA são apresentados durante a implantação, ouvimos relatos que expõem a importância da linguagem. Um consultor comentou: “Eu sei usar todos os recursos, mas ainda não tenho segurança de mostrar os mais avançados. Depende muito do perfil do cliente.” Outro acrescentou: “Os agentes são excelentes, mas às vezes eu só mostro quando o cliente pergunta. Não quero dar a impressão de que é algo complexo demais.”
Esses relatos trazem luz à importância da tradução de termos técnicos e de negócios. Esse fenômeno é bem conhecido no mundo de tecnologia. Soluções tecnológicas podem ser tecnicamente extraordinárias, mas, sem clareza de impacto, o valor não se sustenta. Quando o recurso não é comunicado de forma natural, contextualizada e progressiva, ele parece mais sofisticado, distante e difícil de usar do que realmente é.
Ao longo desse processo, aprendi que é muito fácil superestimar o papel da tecnologia e subestimar tudo aquilo que acontece ao redor dela. A narrativa dominante costuma sugerir que modelos mais avançados, dados mais estruturados ou integrações mais sofisticadas resolvem a maior parte dos problemas. Mas, quando se observa a implementação de IA dentro de operações reais, torna-se evidente que a tecnologia é apenas uma parte do quebra-cabeça.
São as pessoas que utilizam a tecnologia todos os dias, e é a experiência delas (e não a das lideranças ou dos times técnicos) que define se a sua utilização vai prosperar ou ser abandonada.
Por isso, uma das minhas principais lições foi a necessidade de nos aproximarmos muito mais de quem realmente executa o processo. É ele quem sente o impacto imediato do que funciona e do que ainda precisa melhorar. É ele quem define se a tecnologia vira hábito ou exceção.
Essa aproximação pede cuidado com a linguagem. O “tecniquês” afasta, cria ruído e faz com que soluções simples pareçam complexas. Explicar IA usando a linguagem simples, da maneira mais direta possível, reduz ansiedade e acelera a adoção. Além disso, é quase sempre mais eficaz mostrar um caso real do que detalhar um algoritmo.
Outro aprendizado tem a ver com incentivos. Para que a automação ganhe tração, é preciso integrar sua utilização às rotinas, às métricas e aos rituais das equipes. As pessoas raramente aderem a algo novo apenas porque “deveriam”. Elas aderem quando percebem utilidade prática, quando há reconhecimento e quando veem pares confiáveis adotando a mesma solução. Por isso, identificar aliados nos ajudou muito. Esses embaixadores ajudam a construir confiança de dentro para fora, algo que nenhuma comunicação institucional consegue replicar.
Por fim, percebi que confiança não surge de promessas, mas de resultados acompanhados de perto. Um dos meus diretores tem uma frase que gosto muito: “People respect what you inspect.” ("As pessoas respeitam o que você verifica”). A organização precisa acompanhar indicadores, corrigir rapidamente o que não funciona, comunicar o que evoluiu e celebrar as pequenas conquistas. É nesse processo contínuo, quase artesanal, que a cultura de adoção se forma.
Em resumo, implementar IA é, antes de tudo, implementar mudança. A tecnologia já está pronta; nós é que precisamos criar as condições para que ela funcione na rotina das pessoas.