(Getty Images/Getty Images)
Redatora
Publicado em 9 de janeiro de 2026 às 14h58.
A inteligência artificial generativa, como o ChatGPT, já está integrada ao dia a dia de muitos líderes e profissionais. De e-mails e relatórios a brainstormings e apresentações, ela agiliza rotinas, poupa tempo e até melhora a comunicação.
Mas o uso apressado e sem critério pode sabotar a credibilidade de quem lidera, gerar erros graves e comprometer a performance de toda a equipe.
Aytekin Tank, CEO da Jotform, alerta que alguns deslizes já comuns entre líderes podem corroer a confiança dos times e da empresa no mercado. Desde confiar em informações falsas até copiar e colar respostas prontas sem revisão, esses erros indicam dependência excessiva de IA, e falta de julgamento estratégico.
Para quem busca execução de alta performance, é preciso mais do que dominar ferramentas, mas também usar a tecnologia com inteligência, responsabilidade e intenção. As informações foram retiradas de Forbes.
Uma newsletter enviada com informações falsas geradas por IA, um parecer jurídico com referências inexistentes ou um material de aula com prompts de ChatGPT copiados por engano. Situações como essas, citadas por Tank, mostram o que pode acontecer quando o uso da IA não passa por checagem crítica.
Esse tipo de erro não é apenas constrangedor. Em alguns casos, pode resultar em perda de credibilidade profissional, desgaste com clientes, riscos legais e impactos negativos à reputação da marca.
A recomendação é nunca delegar 100% da tarefa à IA. Use-a como apoio, mas assuma a responsabilidade final pelo conteúdo — seja revisando, reescrevendo ou checando fontes antes de compartilhar.
Outro erro comum citado por Tank é copiar e colar integralmente textos gerados pela IA, incluindo até os próprios prompts. Além de expor falta de revisão, esse comportamento passa uma mensagem negativa: de que não houve envolvimento, reflexão nem cuidado.
Liderar com alta performance exige autenticidade, clareza de propósito e domínio do conteúdo que se compartilha. A IA pode ajudar a formatar ideias ou organizar um raciocínio, mas a visão e a responsabilidade continuam sendo humanas.
Mais grave ainda é o risco de plagiar sem saber. Ao usar IA para gerar ideias originais, é fundamental pesquisar antes de assumir que um insight é inédito.
A ferramenta pode ter extraído o conceito de algo já publicado, o que pode gerar problemas éticos e até legais, caso não haja o devido crédito.
Quando o assunto envolve relações pessoais, informações confidenciais ou decisões estratégicas, a IA não deve ser o redator principal. Ainda que seja tentador pedir à IA que resolva tudo rapidamente, Tank reforça que há contextos em que o toque humano é insubstituível, e esperado.
É o caso de feedbacks delicados, mensagens de liderança em momentos de crise ou notas com impacto emocional. Delegar esse tipo de conteúdo a um chatbot pode parecer impessoal, desconectado da realidade e até ofensivo.
Além disso, há riscos de segurança. Copiar dados sensíveis da empresa em plataformas abertas de IA pode causar vazamentos e expor informações críticas.
Empresas devem orientar líderes e equipes sobre o uso seguro da tecnologia e limitar o que pode ou não ser inserido nesses sistemas.
O Na Prática nasceu com a missão de transformar o potencial de jovens em resultados concretos para suas carreiras e para o Brasil.
O curso Execução de Alta Performance é um dos programas mais completos para quem busca sair da estagnação e crescer com consistência.
Tudo o que você ganha ao se inscrever: