Líderes Extraordinários

Ferramentas de Inteligência Artificial podem alucinar e criar fatos

Pesquisadores descobriram que robôs como o Chat GPT podem dar respostas falsas a partir de informações verdadeiras, fenômeno descrito como uma alucinação

Foi mal, tava doidão: Cientistas ainda não entende exatamente a causa das alucinações na IA (PhonlamaiPhoto/Getty Images)

Foi mal, tava doidão: Cientistas ainda não entende exatamente a causa das alucinações na IA (PhonlamaiPhoto/Getty Images)

Publicado em 15 de setembro de 2023 às 08h00.

Esta coluna foi inspirada em uma conversa que tive com um executivo sênior de tecnologia em uma empresa do Vale do Silício, na Califórnia, nos EUA, sobre os principais obstáculos para a ampla adoção de soluções de IA (Inteligência Artificial) nas organizações. Além das preocupações com a segurança da informação, ele destacou outro desafio significativo: o fenômeno da alucinação. 

A alucinação de IA refere-se a episódios em que sistemas de inteligência artificial geram resultados que podem parecer imaginativos, criativos ou, até mesmo, alucinatórios. Esses resultados, por vezes, podem ser altamente realistas, mas são completamente fabricados. 

Uma matéria do The New York Times, de maio de 2023 investigou o fenômeno. Os autores questionaram o ChatGPT (chatbot online desenvolvido pela OpenAI) sobre a primeira vez que o jornal estadunidense mencionou o termo “inteligência artificial”. Segundo o ChatGPT, foi em 10 de julho de 1956, em um artigo intitulado “Máquinas Serão Capazes de Aprender, Resolver Problemas, Cientistas Preveem”, sobre uma conferência seminal no Dartmouth College - universidade de Hanover, no estado de New Hampshire. No entanto, o Times esclareceu que a conferência de 1956 é real, mas o artigo em questão não existe. O ChatGPT simplesmente inventou a resposta. 

A alucinação de IA pode ter consequências graves, especialmente ao gerar relatórios ou documentos falsos. Por exemplo, relações de notícias geradas pela tecnologia podem ser utilizadas para disseminar informações falsas, o que pode ter consequências de longo alcance. Relatórios falsos gerados por IA também podem se espalhar rapidamente pelas redes sociais, causando pânico, desconfiança e confusão. 

Na área da saúde, a alucinação de IA pode resultar em diagnósticos ou recomendações de tratamento imprecisos, colocando os pacientes em risco. No setor de transporte, carros autônomos que dependem desta inovação também estão sujeitos a alucinações, o que pode resultar em acidentes e lesões. 

A boa notícia é que as empresas que desenvolvem essas tecnologias estão trabalhando para reduzir o fenômeno. No entanto, as organizações que utilizam IA não devem depender apenas dessas iniciativas e devem avaliar rigorosamente os resultados gerados pela tecnologia em suas aplicações de negócio. A mitigação desse risco envolve a aplicação de técnicas como o uso de dados diversos e de alta qualidade, a adoção de modelos interpretáveis e a integração da supervisão humana.

Em um cenário impulsionado pela inteligência artificial, compreender e enfrentar a alucinação de IA é crucial. A rápida evolução dessa tecnologia exige abordagem cautelosa. Validar, supervisionar e promover transparência na tomada de decisões com esse recurso é essencial para controlar os riscos. À medida que avançamos para uma era digital e automatizada, a conscientização e as práticas de prevenção não apenas garantirão a integridade operacional, mas também impulsionarão a inovação e o progresso sustentável.

Acompanhe tudo sobre:Líderes ExtraordináriosInteligência artificial

Mais de Líderes Extraordinários

A empresa não vem em primeiro lugar - e as novas gerações já entenderam isso

Brasil e China: 50 anos de parceria diplomática e a colaboração no setor de Energia Renovável

Prevenção radical: a nova era do bem-estar

Brasil e o futuro do ESG: oportunidades e desafios em um cenário global de mudanças