O que as empresas já estão fazendo com o ChatGPT — e o que virá depois do hype
Pesquisadores e entusiastas de inteligência artificial (IA) que buscam a próxima fase do atual ciclo hype do chatbot começaram a se unir em torno de outra ideia: os chamados agentes de IA
Bloomberg Businessweek
Publicado em 10 de maio de 2023 às 10h58.
Última atualização em 10 de maio de 2023 às 13h32.
Por Rachel Metz e Saritha Rai, da Bloomberg Businessweek
O ChatGPT da OpenAI é bastante simples de usar: é só digitar uma solicitação e obtém-se uma resposta que pode ser útil e soa convincentemente humana.
- ChatGPT dá o passo a passo para criar hamburgueria do zero na Zona Sul de São Paulo
- Casa Branca convida CEOs de Google e Microsoft para reunião sobre inteligência artificial
- Gmail ganha atualização que aumenta a quantidade de anúncios na caixa de entrada
- Empresa chinesa iFlytek lança chatbot de IA concorrente de ChatGPT
- Microsoft expande acesso a seu mecanismo de busca reforçado com IA
- Funcionários da Samsung são proibidos de usar ferramentas de IA semelhantes ao ChatGPT
No entanto, tem graves limitações como uma ferramenta prática. De um modo geral, ainda não tem acesso à Internet (e, de fato, seus dados de treinamento param em 2021), não foi projetado para lembrar consultas de conversa em conversa, não é tão confiável quanto aos fatos e só pode gerar uma única resposta para cada prompt.
O que vem a seguir?
Pesquisadores e entusiastas de inteligência artificial (IA) que buscam a próxima fase do atual ciclohypedo chatbot começaram a se unir em torno de outra ideia: os chamados agentes de IA, software que se conecta a grandes modelos de linguagem como o que alimenta o ChatGPT (e talvez vários serviços de Internet ou mesmo formas de pagamento também) e que, após receber um objetivo de um ser humano, cria uma série de tarefas e as executa sozinho para atingir esse objetivo.
Isso sugere um futuro em que os agentes de IA poderão agir de forma autônoma na Internet, realizando uma ampla gama de tarefas da maneira que acharem melhor.
Aqueles que estão mais entusiasmados com os agentes de IA os veem como a coisa mais próxima da inteligência artificial geral, ou IAG, o objetivo há muito buscado para criar software que possa aprender e realizar qualquer tarefa intelectual que um ser humano realiza.
O trabalho mais proeminente que surgiu é o Auto-GPT, um projeto de código aberto executado pelo desenvolvedor de jogos, Toran Bruce Richards.
Os usuários do Auto-GPT definem metas para o software, que então começa a executar as etapas para alcançá-las. Por padrão, o Auto-GPT solicita a validação de seu usuário humano a cada passo, embora seja possível conceder a ele o que equivale a uma permissão geral para seguir em frente de forma autônoma.
Como as empresas utilizam a IA
Tornou-se moda entre uma certa marca de primeiros usuários postar exemplos das coisas aparentemente milagrosas que o Auto-GPT e outros agentes de IA já estão fazendo.
- Um usuário conseguiu que um agente de IA conduzisse uma pesquisa de produto e resumisse uma lista dos melhores fones de ouvido do mercado.
- Outro criou uma empresa de calçados falsos e fez uma pesquisa de mercado para sapatos impermeáveis. Ele listou os cinco principais concorrentes e produziu um relatório sobre seus prós e contras.
O diretor executivo da HyperWrite, que oferece um plug-in de assistente de escrita AI para o navegador Chrome, postou uma demonstração no Twitter que pretende mostrar como seu próximo assistente pessoal conseguirá pedir uma pizza online na Domino's.
Ao contrário do ChatGPT, o Auto-GPT não é feito para o usuário comum. Ele requer alguma codificação para ser configurado, bem como acesso às interfaces de programação de aplicativos da OpenAI, que permitem que desenvolvedores criem programas de software que incorporem seus modelos de IA e sejam cobrados sempre que esses modelos forem solicitados a fazer algo.
O HustleGPT, um grupo na plataforma de mensagens Discord, inclui fundadores de startups em estágio inicial que estão usando as ferramentas para “tudo, desde o design de um logotipo até a criação de um site para marketing”, diz Dave Craige, empresário que iniciou o grupo.
Como acontece com muitas demonstrações de tecnologia, provavelmente é melhor aceitar qualquer afirmação sobre as realizações dos agentes de IA com algum ceticismo — e verificar os fatos de qualquer informação que os agentes produzirem.
Para onde vai a tecnologia
A Bloomberg Businessweek pediu ao AgentGPT que arquitetasse um plano para transformar US$ 100 no Total Stock Market Index Fund da Vanguard em US$ 1 milhão em 10 anos.
O programa atribuiu a si mesmo uma lista de tarefas relacionadas ao cumprimento dessa meta de investimento, que incluía pesquisar o desempenho histórico do fundo nos últimos 10 anos para estimar retornos potenciais. Em seguida, apresentou vários planos de várias etapas para atingir seu objetivo.
Os planos por si só, porém, eram muito deficientes. O AgentGPT sugeriu que alguém investindo US$ 500 por mês poderia — caso seguisse várias estratégias para reduzir impostos e obtivesse um retorno médio anual de 7% — terminar com precisamente US$ 1.031.906 após 10 anos.
A calculadora de investimento on-line no site Calculator.net determinou que esse cenário produziria o total mais modesto de cerca de US$ 86.000 naquele período de tempo estipulado.
Softwares como Auto-GPT e BabyAGI, outro agente de IA, estão “na infância”, diz Matt Schlicht, CEO da Octane AI, que usa IA para implantar questionários de localização de produtos que as marcas de comércio eletrônico podem usar para ajudar clientes a decidir quais produtos comprar.
“Portanto, ao se olhar para ele como um produto independente, ainda é uma espécie de brinquedo de certa forma.”
Dito isso, em maio sua startup está lançando seu próprio agente, o Insights AI, para analisar avaliações de clientes e ajudar empresas com estratégia e criação de conteúdo.
À medida que pessoas como Schlicht decidem que os agentes de IA podem ser mais do que brinquedos e começam a testá-los em situações de mundo real, a necessidade de políticas que regem seu uso se torna mais urgente, de acordo com Henry Shevlin, especialista em ética de IA do Centro Leverhulme para o Futuro da Inteligência, da Universidade de Cambridge.
“É improvável que as corporações exerçam o nível de contenção desejável para a humanidade”, diz ele.
Tradução de Anna Maria Dalle Luche.