Worm pode "envenenar" o banco de dados do assistente de e-mail (./Reprodução)
Repórter colaborador
Publicado em 4 de março de 2024 às 11h10.
À medida que os sistemas de IA generativa, como o ChatGPT da OpenAI e o Gemini do Google, se tornam mais avançados, os pesquisadores estão desenvolvendo agora worms (literalmente "minhocas", em português) de IA que podem roubar dados confidenciais e quebrar as medidas de segurança dos sistemas de IA generativa, de acordo com um relatório da Wired.
Segundo a publicação, pesquisadores da Cornell University, do Technion-Israel Institute of Technology e da Intuit, criaram o primeiro worm de IA generativo chamado 'Morris II', que pode roubar dados ou implantar malware e se espalhar de um sistema para outro.
Ele recebeu o nome do primeiro worm lançado na Internet em 1988. Ben Nassi, um pesquisador da Cornell Tech, disse: "Isso basicamente significa que agora você tem a capacidade de conduzir ou executar um novo tipo de ataque cibernético que nunca foi visto antes".
O worm de IA pode violar algumas medidas de segurança no ChatGPT e no Gemini, atacando um assistente de e-mail de IA generativo com a intenção de roubar dados de e-mail e enviar spam, de acordo com a publicação.Os pesquisadores usaram um "prompt auto-replicante adversário" para desenvolver o worm. Para executá-lo, os pesquisadores criaram um sistema de e-mail que poderia enviar e receber mensagens usando IA generativa, adicionando o ChatGPT, o Gemini e o LLM de código aberto. Além disso, eles descobriram duas maneiras de utilizar o sistema: usando um prompt autorreplicante baseado em texto e incorporando a pergunta em um arquivo de imagem.
Em um caso, os pesquisadores enviaram um e-mail com um aviso de texto contraditório. Isso "envenena" o banco de dados do assistente de e-mail ao utilizar a geração aumentada de recuperação, que permite que os LLMs obtenham mais dados de fora do sistema. Isso acaba resultando no roubo de dados dos e-mails.
Os pesquisadores também alertaram sobre um "projeto de arquitetura ruim" dentro do sistema de IA. Eles também relataram suas observações ao Google e à OpenAI. "Eles parecem ter encontrado uma maneira de explorar vulnerabilidades do tipo prompt-injection, confiando na entrada do usuário que não foi verificada ou filtrada", disse um porta-voz da OpenAI. Além disso, eles mencionaram que estão trabalhando para tornar os sistemas "mais resilientes" e que os desenvolvedores devem "usar métodos que garantam que não estejam trabalhando com entradas frágeis de sistema". O Google não respondeu à revista.