Inteligência Artificial

Agora é possível 'hackear' o ChatGPT; entenda

O worm de inteligência artificial pode violar algumas medidas de segurança das IAs generativas

Worm pode "envenenar" o banco de dados do assistente de e-mail (./Reprodução)

Worm pode "envenenar" o banco de dados do assistente de e-mail (./Reprodução)

Luiz Anversa
Luiz Anversa

Repórter colaborador

Publicado em 4 de março de 2024 às 11h10.

À medida que os sistemas de IA generativa, como o ChatGPT da OpenAI e o Gemini do Google, se tornam mais avançados, os pesquisadores estão desenvolvendo agora worms (literalmente "minhocas", em português) de IA que podem roubar dados confidenciais e quebrar as medidas de segurança dos sistemas de IA generativa, de acordo com um relatório da Wired.

Segundo a publicação, pesquisadores da Cornell University, do Technion-Israel Institute of Technology e da Intuit, criaram o primeiro worm de IA generativo chamado 'Morris II', que pode roubar dados ou implantar malware e se espalhar de um sistema para outro.

Ele recebeu o nome do primeiro worm lançado na Internet em 1988. Ben Nassi, um pesquisador da Cornell Tech, disse: "Isso basicamente significa que agora você tem a capacidade de conduzir ou executar um novo tipo de ataque cibernético que nunca foi visto antes".

O worm de IA pode violar algumas medidas de segurança no ChatGPT e no Gemini, atacando um assistente de e-mail de IA generativo com a intenção de roubar dados de e-mail e enviar spam, de acordo com a publicação.

Como funciona?

Os pesquisadores usaram um "prompt auto-replicante adversário" para desenvolver o worm. Para executá-lo, os pesquisadores criaram um sistema de e-mail que poderia enviar e receber mensagens usando IA generativa, adicionando o ChatGPT, o Gemini e o LLM de código aberto. Além disso, eles descobriram duas maneiras de utilizar o sistema: usando um prompt autorreplicante baseado em texto e incorporando a pergunta em um arquivo de imagem.

Em um caso, os pesquisadores enviaram um e-mail com um aviso de texto contraditório. Isso "envenena" o banco de dados do assistente de e-mail ao utilizar a geração aumentada de recuperação, que permite que os LLMs obtenham mais dados de fora do sistema. Isso acaba resultando no roubo de dados dos e-mails.

Os pesquisadores também alertaram sobre um "projeto de arquitetura ruim" dentro do sistema de IA. Eles também relataram suas observações ao Google e à OpenAI. "Eles parecem ter encontrado uma maneira de explorar vulnerabilidades do tipo prompt-injection, confiando na entrada do usuário que não foi verificada ou filtrada", disse um porta-voz da OpenAI. Além disso, eles mencionaram que estão trabalhando para tornar os sistemas "mais resilientes" e que os desenvolvedores devem "usar métodos que garantam que não estejam trabalhando com entradas frágeis de sistema". O Google não respondeu à revista.

Acompanhe tudo sobre:Inteligência artificial

Mais de Inteligência Artificial

A regulamentação da IA: como evitar a irrelevância tecnológica em meio à busca por equilíbrio

O gigante entra em cena: portfólio de IAs do Google termina 2024 turbinado

Microsoft lidera compra de chips Nvidia em 2024 para impulsionar inteligência artificial

Nova ferramenta de IA do Google permite criação de imagens sem uso de texto