7 de março de 2024 às 11:47
À medida que os sistemas de IA generativa, como o ChatGPT da OpenAI e o Gemini do Google, se tornam mais avançados, os pesquisadores estão desenvolvendo agora worms (literalmente "minhocas", em português) de IA.
Essas worms podem roubar dados confidenciais e quebrar as medidas de segurança dos sistemas de IA generativa, de acordo com um relatório da Wired.
Segundo a publicação, pesquisadores da Cornell University, do Technion-Israel Institute of Technology e da Intuit, criaram o primeiro worm de IA generativo chamado 'Morris II', que pode roubar dados ou implantar malware e se espalhar de um sistema para outro.
Ben Nassi, um pesquisador da Cornell Tech, disse: "Isso basicamente significa que agora você tem a capacidade de conduzir ou executar um novo tipo de ataque cibernético que nunca foi visto antes".
O worm de IA pode violar algumas medidas de segurança no ChatGPT e no Gemini, atacando um assistente de e-mail de IA generativo com a intenção de roubar dados de e-mail e enviar spam, de acordo com a publicação.
Como funciona? Os pesquisadores usaram um "prompt auto-replicante adversário" para desenvolver o worm.
Para executá-lo, os pesquisadores criaram um sistema de e-mail que poderia enviar e receber mensagens usando IA generativa, adicionando o ChatGPT, o Gemini e o LLM de código aberto.