Inteligência Artificial

Agora é possível 'hackear' o ChatGPT; entenda

Luiz Anversa

7 de março de 2024 às 11:47

Photo by KIRILL KUDRYAVTSEV/AFP via Getty Images/

À medida que os sistemas de IA generativa, como o ChatGPT da OpenAI e o Gemini do Google, se tornam mais avançados, os pesquisadores estão desenvolvendo agora worms (literalmente "minhocas", em português) de IA.

Oliver Nicolaas Ponder / EyeEm/Getty Images

Essas worms podem roubar dados confidenciais e quebrar as medidas de segurança dos sistemas de IA generativa, de acordo com um relatório da Wired.

SeongJoon Cho/Bloomberg/Getty Images

Segundo a publicação, pesquisadores da Cornell University, do Technion-Israel Institute of Technology e da Intuit, criaram o primeiro worm de IA generativo chamado 'Morris II', que pode roubar dados ou implantar malware e se espalhar de um sistema para outro.

Ben Nassi, um pesquisador da Cornell Tech, disse: "Isso basicamente significa que agora você tem a capacidade de conduzir ou executar um novo tipo de ataque cibernético que nunca foi visto antes".

Kenneth Cheung/iStockphoto

O worm de IA pode violar algumas medidas de segurança no ChatGPT e no Gemini, atacando um assistente de e-mail de IA generativo com a intenção de roubar dados de e-mail e enviar spam, de acordo com a publicação.

Philipp Theis / EyeEm/null

Como funciona? Os pesquisadores usaram um "prompt auto-replicante adversário" para desenvolver o worm.

Para executá-lo, os pesquisadores criaram um sistema de e-mail que poderia enviar e receber mensagens usando IA generativa, adicionando o ChatGPT, o Gemini e o LLM de código aberto.

Leia mais