Exame Logo

Hackers estão usando inteligência artificial para aprimorar golpes, diz Microsoft

Segundo a empresa, grupos da Rússia, Coreia do Norte, Irã e China foram identificados usando grandes modelos de linguagem como o ChatGPT

Satya Nadella, chief executive of Microsoft, speaks in Seattle on May 7, 2018. Nadella has pushed Microsoft into cloud computing and subscription services, and the video game business has followed suit. (Kyle Johnson/The New York Times) (Kyle Johnson/The New York Times)
Laura Pancini

Repórter

Publicado em 14 de fevereiro de 2024 às 11h20.

Última atualização em 14 de fevereiro de 2024 às 11h21.

Nesta quarta-feira, 14, a Microsoft e a OpenAI revelaram que hackers estão utilizando grandes modelos de linguagem (LLM) como o ChatGPT para aprimorar golpes cibernéticos. As empresas divulgaram uma pesquisa recente, que identificou grupos da Rússia, Coreia do Norte, Irã e China usando a ferramenta para aprimorar ataques e contornar possíveis medidas de segurança.

Em publicação, a Microsoft detalhou o que foi identificado pelas empresas americanas.

Veja também

O grupo Strontium, ligado à inteligência militar russa, está utilizando LLMs para compreender protocolos de comunicação por satélite. Eles também estão usando inteligência artificial para automatizar operações técnicas.

Ainda segundo a Microsoft , o grupo norte-coreano Thallium tem utilizado LLMs para pesquisar vulnerabilidades e redigir conteúdo para campanhas de phishing.

O grupo iraniano Curium também está usando LLMs para gerar e-mails de phishing e códigos evasivos para evitar a detecção por softwares antivírus.

Embora até o momento não tenham sido detectados "ataques significativos" utilizando LLMs, a Microsoft e a OpenAI estão fechando contas associadas a esses grupos de hackers.

Para o CEO da Microsoft, hackers têm a capacidade de criar um colapso mundial

Como a IA pode ser usada em fraudes?

A Microsoft também expressa preocupação sobre futuros casos de uso da IA em ataques cibernéticos, comofraudes envolvendo o uso da voz.

“Uma amostra de voz de três segundos pode treinar um modelo para soar como qualquer pessoa”, diz a Microsoft. “Mesmo algo tão inócuo como a saudação do correio de voz pode ser usado para obter uma amostra suficiente”.

A Microsoft está desenvolvendo o Security Copilot , um assistente de IA para auxiliar profissionais de segurança cibernética.

Além disso, a gigante do software está reforçando a segurança de seus produtos após uma série de ataques à nuvem Azure e incidentes envolvendo espionagem por parte de hackers russos em executivos da empresa.

LEIA TAMBÉM:

Acompanhe tudo sobre:Inteligência artificialChatGPTMicrosoftOpenAI

Mais lidas

exame no whatsapp

Receba as noticias da Exame no seu WhatsApp

Inscreva-se

Mais de Inteligência Artificial

Mais na Exame