Inteligência Artificial

Hackers estão usando inteligência artificial para aprimorar golpes, diz Microsoft

Segundo a empresa, grupos da Rússia, Coreia do Norte, Irã e China foram identificados usando grandes modelos de linguagem como o ChatGPT

Satya Nadella, chief executive of Microsoft, speaks in Seattle on May 7, 2018. Nadella has pushed Microsoft into cloud computing and subscription services, and the video game business has followed suit. (Kyle Johnson/The New York Times) (Kyle Johnson/The New York Times)

Satya Nadella, chief executive of Microsoft, speaks in Seattle on May 7, 2018. Nadella has pushed Microsoft into cloud computing and subscription services, and the video game business has followed suit. (Kyle Johnson/The New York Times) (Kyle Johnson/The New York Times)

Laura Pancini
Laura Pancini

Repórter

Publicado em 14 de fevereiro de 2024 às 11h20.

Última atualização em 14 de fevereiro de 2024 às 11h21.

Nesta quarta-feira, 14, a Microsoft e a OpenAI revelaram que hackers estão utilizando grandes modelos de linguagem (LLM) como o ChatGPT para aprimorar golpes cibernéticos. As empresas divulgaram uma pesquisa recente, que identificou grupos da Rússia, Coreia do Norte, Irã e China usando a ferramenta para aprimorar ataques e contornar possíveis medidas de segurança.

Em publicação, a Microsoft detalhou o que foi identificado pelas empresas americanas.

O grupo Strontium, ligado à inteligência militar russa, está utilizando LLMs para compreender protocolos de comunicação por satélite. Eles também estão usando inteligência artificial para automatizar operações técnicas.

Ainda segundo a Microsoft, o grupo norte-coreano Thallium tem utilizado LLMs para pesquisar vulnerabilidades e redigir conteúdo para campanhas de phishing.

O grupo iraniano Curium também está usando LLMs para gerar e-mails de phishing e códigos evasivos para evitar a detecção por softwares antivírus.

Embora até o momento não tenham sido detectados "ataques significativos" utilizando LLMs, a Microsoft e a OpenAI estão fechando contas associadas a esses grupos de hackers.

Para o CEO da Microsoft, hackers têm a capacidade de criar um colapso mundial

Como a IA pode ser usada em fraudes?

A Microsoft também expressa preocupação sobre futuros casos de uso da IA em ataques cibernéticos, como fraudes envolvendo o uso da voz.

“Uma amostra de voz de três segundos pode treinar um modelo para soar como qualquer pessoa”, diz a Microsoft. “Mesmo algo tão inócuo como a saudação do correio de voz pode ser usado para obter uma amostra suficiente”.

A Microsoft está desenvolvendo o Security Copilot, um assistente de IA para auxiliar profissionais de segurança cibernética.

Além disso, a gigante do software está reforçando a segurança de seus produtos após uma série de ataques à nuvem Azure e incidentes envolvendo espionagem por parte de hackers russos em executivos da empresa.

LEIA TAMBÉM:

Acompanhe tudo sobre:Inteligência artificialChatGPTMicrosoftOpenAI

Mais de Inteligência Artificial

OpenAI recebe US$ 1,5 bilhão da SoftBank em nova estratégia de expansão

Nem com inteligência artificial: rendimento de dividendos do S&P 500 atinge o menor nível em 20 anos

OpenAI e Meta investirão em IA para idiomas africanos em parceria com a Orange

A inteligência artificial chegou ao seu limite? Para o CEO da Salesforce, talvez