Acompanhe:

Hackers estão usando inteligência artificial para aprimorar golpes, diz Microsoft

Segundo a empresa, grupos da Rússia, Coreia do Norte, Irã e China foram identificados usando grandes modelos de linguagem como o ChatGPT

Modo escuro

Continua após a publicidade
Satya Nadella, chief executive of Microsoft, speaks in Seattle on May 7, 2018. Nadella has pushed Microsoft into cloud computing and subscription services, and the video game business has followed suit. (Kyle Johnson/The New York Times) (Kyle Johnson/The New York Times)

Satya Nadella, chief executive of Microsoft, speaks in Seattle on May 7, 2018. Nadella has pushed Microsoft into cloud computing and subscription services, and the video game business has followed suit. (Kyle Johnson/The New York Times) (Kyle Johnson/The New York Times)

Nesta quarta-feira, 14, a Microsoft e a OpenAI revelaram que hackers estão utilizando grandes modelos de linguagem (LLM) como o ChatGPT para aprimorar golpes cibernéticos. As empresas divulgaram uma pesquisa recente, que identificou grupos da Rússia, Coreia do Norte, Irã e China usando a ferramenta para aprimorar ataques e contornar possíveis medidas de segurança.

Em publicação, a Microsoft detalhou o que foi identificado pelas empresas americanas.

O grupo Strontium, ligado à inteligência militar russa, está utilizando LLMs para compreender protocolos de comunicação por satélite. Eles também estão usando inteligência artificial para automatizar operações técnicas.

Ainda segundo a Microsoft, o grupo norte-coreano Thallium tem utilizado LLMs para pesquisar vulnerabilidades e redigir conteúdo para campanhas de phishing.

O grupo iraniano Curium também está usando LLMs para gerar e-mails de phishing e códigos evasivos para evitar a detecção por softwares antivírus.

Embora até o momento não tenham sido detectados "ataques significativos" utilizando LLMs, a Microsoft e a OpenAI estão fechando contas associadas a esses grupos de hackers.

Para o CEO da Microsoft, hackers têm a capacidade de criar um colapso mundial

Como a IA pode ser usada em fraudes?

A Microsoft também expressa preocupação sobre futuros casos de uso da IA em ataques cibernéticos, como fraudes envolvendo o uso da voz.

“Uma amostra de voz de três segundos pode treinar um modelo para soar como qualquer pessoa”, diz a Microsoft. “Mesmo algo tão inócuo como a saudação do correio de voz pode ser usado para obter uma amostra suficiente”.

A Microsoft está desenvolvendo o Security Copilot, um assistente de IA para auxiliar profissionais de segurança cibernética.

Além disso, a gigante do software está reforçando a segurança de seus produtos após uma série de ataques à nuvem Azure e incidentes envolvendo espionagem por parte de hackers russos em executivos da empresa.

LEIA TAMBÉM:

Créditos

Últimas Notícias

Ver mais
Eleições 2024: qual será o papel da inteligência artificial no pleito municipal?
Brasil

Eleições 2024: qual será o papel da inteligência artificial no pleito municipal?

Há 8 horas

Você usa inteligência artificial do jeito certo? CEO aponta os principais desafios para usuários
Future of Money

Você usa inteligência artificial do jeito certo? CEO aponta os principais desafios para usuários

Há 8 horas

Governo Tarcísio testará uso de IA para atualizar material didático de escolas de SP
Brasil

Governo Tarcísio testará uso de IA para atualizar material didático de escolas de SP

Há 10 horas

5 Impactos da Inteligência Artificial nas estruturas organizacionais
seloCarreira

5 Impactos da Inteligência Artificial nas estruturas organizacionais

Há 11 horas

Continua após a publicidade
icon

Branded contents

Ver mais

Conteúdos de marca produzidos pelo time de EXAME Solutions

Exame.com

Acompanhe as últimas notícias e atualizações, aqui na Exame.

Leia mais