Copilot: serviço de IA da Microsoft acessa e-mails marcados como confidenciais após erro de código
Colaboradora
Publicado em 19 de fevereiro de 2026 às 12h05.
A Microsoft reconheceu a existência de um bug que faz a inteligência artificial do Microsoft 365 Copilot resumir conteúdos confidenciais protegidos por organizações. Inicialmente descoberto pelo BleepingComputer, o erro CW1226324 faz o sistema da barra de trabalho do Copilot ter acesso a e-mails confidenciais nos Enviados e Rascunhos com as tags necessárias para sinalizar conteúdo sensível.
Respondendo a uma queixa de um usuário, a Microsoft disse: "As mensagens de e-mail dos usuários com uma etiqueta confidencial aplicada estão sendo processadas incorretamente pelo chat do Microsoft 365 Copilot". A função de conversa do assistente de IA está disponível para assinantes e consumidores de produtos como Word Excel, Powerpoint, Microsoft 365 e outros serviços pagos; não foi informada a quantidade de clientes afetados pelo erro ou o número de e-mails vazados.
Em resposta adicional feita pelo assistente de IA da Microsoft, foi dito que o Copilot utiliza "criptografia e isolamento lógico para proteger o conteúdo do cliente dentro de cada locatário" e que a empresa está ativamente monitorando possíveis erros que culminem em vazamentos de dados.
Em comunicado obtido pelo BleepingComputer, a empresa de tecnologia reconheceu que o erro é decorrente de um erro de código e que melhorias estão sendo implementadas desde o início de fevereiro. Na aba de perguntas e respostas sobre o serviço do Copilot, as reclamações mais recentes são referentes a erros no processamento de informações e carregamento, sugerindo que os problemas de resumos indesejados deixaram de ser frequentes.
A empresa informou que está em contato com os usuários afetados para solucionar a questão, que ainda não se deu por encerrada.