Redação Exame
Publicado em 5 de setembro de 2024 às 15h39.
Última atualização em 5 de setembro de 2024 às 15h39.
A empresa X, controlada por Elon Musk, concordou em não utilizar mais dados de usuários da União Europeia para treinar sua inteligência artificial Grok. O acordo foi firmado após pressões de reguladores europeus, pondo fim a uma disputa judicial que teve início em agosto deste ano.
A Comissão de Proteção de Dados da Irlanda (DPC), responsável pela supervisão das operações da X na Europa, anunciou a decisão nesta quarta-feira, 4. O órgão havia solicitado que a Alta Corte da Irlanda suspendesse o uso desses dados com base nas normas do Regulamento Geral de Proteção de Dados (General Data Protection Regulation, GDPR).
O impasse começou em agosto, quando a DPC argumentou que o uso de dados de usuários europeus publicados na rede social X para treinar o software Grok poderia comprometer os direitos dos usuários, violando as regras de privacidade da União Europeia. Com isso, a empresa foi forçada a suspender temporariamente o uso dessas informações.
Essa suspensão tornou-se definitiva esta semana, quando a empresa concordou em excluir os dados coletados entre 7 de maio e 1º de agosto de 2024, pondo fim ao processo judicial. “A X Corp. excluirá os dados de usuários da União Europeia, contidos em postagens públicas em sua plataforma de mídia social X”, informou a DPC.
O comissário da DPC, Dale Sunderland, destacou em comunicado que o órgão espera que essa decisão abra caminho para uma regulamentação mais ampla sobre o uso de dados para treinamentos de IA na Europa. Sunderland afirmou que isso permitirá uma atuação regulatória mais eficaz e proativa em todo o continente.
Desde terça-feira, 3, a Meta começou a notificar usuários do Facebook e Instagram no Brasil sobre o uso de inteligência artificial (IA) em suas plataformas. A medida segue a decisão da Autoridade Nacional de Proteção de Dados (ANPD), que permitiu que a empresa utilize dados pessoais para treinar seus modelos de IA, após recomendações da própria autoridade.
Em julho, a ANPD havia suspendido preventivamente o uso de dados pessoais pela Meta para o treinamento de IA generativa, citando preocupações sobre possíveis danos graves aos titulares dos dados. No entanto, na última sexta-feira, 30, a suspensão foi levantada após a empresa apresentar recurso, comprometendo-se a seguir as normas estabelecidas pela ANPD.