Itália multa OpenAI em €15 milhões por uso inadequado de dados pessoais no ChatGPT
Decisão ocorre após investigação apontar falhas na transparência e no tratamento de informações de usuários e menores de 13 anos
Repórter
Publicado em 20 de dezembro de 2024 às 14h15.
Última atualização em 20 de dezembro de 2024 às 14h30.
A agência de proteção de dados da Itália, conhecida como Garante, anunciou nesta sexta-feira (20) uma multa de €15 milhões (cerca de R$ 82,2 milhões) contra a OpenAI, criadora do ChatGPT. A sanção encerra uma investigação sobre o uso de dados pessoais pela ferramenta de inteligência artificial generativa.
O Garante concluiu que a OpenAI utilizou dados pessoais de usuários para treinar o ChatGPT sem uma base legal adequada e violou o princípio de transparência e obrigações relacionadas à informação de usuários.A decisão destacou ainda que o sistema da empresa americana não conta com um método eficaz de verificação de idade para impedir que crianças menores de 13 anos tenham acesso a conteúdos inadequados gerados pela IA.
Em resposta, a OpenAI classificou a decisão como "desproporcional" e afirmou que irá apelar. A empresa destacou que a multa equivale a quase vinte vezes a receita gerada na Itália durante o período avaliado. "Isso enfraquece as ambições da Itália em relação à IA", declarou a companhia, que conta com o apoio da Microsoft em seu desenvolvimento.
Campanha de conscientização
O órgão regulador italiano determinou ainda que a OpenAI realize uma campanha pública de seis meses nos meios de comunicação locais para informar a população sobre o funcionamento do ChatGPT, com ênfase no uso de dados de usuários e não usuários para o treinamento de algoritmos.
No ano passado, o ChatGPT chegou a ser temporariamente banido na Itália devido a supostas violações às regras de privacidade da União Europeia.O serviço foi reativado após a OpenAI atender demandas como permitir que usuários recusassem o uso de seus dados pessoais para o treinamento de algoritmos.
A regulação da IA na Europa
O caso reforça o papel proativo do Garante, que é uma das autoridades mais atuantes da União Europeia na avaliação de plataformas de IA sob as regras do Regulamento Geral de Proteção de Dados (GDPR, na sigla em inglês). Introduzido em 2018, o GDPR prevê multas de até €20 milhões ou 4% do faturamento global da empresa para violações graves.
A multa de €15 milhões considerou a postura cooperativa da OpenAI durante a investigação, indicando que o valor poderia ter sido ainda maior.