Inteligência Artificial

Escritores processam Microsoft por usar quase 200 mil livros piratas para treinar IA Megatron

Autores pedem ordem judicial para bloquear a infração da Microsoft, além de indenizações de até US$ 150.000 por cada obra que tiver sido usada indevidamente

Além da Microsoft, Meta, OpenAI, Anthropic, Midjourney e Stable Diffusion já foram alvo de processos similares (Oliver Berg/Getty Images)

Além da Microsoft, Meta, OpenAI, Anthropic, Midjourney e Stable Diffusion já foram alvo de processos similares (Oliver Berg/Getty Images)

Publicado em 26 de junho de 2025 às 13h58.

Depois de ser alvo juntamente com a OpenAI de um processo movido pelo New York Times, a Microsoft está sendo novamente acionada por violação de propriedade intelectual no treinamento de modelos de inteligência artificial. Desta vez, um grupo de autores a acusa de usar versões digitais piratas de seus livros para treinar o modelo de IA Megatron.

Apresentado na terça-feira, 24, em um tribunal federal de Nova York, esse caso é movido por Kai Bird, Jia Tolentino, Daniel Okrent e outros autores. A ação se soma a outras judicializadas por empresas jornalísticas, editoras, agências fotográficas e estúdios cinematográficos contra desenvolvedoras de modelos de IA. Os alvos vão desde gigantes como Microsoft e Meta, passando por OpenAI e Anthropic, até chegar a Midjourney e Stable Diffusion.

Esse processo contra a Microsoft foi protocolado um dia após uma decisão de um juiz federal da Califórnia, que determinou que a Anthropic fez "uso justo" (fair use, no direito norte-americano) de materiais protegidos por direitos autorais para treinar seus sistemas de IA.

Apesar da decisão não isentar a criadora do Claude de ser responsabilizada por pirataria de livros, essa foi a primeira vez que um juiz dos Estados Unidos deliberou como legal o uso, sem permissão prévia, de materiais com direitos autorais para o treinamento de IA generativa.

Qual a acusação dos escritores?

Segundo os escritores, a Microsoft usou uma coleção de quase 200 mil livros piratas para treinar o Megatron, um algoritmo que gera respostas de texto para comandos de usuários. O processo descreve que a empresa utilizou esse conjunto de dados piratas para criar "um modelo de computador que não só é baseado no trabalho de milhares de criadores e autores, mas também foi projetado para gerar uma ampla gama de expressões que imitam a sintaxe, a voz e os temas das obras protegidas por direitos autorais nas quais foi treinado."

Por meio dessa ação, eles pedem que uma ordem judicial bloqueie a infração da Microsoft e cobram danos estatutários – forma de indenização utilizada em casos nos quais o prejuízo financeiro é difícil de ser determinado – de até US$ 150.000 por cada obra que tiver sido usada indevidamente.

Empresas de tecnologia argumentam que fazem uso justo de material protegido por direitos autorais para criar novos conteúdos e que obrigá-las a pagar aos detentores poderia prejudicar o crescimento e o desenvolvimento da indústria de IA.

O que é o fair use?

Como não há uma regulação definida, o debate jurídico gira em torno do conceito de fair use e sua aplicação à IA. Ele é uma exceção na lei de direitos autorais dos EUA que permite o uso limitado de material protegido sem a autorização prévia do autor, desde que seja para crítica, criação, ensino ou pesquisa.

No entanto, a controvérsia no caso da IA envolve a capacidade que essa tecnologia tem de memorizar e reproduzir integralmente trechos de obras protegidas, sem necessariamente ter relação com os contextos para os quais essa exceção foi criada e é aplicada.

Acompanhe tudo sobre:Inteligência artificialMicrosoft

Mais de Inteligência Artificial

Apple perde principal executivo de IA para Meta, diz Bloomberg

Seis meses depois, DeepSeek enfrenta desafios para se manter relevante no mercado de IA

Dois caminhos distintos e um único objetivo na era da IA: Nvidia e Microsoft rumo aos US$ 4 trilhões

Gemini vasculha até seu Gmail para criar 'mensagens mais humanas'