'É impossível' criar ferramentas de IA como ChatGPT sem violar direitos autorais, diz OpenAI
A disputa legal da OpenAI com o "New York Times" revela a complexidade do uso de material protegido por direitos autorais na construção de modelos de IA
Repórter
Publicado em 8 de janeiro de 2024 às 15h30.
Última atualização em 8 de janeiro de 2024 às 16h02.
A OpenAI, desenvolvedora do inovador chatbot ChatGPT, afirmou que seria impossível criar ferramentas como essa sem o acesso a material protegido por direitos autorais. Este pronunciamento ocorre em um momento de crescente pressão sobre empresas de inteligência artificial (IA) relativa ao conteúdo usado para treinar seus produtos.
Chatbots como o ChatGPT e geradores de imagens como o Stable Diffusion são "treinados" com um vasto conjunto de dados obtidos da internet, muitos dos quais estão sob proteção de direitos autorais — uma proteção legal contra o uso não autorizado do trabalho de alguém.
No mês passado, o New York Times processou a OpenAI e a Microsoft, importante investidora na OpenAI e usuária de suas ferramentas em seus produtos, acusando-as de "uso ilegal" de seu trabalho para criar seus produtos.
Em uma declaração ao comitê seleto de comunicações e digital da Câmara dos Lordes, a OpenAI afirmou que não poderia treinar modelos de linguagem avançados, como seu modelo GPT-4 — a tecnologia por trás do ChatGPT — sem acesso a obras protegidas por direitos autorais.
A OpenAI argumentou que, devido à abrangência dos direitos autorais hoje, que cobrem praticamente todas as formas de expressão humana, seria impossível treinar os principais modelos de IA atuais sem utilizar material protegido por direitos autorais.
A empresa adicionou que limitar o material de treinamento a livros e desenhos fora dos direitos autorais resultaria em sistemas de IA inadequados. Argumentou que utilizar apenas dados de domínio público de mais de um século atrás poderia ser um experimento interessante, mas não atenderia às necessidades dos cidadãos de hoje.
Em resposta ao processo do NYT no mês passado, a OpenAI declarou que respeita "os direitos dos criadores e proprietários de conteúdo". A defesa das empresas de IA quanto ao uso de material protegido por direitos autorais tende a se basear na doutrina legal do "uso justo", que permite o uso de conteúdo em certas circunstâncias sem a permissão do proprietário.
Além disso, a OpenAI afirmou acreditar que, legalmente, a lei de direitos autorais não proíbe o treinamento com esse material.
O processo do NYT seguiu inúmeras outras reclamações legais contra a OpenAI. Autores como John Grisham, Jodi Picoult e George RR Martin estiveram entre os 17 que processaram a OpenAI em setembro, alegando "roubo sistemático em grande escala".
A Getty Images, que possui uma das maiores bibliotecas de fotos do mundo, está processando o criador do Stable Diffusion, Stability AI, nos Estados Unidos e na Inglaterra e País de Gales por supostas violações de direitos autorais.
Nos EUA, um grupo de editoras de música, incluindo a Universal Music, está processando a Anthropic, empresa apoiada pela Amazon por trás do chatbot Claude, acusando-a de usar indevidamente "inúmeras" letras de músicas protegidas por direitos autorais para treinar seu modelo.
Em outra parte de sua declaração à Câmara dos Lordes, em resposta a uma pergunta sobre segurança em IA, a OpenAI disse que apoia análises independentes de suas medidas de segurança. A empresa endossou a prática de "red-teaming" de sistemas de IA, onde pesquisadores independentes testam a segurança de um produto, emulando o comportamento de atores mal-intencionados.
A OpenAI está entre as empresas que concordaram em trabalhar com governos no teste de segurança de seus modelos mais poderosos antes e após seu lançamento, após um acordo alcançado em uma cúpula global de segurança no Reino Unido no ano passado.