A Adobe agora enfrenta uma proposta de ação coletiva alegando que usou ilegalmente livros protegidos por direitos autorais, incluindo obras da autora Elizabeth Lyon, para treinar um de seus modelos de inteligência artificial (IA). O cerne da disputa gira em torno do programa SlimLM da Adobe, um modelo de linguagem projetado para assistência documental, e do conjunto de dados usado para desenvolvê-lo.

As alegações: livros piratas alimentando a IA

O processo alega que a Adobe aproveitou um conjunto de dados contendo material pirata – especificamente, uma versão manipulada da polêmica coleção “Books3”, que consiste em 191.000 livros. Este conjunto de dados foi integrado ao SlimPajama-627B, o conjunto de dados de código aberto que a Adobe usou para pré-treinamento do SlimLM. Lyon afirma que seus próprios guias protegidos por direitos autorais foram incluídos nesses dados de treinamento de origem ilegal.

Por que isso é importante: o debate sobre direitos autorais sobre IA

Este caso destaca uma preocupação crescente na indústria tecnológica: as implicações éticas e legais da utilização de material protegido por direitos de autor para treinar modelos de IA. Muitos sistemas generativos de IA dependem de enormes conjuntos de dados extraídos da Internet, muitas vezes incluindo livros, artigos e imagens sem permissão explícita dos detentores de direitos de autor. A legalidade de tais práticas continua a ser contestada, com vários processos judiciais a desafiar a abordagem da indústria.

Desafios jurídicos mais amplos no espaço da IA

A Adobe não está sozinha ao enfrentar o escrutínio. Ações semelhantes foram movidas contra a Apple e a Salesforce, ambas acusadas de treinar seus modelos de IA em conteúdo protegido por direitos autorais proveniente de conjuntos de dados como o RedPajama (que está vinculado ao Books3). Esses casos estão testando os limites do uso justo e da lei de direitos autorais na era da IA ​​generativa.

A questão central é se as empresas podem lucrar com a IA treinada em propriedade intelectual roubada. O resultado destes processos poderá remodelar o futuro do desenvolvimento da IA.

O processo contra a Adobe sublinha os riscos legais crescentes para as empresas tecnológicas ansiosas por implementar IA sem abordar as questões subjacentes de direitos de autor. À medida que mais autores e criadores desafiam estas práticas, a indústria pode ser forçada a adotar métodos de fornecimento de dados mais transparentes e legalmente compatíveis.