Adobe fait désormais face à un recours collectif, alléguant qu’il a utilisé illégalement des livres protégés par le droit d’auteur, notamment des œuvres de l’auteur Elizabeth Lyon, pour entraîner l’un de ses modèles d’intelligence artificielle (IA). Le cœur du différend tourne autour du programme SlimLM d’Adobe, un modèle de langage conçu pour l’assistance documentaire, et de l’ensemble de données utilisé pour le développer.

Les allégations : des livres piratés alimentant l’IA

Le procès affirme qu’Adobe a exploité un ensemble de données contenant du matériel piraté, en particulier une version manipulée de la collection controversée « Books3 », qui comprend 191 000 livres. Cet ensemble de données a été intégré à SlimPajama-627B, l’ensemble de données open source utilisé par Adobe pour la pré-formation de SlimLM. Lyon affirme que ses propres guides protégés par le droit d’auteur ont été inclus dans ces données de formation d’origine illégale.

Pourquoi c’est important : le débat sur le droit d’auteur de l’IA

Cette affaire met en évidence une préoccupation croissante au sein de l’industrie technologique : les implications éthiques et juridiques de l’utilisation de matériel protégé par le droit d’auteur pour former des modèles d’IA. De nombreux systèmes d’IA générative s’appuient sur d’énormes ensembles de données récupérés sur Internet, comprenant souvent des livres, des articles et des images sans l’autorisation explicite des détenteurs de droits d’auteur. La légalité de telles pratiques reste contestée, de multiples poursuites contestant désormais l’approche de l’industrie.

Défis juridiques plus larges dans le domaine de l’IA

Adobe n’est pas le seul à être confronté à un examen minutieux. Des poursuites similaires ont été intentées contre Apple et Salesforce, tous deux accusés d’entraîner leurs modèles d’IA sur du contenu protégé par le droit d’auteur provenant d’ensembles de données comme RedPajama (qui est lié à Books3). Ces affaires testent les limites de l’utilisation équitable et du droit d’auteur à l’ère de l’IA générative.

La question centrale est de savoir si les entreprises peuvent tirer profit de l’IA formée sur la propriété intellectuelle volée. L’issue de ces poursuites pourrait remodeler l’avenir du développement de l’IA.

Le procès contre Adobe souligne les risques juridiques croissants pour les entreprises technologiques désireuses de déployer l’IA sans résoudre les problèmes sous-jacents de droits d’auteur. Alors que de plus en plus d’auteurs et de créateurs remettent en question ces pratiques, l’industrie pourrait être contrainte d’adopter des méthodes d’approvisionnement en données plus transparentes et plus conformes à la loi.