Adobe si trova ora ad affrontare una proposta di azione legale collettiva secondo cui ha utilizzato illegalmente libri protetti da copyright, comprese le opere dell’autrice Elizabeth Lyon, per addestrare uno dei suoi modelli di intelligenza artificiale (AI). Il nocciolo della controversia ruota attorno al programma SlimLM di Adobe, un modello linguistico progettato per l’assistenza documentale, e al set di dati utilizzato per svilupparlo.
Le accuse: libri piratati alimentano l’intelligenza artificiale
La causa afferma che Adobe ha sfruttato un set di dati contenente materiale piratato, in particolare una versione manipolata della controversa raccolta “Books3”, che comprende 191.000 libri. Questo set di dati è stato integrato in SlimPajama-627B, il set di dati open source utilizzato da Adobe per il pre-addestramento di SlimLM. Lyon afferma che le sue guide turistiche protette da copyright erano incluse in questi dati di formazione ottenuti illegalmente.
Perché è importante: il dibattito sul copyright dell’IA
Questo caso evidenzia una crescente preoccupazione all’interno del settore tecnologico: le implicazioni etiche e legali dell’utilizzo di materiale protetto da copyright per addestrare modelli di intelligenza artificiale. Molti sistemi di intelligenza artificiale generativa si basano su enormi set di dati recuperati da Internet, spesso inclusi libri, articoli e immagini senza il permesso esplicito dei detentori del copyright. La legalità di tali pratiche rimane contestata, con molteplici cause legali che ora mettono in discussione l’approccio del settore.
Sfide legali più ampie nel settore dell’intelligenza artificiale
Adobe non è la sola ad affrontare il controllo. Cause simili sono state intentate contro Apple e Salesforce, entrambe accusate di addestrare i loro modelli di intelligenza artificiale su contenuti protetti da copyright provenienti da set di dati come RedPajama (che è collegato a Books3). Questi casi stanno mettendo alla prova i confini del fair use e della legge sul copyright nell’era dell’intelligenza artificiale generativa.
La questione centrale è se le aziende possano trarre profitto dall’intelligenza artificiale addestrata sulla proprietà intellettuale rubata. L’esito di queste cause legali potrebbe rimodellare il futuro dello sviluppo dell’intelligenza artificiale.
La causa contro Adobe sottolinea i crescenti rischi legali per le aziende tecnologiche desiderose di implementare l’intelligenza artificiale senza affrontare le questioni di copyright sottostanti. Poiché sempre più autori e creatori mettono in discussione queste pratiche, l’industria potrebbe essere costretta ad adottare metodi di acquisizione dei dati più trasparenti e conformi alla legge.
























