Adobe se enfrenta ahora a una propuesta de demanda colectiva que alega que utilizó ilegalmente libros protegidos por derechos de autor, incluidas obras de la autora Elizabeth Lyon, para entrenar uno de sus modelos de inteligencia artificial (IA). El núcleo de la disputa se centra en el programa SlimLM de Adobe, un modelo de lenguaje diseñado para la asistencia documental, y el conjunto de datos utilizado para desarrollarlo.
Las acusaciones: libros pirateados que alimentan la IA
La demanda afirma que Adobe aprovechó un conjunto de datos que contenía material pirateado, específicamente una versión manipulada de la controvertida colección “Books3”, que consta de 191.000 libros. Este conjunto de datos se integró en SlimPajama-627B, el conjunto de datos de código abierto que Adobe utilizó para el entrenamiento previo de SlimLM. Lyon afirma que sus propias guías con derechos de autor se incluyeron en estos datos de capacitación obtenidos ilegalmente.
Por qué esto es importante: el debate sobre los derechos de autor de la IA
Este caso pone de relieve una preocupación creciente dentro de la industria tecnológica: las implicaciones éticas y legales del uso de material protegido por derechos de autor para entrenar modelos de IA. Muchos sistemas de IA generativa dependen de conjuntos de datos masivos extraídos de Internet, que a menudo incluyen libros, artículos e imágenes sin el permiso explícito de los titulares de los derechos de autor. La legalidad de tales prácticas sigue siendo cuestionada, y ahora hay múltiples demandas que desafían el enfoque de la industria.
Desafíos legales más amplios en el espacio de la IA
Adobe no es el único que se enfrenta al escrutinio. Se han presentado demandas similares contra Apple y Salesforce, ambos acusados de entrenar sus modelos de IA en contenido protegido por derechos de autor procedente de conjuntos de datos como RedPajama (que está vinculado a Books3). Estos casos están poniendo a prueba los límites del uso legítimo y la ley de derechos de autor en la era de la IA generativa.
La cuestión central es si las empresas pueden beneficiarse de la IA entrenada con propiedad intelectual robada. El resultado de estas demandas podría remodelar el futuro del desarrollo de la IA.
La demanda contra Adobe subraya los crecientes riesgos legales para las empresas de tecnología deseosas de implementar IA sin abordar los problemas subyacentes de derechos de autor. A medida que más autores y creadores desafíen estas prácticas, la industria puede verse obligada a adoptar métodos de obtención de datos más transparentes y que cumplan con la ley.
























