Adobe steht nun vor einer geplanten Sammelklage, in der behauptet wird, das Unternehmen habe illegal urheberrechtlich geschützte Bücher, darunter Werke der Autorin Elizabeth Lyon, verwendet, um eines seiner Modelle für künstliche Intelligenz (KI) zu trainieren. Der Kern des Streits dreht sich um das SlimLM-Programm von Adobe, ein Sprachmodell zur Dokumentenunterstützung, und den zu seiner Entwicklung verwendeten Datensatz.

Die Vorwürfe: Raubkopien befeuern die KI

In der Klage wird behauptet, Adobe habe einen Datensatz mit Raubkopien genutzt – konkret eine manipulierte Version der umstrittenen „Books3“-Sammlung, die aus 191.000 Büchern besteht. Dieser Datensatz wurde in SlimPajama-627B integriert, den Open-Source-Datensatz, den Adobe für das Vortraining von SlimLM verwendet hat. Lyon behauptet, dass ihre eigenen urheberrechtlich geschützten Reiseführer in diesen illegal beschafften Trainingsdaten enthalten waren.

Warum das wichtig ist: Die KI-Urheberrechtsdebatte

Dieser Fall verdeutlicht eine wachsende Besorgnis innerhalb der Technologiebranche: die ethischen und rechtlichen Auswirkungen der Verwendung von urheberrechtlich geschütztem Material zum Trainieren von KI-Modellen. Viele generative KI-Systeme stützen sich auf riesige Datensätze, die aus dem Internet zusammengetragen werden, darunter häufig Bücher, Artikel und Bilder, ohne ausdrückliche Genehmigung der Urheberrechtsinhaber. Die Rechtmäßigkeit solcher Praktiken ist nach wie vor umstritten, da inzwischen mehrere Klagen den Ansatz der Branche in Frage stellen.

Umfassendere rechtliche Herausforderungen im KI-Bereich

Adobe steht nicht allein vor der Prüfung. Ähnliche Klagen wurden gegen Apple und Salesforce eingereicht, denen beiden vorgeworfen wird, ihre KI-Modelle auf urheberrechtlich geschützten Inhalten trainiert zu haben, die aus Datensätzen wie RedPajama (das mit Books3 verknüpft ist) stammen. Diese Fälle testen die Grenzen des Fair-Use- und Urheberrechts im Zeitalter der generativen KI aus.

Die zentrale Frage ist, ob Unternehmen von KI profitieren können, die auf gestohlenem geistigem Eigentum trainiert wird. Der Ausgang dieser Klagen könnte die Zukunft der KI-Entwicklung verändern.

Die Klage gegen Adobe unterstreicht die zunehmenden rechtlichen Risiken für Technologieunternehmen, die KI einsetzen möchten, ohne sich mit den zugrunde liegenden Urheberrechtsproblemen zu befassen. Da immer mehr Autoren und Urheber diese Praktiken in Frage stellen, könnte die Branche gezwungen sein, transparentere und gesetzeskonformere Datenbeschaffungsmethoden einzuführen.