YouTube trwale usunął dwa znaczące kanały – Screen Culture i KH Studio – za naruszenie zasad platformy dotyczących spamu i treści wprowadzających w błąd. Kanały, które łącznie miały ponad 2 miliony subskrybentów, a ich filmy obejrzano 1,3 miliarda razy, specjalizowały się w tworzeniu hiperrealistycznych, całkowicie fikcyjnych zwiastunów filmowych z wykorzystaniem sztucznej inteligencji.

Jak działały kanały

Strategia polegała na łączeniu autentycznych materiałów ze studia filmowego ze scenami wygenerowanymi przez sztuczną inteligencję w celu stworzenia zwiastunów nieistniejących lub niepublikowanych filmów. To oszustwo było tak skuteczne, że fałszywe zwiastuny Fantastycznej Czwórki studia Screen Culture w niektórych przypadkach przewyższały oficjalne zwiastuny Marvela. Kanały początkowo obeszły te ograniczenia, oznaczając filmy jako „zwiastuny fanów”, „parodie” lub „zwiastuny koncepcji”, ale później usunęły te zastrzeżenia, co skłoniło YouTube do podjęcia działań.

Dlaczego to jest ważne

Usunięcie kanałów uwydatnia narastający konflikt między treściami generowanymi przez sztuczną inteligencję a prawami tradycyjnych mediów. Rozpowszechnianie tych fałszywych zwiastunów nie tylko wprowadza widzów w błąd, ale także stanowi bezpośrednie zagrożenie dla kontroli studiów nad ich własnością intelektualną. Podczas gdy niektóre firmy, takie jak Warner Bros. Discovery i Sony, zamiast żądać ich usunięcia, zdecydowały się generować przychody z reklam z tych filmów, inne, takie jak Disney, przyjęły bardziej agresywne stanowisko, wysyłając listy z żądaniem zaprzestania wykorzystywania swoich praw autorskich do modeli uczenia się sztucznej inteligencji.

Wielki obraz

Incydent jest częścią szerszego trendu, w którym treści generowane przez sztuczną inteligencję zakłócają funkcjonowanie uznanych branż. Zmusza to platformy takie jak YouTube do rozważenia, w jaki sposób regulować media syntetyczne, przy jednoczesnym poszanowaniu wolności twórczej. Fakt, że studia są bardziej zainteresowane zarabianiem na fałszywych zwiastunach niż ich powstrzymywaniem, pokazuje, jakie kryją się za tym złożone zachęty ekonomiczne.

Usunięcie tych kanałów sygnalizuje krok w kierunku ściślejszej kontroli dezinformacji generowanej przez sztuczną inteligencję, ale kwestia praw autorskich i monetyzacji pozostaje nierozwiązana. Naciski ze strony głównych studiów sugerują, że w przyszłości będą dalsze ataki na treści generowane przez sztuczną inteligencję.