YouTube trvale odstranil dva prominentní kanály – Screen Culture a KH Studio – kvůli porušení pravidel platformy ohledně spamu a zavádějícího obsahu. Kanály, které měly dohromady více než 2 miliony odběratelů a jejich videa byla zhlédnuta 1,3 miliardykrát, se specializovaly na vytváření hyperrealistických, zcela fiktivních filmových upoutávek využívajících umělou inteligenci.
Jak kanály fungovaly
Strategie zahrnovala míchání autentických záběrů filmového studia se scénami generovanými umělou inteligencí, aby se vytvořily upoutávky na neexistující nebo nevydané filmy. Tento podvod byl tak účinný, že falešné trailery na Fantastickou čtyřku Screen Culture v některých případech předčily oficiální upoutávky Marvelu. Kanály zpočátku obcházely omezení tím, že označovaly videa jako „fanouškovské upoutávky“, „parodie“ nebo „konceptuální upoutávky“, ale později tato prohlášení odstranily, což přimělo YouTube k akci.
Proč je to důležité
Odstranění kanálů zdůrazňuje rostoucí konflikt mezi obsahem generovaným umělou inteligencí a tradičními mediálními právy. Šíření těchto falešných upoutávek není jen klamáním diváků, ale také přímou hrozbou pro kontrolu studií nad jejich duševním vlastnictvím. Zatímco některé společnosti jako Warner Bros. Zatímco Discovery a Sony se rozhodly generovat příjmy z reklamy z těchto videí, než aby požadovaly jejich odstranění, jiné, například Disney, zaujaly agresivnější postoj a posílaly dopisy požadující, aby přestaly používat svá autorská práva v modelech učení AI.
Velký obrázek
Incident je součástí většího trendu obsahu generovaného umělou inteligencí, který narušuje zavedená odvětví. To nutí platformy jako YouTube, aby zvážily, jak regulovat syntetická média a zároveň respektovat tvůrčí svobodu. Skutečnost, že studia mají větší zájem zpeněžit falešné upoutávky, než je zastavit, dokazuje složité ekonomické pobídky, které za tím stojí.
Odstranění těchto kanálů signalizuje posun směrem k přísnější kontrole dezinformací generovaných umělou inteligencí, ale otázka autorských práv a monetizace zůstává nevyřešena. Tlak velkých studií naznačuje, že v budoucnu dojde k dalším tvrdým zásahům proti obsahu generovanému AI.























