O YouTube removeu permanentemente dois canais importantes – Screen Culture e KH Studio – por violarem suas políticas contra spam e conteúdo enganoso. Os canais, que coletivamente tinham mais de 2 milhões de assinantes e 1,3 bilhão de visualizações, especializaram-se na geração de trailers de filmes hiper-realistas e totalmente fabricados usando inteligência artificial.
Como os canais funcionavam
A estratégia envolvia combinar imagens legítimas de estúdio com cenas geradas por IA para criar trailers de filmes inexistentes ou inéditos. Esse engano foi tão eficaz que os trailers falsos da Screen Culture para Quarteto Fantástico na verdade superaram os teasers oficiais da Marvel em alguns casos. Os canais inicialmente escaparam das restrições rotulando os vídeos como “trailers de fãs”, “paródias” ou “trailers conceituais”, mas eventualmente removeram essas isenções de responsabilidade, levando o YouTube a tomar medidas.
Por que isso é importante
A remoção destaca um conflito crescente entre o conteúdo gerado pela IA e os direitos de mídia tradicionais. A ascensão desses trailers falsos não se trata apenas de enganar os espectadores; é um desafio direto ao controle dos estúdios sobre sua propriedade intelectual. Embora algumas empresas como a Warner Bros. Discovery e a Sony tenham optado por desviar receitas publicitárias destes vídeos em vez de emitir remoções, outras, como a Disney, estão a assumir uma postura mais agressiva, emitindo cartas de cessação e desistência devido a alegadas violações de direitos de autor em modelos de formação de IA.
O panorama geral
O incidente faz parte de uma tendência mais ampla de conteúdo gerado por IA que perturba indústrias estabelecidas. Esta situação obriga plataformas como o YouTube a lutar para regulamentar a mídia sintética, respeitando ao mesmo tempo a expressão criativa. O facto de os estúdios estarem mais interessados em rentabilizar trailers falsos do que em impedi-los mostra os complexos incentivos económicos em jogo.
A remoção destes canais significa uma mudança no sentido de uma aplicação mais rigorosa da desinformação gerada pela IA, mas a questão subjacente dos direitos de autor e da monetização permanece por resolver. A pressão dos grandes estúdios sugere que são prováveis mais repressões ao conteúdo gerado por IA.























