Vários canais proeminentes do YouTube, com centenas de milhares de assinantes, foram recentemente encerrados abruptamente, deixando os criadores perplexos e apontando o dedo para a crescente dependência da plataforma na inteligência artificial (IA) para moderação de conteúdo. A situação realça preocupações crescentes sobre a justiça e precisão da aplicação automatizada das políticas do YouTube, especialmente quando se trata de potenciais erros de identificação e consequências inesperadas para criadores estabelecidos.

O Curioso Caso dos Canais Vinculados

A polêmica começou com o YouTuber Enderman, que administrava um popular canal de tecnologia com mais de 350.000 assinantes. Enderman sabia que seu canal estava em perigo depois que um canal menor que ele administrava já havia sido banido. A política do YouTube impede que os criadores contornem as proibições criando contas alternativas, já que a plataforma vincula as contas dos usuários e encerrará os canais associados.

No entanto, o motivo da demissão de Enderman foi particularmente desconcertante. De acordo com uma notificação recebida do YouTube, seu canal estava conectado a um canal em idioma diferente do inglês que já havia sido encerrado por acumular três ou mais avisos de direitos autorais. Esse tipo de conexão entre canais tem sido uma tática de fiscalização conhecida do YouTube.

Enderman afirma que não tinha conexão com o canal em japonês, traduzido como “Momiji joga Honkai: Star Rail Adventures”, e não sabia de sua existência antes dos acontecimentos recentes. Ele argumenta que o encerramento foi baseado em uma associação imprecisa entre seu canal e o anteriormente banido.

Uma tendência crescente de rescisões semelhantes

Enderman não é um caso isolado. Nos últimos dias, vários grandes canais do YouTube – incluindo Scratchit Gaming (mais de 402.000 assinantes) e 4.096 (cerca de meio milhão de assinantes) – relataram rescisões semelhantes. Esses canais também foram citados por supostas conexões com o mesmo canal japonês.

O problema é agravado pela crescente frequência de encerramento de canais sob a bandeira de “spam, práticas enganosas e política fraudulenta”, muitas vezes sem explicação clara ou oportunidade de recurso eficaz.

Culpando o aumento da moderação da IA

A onda de encerramentos inexplicáveis de canais levou muitos criadores a questionar o papel da IA no sistema de moderação do YouTube. Antes de seu canal ser banido, Enderman expressou preocupação sobre a crescente dependência do YouTube da IA ​​para tomar decisões relativas ao encerramento de canais. Isto é particularmente preocupante porque sugere que decisões com consequências significativas para os criadores estão a ser tomadas sem supervisão humana.

Outros YouTubers expressaram essas preocupações, criticando o processo de apelação baseado em IA da plataforma, que eles acreditam não responder e carecer de transparência.

Política e investimento em IA do YouTube

O YouTube tem aumentado constantemente o seu investimento em ferramentas de moderação baseadas em IA, especialmente para anúncios em vídeo. No início deste ano, a empresa anunciou o uso da tecnologia de modelo de linguagem grande (LLM) para revisar o conteúdo do anúncio, complementando os revisores humanos.

De acordo com a própria política do YouTube, a empresa utiliza uma combinação de revisão automatizada e humana para conteúdo não publicitário. No entanto, a política também afirma que os sistemas automatizados podem tomar uma decisão automatizada quando têm um “alto grau de confiança” de que o conteúdo está em violação. Isto sugere que os sistemas de IA estão a desempenhar um papel cada vez mais importante na determinação do destino dos canais, com intervenção humana limitada.

Respostas do YouTube e canais restaurados

ATUALIZAÇÃO: 6 de novembro de 2025, 11h41 EST O YouTube entrou em contato com o Mashable para fornecer uma atualização sobre a situação. A empresa anunciou que restabeleceu os canais Enderman, Andrewman, Tarkin, Scrachit Gaming e 4096. Um porta-voz do YouTube também afirmou que as rescisões iniciais não foram determinadas por aplicação automatizada.

A situação levanta questões importantes sobre o equilíbrio entre a aplicação automatizada e a supervisão humana na moderação de conteúdo, e o potencial dos sistemas de IA tomarem decisões imprecisas ou injustas que impactam os criadores e suas comunidades.