Plusieurs chaînes YouTube de premier plan, comptant des centaines de milliers d’abonnés, ont récemment été brusquement fermées, laissant les créateurs perplexes et pointant du doigt le recours croissant de la plateforme à l’intelligence artificielle (IA) pour la modération du contenu. La situation met en lumière des inquiétudes croissantes quant à l’équité et à l’exactitude de l’application automatisée des politiques de YouTube, en particulier en ce qui concerne les erreurs d’identification potentielles et les conséquences inattendues pour les créateurs établis.
L’étrange cas des chaînes liées
La controverse a commencé avec YouTuber Enderman, qui exploitait une chaîne technologique populaire comptant plus de 350 000 abonnés. Enderman savait que sa chaîne était en danger après qu’une petite chaîne qu’il gérait avait déjà été interdite. La politique de YouTube empêche les créateurs de contourner les interdictions en créant des comptes alternatifs, car la plateforme lie les comptes d’utilisateurs et mettra fin aux chaînes associées.
Cependant, la raison du licenciement d’Enderman était particulièrement perplexe. Selon une notification reçue de YouTube, sa chaîne était connectée à une chaîne dans une langue autre que l’anglais qui avait déjà été fermée pour avoir accumulé au moins trois avertissements pour atteinte aux droits d’auteur. Ce type de connexion entre les chaînes est une tactique d’application connue de YouTube.
Enderman affirme qu’il n’avait aucun lien avec la chaîne en langue japonaise, traduite par « Momiji joue Honkai : Star Rail Adventures », et qu’il ignorait son existence avant les récents événements. Il fait valoir que la résiliation était basée sur une association inexacte entre sa chaîne et celle précédemment interdite.
Une tendance croissante de licenciements similaires
Enderman n’est pas un cas isolé. Au cours des derniers jours, plusieurs grandes chaînes YouTube – dont Scratchit Gaming (plus de 402 000 abonnés) et 4096 (environ un demi-million d’abonnés) – ont signalé des résiliations similaires. Ces chaînes ont également été citées pour des liens présumés avec la même chaîne japonaise.
Le problème est aggravé par la fréquence croissante de chaînes fermées sous la bannière du « spam, des pratiques trompeuses et des politiques d’escroquerie », souvent sans explication claire ni possibilité de recours efficace.
Blâmer la montée de la modération de l’IA
La vague de fermetures inexpliquées de chaînes a incité de nombreux créateurs à s’interroger sur le rôle de l’IA dans le système de modération de YouTube. Avant que sa chaîne ne soit interdite, Enderman avait exprimé ses inquiétudes quant à la dépendance croissante de YouTube à l’égard de l’IA pour prendre des décisions concernant la fermeture de chaînes. Cela est particulièrement préoccupant car cela suggère que des décisions ayant des conséquences importantes pour les créateurs sont prises sans surveillance humaine.
D’autres YouTubers ont fait écho à ces préoccupations, critiquant le processus d’appel de la plateforme, basé sur l’IA, qui, selon eux, manque de réponse et de transparence.
Investissement et politique de YouTube en matière d’IA
YouTube n’a cessé d’augmenter ses investissements dans les outils de modération basés sur l’IA, en particulier pour les publicités vidéo. Plus tôt cette année, la société a annoncé son utilisation de la technologie LLM (Large Language Model) pour examiner le contenu publicitaire, en complément des évaluateurs humains.
Selon la propre politique de YouTube, la société utilise une combinaison d’examens automatisés et humains pour le contenu non publicitaire. Cependant, la politique stipule également que les systèmes automatisés peuvent prendre une décision automatisée lorsqu’ils ont un « degré élevé de confiance » dans le fait qu’un contenu est en infraction. Cela suggère que les systèmes d’IA jouent un rôle de plus en plus important dans la détermination du sort des chaînes, avec une intervention humaine limitée.
Réponses YouTube et chaînes restaurées
MISE À JOUR : 6 novembre 2025, 11 h 41 HNE YouTube a contacté Mashable pour fournir une mise à jour sur la situation. La société a annoncé avoir rétabli les chaînes Enderman, Andrewman, Tarkin, Scrachit Gaming et 4096. Un porte-parole de YouTube a également déclaré que les résiliations initiales n’étaient pas déterminées par une application automatisée.
La situation soulève d’importantes questions sur l’équilibre entre l’application automatisée et la surveillance humaine de la modération du contenu, ainsi que sur la possibilité pour les systèmes d’IA de prendre des décisions inexactes ou injustes qui ont un impact sur les créateurs et leurs communautés.