Reddit prend des mesures directes contre la marée montante de robots inondant sa plateforme, en mettant en œuvre de nouvelles exigences de vérification pour les comptes signalés comme suspects. Cette décision fait suite à l’exemple récent d’un concurrent, Digg, s’effondrant sous le poids d’une activité incontrôlée de robots, et souligne la crise croissante des comptes automatisés perturbant les espaces en ligne.
Identifier et traiter l’activité des robots
La plate-forme étiquettera les comptes automatisés fournissant des services légitimes, reflétant l’approche de X en matière de « bons robots ». Cependant, Reddit exigera désormais une vérification humaine des comptes présentant un comportement suggérant une automatisation. Il ne s’agit pas d’un mandat à l’échelle du site ; la vérification n’est déclenchée que lorsque des signaux d’activité ou techniques déclenchent des signaux d’alarme. Les comptes dont la vérification échoue peuvent être soumis à des restrictions.
Les outils de détection de Reddit analysent les signaux au niveau du compte, notamment la vitesse de publication, pour identifier les robots potentiels. Bien que l’utilisation de l’IA pour créer du contenu ne soit pas contraire à la politique, l’augmentation du nombre de publications générées par des robots est une préoccupation majeure. La société exploitera des méthodes de vérification tierces, telles que des mots de passe (Apple, Google, YubiKey) et des services biométriques (Face ID, World ID), en donnant la priorité à la confidentialité. Dans certaines régions (Royaume-Uni, Australie, certains États américains), une vérification d’identité gouvernementale peut être requise en raison des réglementations locales – bien que Reddit préfère éviter cette méthode.
“Notre objectif est de confirmer qu’il y a une personne derrière le compte, pas qui est cette personne… Vous ne devriez pas avoir à sacrifier l’une pour l’autre.”
– Steve Huffman, co-fondateur et PDG de Reddit
Le contexte plus large : un avenir dominé par les robots ?
Cette répression intervient alors que le trafic des robots devrait dépasser le trafic humain d’ici 2027, y compris les robots d’exploration Web et les agents IA. Reddit est devenu une cible privilégiée pour les robots manipulant les récits, l’astroturfing (faux support populaire), le spam et la génération de trafic frauduleux. Il est important de noter que le contenu de la plateforme alimente les modèles de formation de l’IA, ce qui fait soupçonner que les robots génèrent intentionnellement des données de formation dans des domaines où l’IA est déficiente.
Cette situation met en lumière la « théorie de l’Internet mort » qui gagne du terrain : l’idée selon laquelle l’activité en ligne est de plus en plus dominée par l’automatisation plutôt que par une véritable interaction humaine. L’évolution vers les agents IA en fait une réalité. Reddit a annoncé l’année dernière des projets de vérification humaine, mais affine désormais son approche, en recherchant des solutions décentralisées et privées qui évitent de s’appuyer sur des exigences d’identification.
Les enjeux sont élevés. L’activité incontrôlée des robots sape la confiance en ligne, déforme les écosystèmes d’information et menace l’intégrité des plateformes sociales. La réponse agressive de Reddit témoigne de la reconnaissance du fait que des mesures proactives sont essentielles pour préserver une communauté en ligne fonctionnelle.






















