Reddit sta agendo direttamente contro la crescente ondata di bot che inondano la sua piattaforma, implementando nuovi requisiti di verifica per gli account segnalati come sospetti. Questa mossa segue il recente esempio di un concorrente, Digg, che crolla sotto il peso dell’attività incontrollata dei bot, e sottolinea la crescente crisi degli account automatizzati che interrompono gli spazi online.

Identificazione e gestione dell’attività dei bot

La piattaforma etichetterà gli account automatizzati che forniscono servizi legittimi, rispecchiando l’approccio di X ai “buoni robot”. Tuttavia, Reddit ora richiederà la verifica umana da parte degli account che mostrano comportamenti che suggeriscono l’automazione. Questo non è un mandato a livello di sito; la verifica viene attivata solo quando attività o segnali tecnici sollevano bandiere rosse. Gli account che non superano la verifica potrebbero essere soggetti a restrizioni.

Gli strumenti di rilevamento di Reddit analizzano i segnali a livello di account, inclusa la velocità di pubblicazione, per identificare potenziali bot. Sebbene l’utilizzo dell’intelligenza artificiale per creare contenuti non sia contrario alla policy, l’aumento dei post generati dai bot è una preoccupazione primaria. L’azienda sfrutterà metodi di verifica di terze parti, come passkey (Apple, Google, YubiKey) e servizi biometrici (Face ID, World ID), dando priorità alla privacy. In alcune regioni (Regno Unito, Australia, alcuni stati degli Stati Uniti), potrebbe essere richiesta la verifica dell’identità governativa a causa delle normative locali, anche se Reddit preferisce evitare questo metodo.

“Il nostro obiettivo è confermare che dietro l’account c’è una persona, non chi è quella persona… Non dovresti sacrificare l’una per l’altra.”
– Steve Huffman, co-fondatore e amministratore delegato di Reddit

Il contesto più ampio: un futuro dominato dai bot?

La repressione arriva quando si prevede che il traffico dei bot supererà il traffico umano entro il 2027, compresi i web crawler e gli agenti di intelligenza artificiale. Reddit è diventato un obiettivo primario per i bot che manipolano narrazioni, astroturfing (falso supporto di base), spam e traffico fraudolento. Fondamentalmente, il contenuto della piattaforma alimenta modelli di formazione sull’intelligenza artificiale, sollevando il sospetto che i robot stiano generando intenzionalmente dati di formazione in aree in cui l’intelligenza artificiale è carente.

Questa situazione evidenzia la “teoria dell’internet morto” che sta guadagnando terreno: l’idea che l’attività online sia sempre più dominata dall’automazione piuttosto che dalla genuina interazione umana. Il passaggio agli agenti IA sta rendendo tutto ciò una realtà. Reddit ha annunciato l’anno scorso piani per la verifica umana, ma ora sta perfezionando il suo approccio, cercando soluzioni private decentralizzate che evitino di fare affidamento sui requisiti di identificazione.

La posta in gioco è alta. L’attività incontrollata dei bot mina la fiducia online, distorce gli ecosistemi informativi e minaccia l’integrità delle piattaforme social. La risposta aggressiva di Reddit segnala il riconoscimento che le misure proattive sono essenziali per preservare una comunità online funzionale.