O Reddit está tomando medidas diretas contra a onda crescente de bots que inundam sua plataforma, implementando novos requisitos de verificação para contas sinalizadas como suspeitas. Esta medida segue um exemplo recente de um concorrente, o Digg, que entrou em colapso sob o peso da atividade descontrolada de bots, e sublinha a crise crescente de contas automatizadas que perturbam os espaços online.
Identificando e abordando atividades de bot
A plataforma rotulará contas automatizadas que fornecem serviços legítimos, refletindo a abordagem de X para “bons bots”. No entanto, o Reddit agora exigirá verificação humana de contas que apresentem comportamento que sugira automação. Este não é um mandato para todo o site; a verificação é acionada apenas quando atividades ou sinais técnicos levantam sinais de alerta. As contas que não forem verificadas podem enfrentar restrições.
As ferramentas de detecção do Reddit analisam sinais no nível da conta, incluindo velocidade de postagem, para identificar bots em potencial. Embora o uso de IA para criar conteúdo não seja contra a política, o aumento nas postagens geradas por bots é a principal preocupação. A empresa aproveitará métodos de verificação de terceiros, como chaves de acesso (Apple, Google, YubiKey) e serviços biométricos (Face ID, World ID), priorizando a privacidade. Em certas regiões (Reino Unido, Austrália, alguns estados dos EUA), a verificação de identidade governamental pode ser necessária devido a regulamentações locais – embora o Reddit prefira evitar esse método.
“Nosso objetivo é confirmar que há uma pessoa por trás da conta, e não quem é essa pessoa… Você não deveria ter que sacrificar um pelo outro.”
– Steve Huffman, cofundador e CEO do Reddit
O contexto mais amplo: um futuro dominado por bots?
A repressão ocorre no momento em que se prevê que o tráfego de bots ultrapassará o tráfego humano até 2027, incluindo rastreadores da web e agentes de IA. O Reddit se tornou o principal alvo de bots que manipulam narrativas, astroturfing (falso apoio popular), spam e direcionamento de tráfego fraudulento. De forma crítica, o conteúdo da plataforma alimenta modelos de treino de IA, levantando suspeitas de que os bots estão a gerar intencionalmente dados de treino em áreas onde a IA é deficiente.
Esta situação realça a “teoria da Internet morta” que está a ganhar força: a ideia de que a actividade online é cada vez mais dominada pela automatização em vez da interacção humana genuína. A mudança para agentes de IA está a tornar isto uma realidade. O Reddit anunciou planos para verificação humana no ano passado, mas agora está refinando sua abordagem, buscando soluções descentralizadas e privadas que evitem depender de requisitos de identificação.
Os riscos são altos. A atividade não controlada de bots mina a confiança online, distorce os ecossistemas de informação e ameaça a integridade das plataformas sociais. A resposta agressiva do Reddit sinaliza o reconhecimento de que medidas proativas são essenciais para preservar uma comunidade online funcional.




















