Reddit podejmuje zdecydowane działania przeciwko rosnącej fali botów przetaczających się po platformie, wprowadzając nowe wymagania dotyczące weryfikacji kont oznaczonych jako podejrzane. Posunięcie to jest następstwem niedawnej sprawy firmy Digg, która upadła pod ciężarem niekontrolowanej aktywności botów, i uwydatnia pogłębiający się kryzys zautomatyzowanych kont zakłócających przestrzeń internetową.
Identyfikowanie i zwalczanie aktywności botów
Platforma będzie oznaczać automatyczne konta świadczące legalne usługi, wzorując się na przykładzie „dobrych botów” X. Jednak Reddit będzie teraz wymagał weryfikacji tożsamości kont, które wykazują zachowanie wskazujące na automatyzację. Nie jest to wymóg uniwersalny; weryfikacja uruchamiana jest tylko w przypadku wykrycia podejrzanej aktywności lub sygnałów technicznych. Niezweryfikowane konta mogą podlegać ograniczeniom.
Narzędzia wykrywające Reddit analizują sygnały na poziomie konta, w tym częstotliwość wysyłania, w celu identyfikacji potencjalnych botów. Chociaż używanie sztucznej inteligencji do tworzenia treści nie jest sprzeczne z zasadami, poważnym problemem jest gwałtowny wzrost liczby postów generowanych przez boty. Firma będzie korzystać z metod weryfikacji stron trzecich, takich jak klucze bezpieczeństwa (Apple, Google, YubiKey) i usługi biometryczne (Face ID, World ID), traktując priorytetowo prywatność. Niektóre regiony (Wielka Brytania, Australia, niektóre stany USA) mogą wymagać weryfikacji tożsamości w celu zapewnienia zgodności z lokalnymi przepisami – chociaż Reddit woli unikać tej metody.
„Naszym celem jest upewnienie się, że za kontem stoi prawdziwa osoba, a nie to, kim ta osoba jest… Nie powinno być potrzeby poświęcania jednego dla drugiego”.
– Steve Huffman, współzałożyciel i dyrektor generalny Reddit
Szerszy kontekst: przyszłość opanowana przez boty?
Intensyfikacja walki z botami wynika z przewidywań, że do 2027 r. ruch botów przewyższy ruch ludzki, w tym ruch robotów internetowych i agentów AI. Reddit stał się głównym celem botów manipulujących narracjami, tworzących fałszywe wsparcie (astroturfing), spamujących i generujących oszukańczy ruch. Należy zauważyć, że zawartość platformy służy do uczenia modeli sztucznej inteligencji, co budzi podejrzenia, że boty celowo generują dane szkoleniowe w obszarach, w których brakuje sztucznej inteligencji.
Sytuacja ta uwydatnia coraz popularniejszą „teorię martwego Internetu”: pogląd, że aktywność online jest w coraz większym stopniu zdominowana przez automatyzację, a nie rzeczywistą interakcję między ludźmi. Przejście na agentów AI sprawia, że staje się to rzeczywistością. Reddit ogłosił plany weryfikacji tożsamości w zeszłym roku, ale obecnie udoskonala swoje podejście, dążąc do rozwiązań zdecentralizowanych i prywatnych, unikając konieczności polegania na wymogach dotyczących tożsamości.
Stawka jest wysoka. Niekontrolowana aktywność botów podważa zaufanie w Internecie, zakłóca ekosystemy informacyjne i zagraża integralności platform społecznościowych. Silna reakcja Reddita sygnalizuje uznanie, że do utrzymania funkcjonalnej społeczności internetowej konieczne są proaktywne działania.
