Reddit ergreift direkte Maßnahmen gegen die zunehmende Flut von Bots, die seine Plattform überschwemmen, und führt neue Verifizierungsanforderungen für als verdächtig gekennzeichnete Konten ein. Dieser Schritt folgt auf ein aktuelles Beispiel, bei dem ein Konkurrent, Digg, unter der Last unkontrollierter Bot-Aktivitäten zusammenbricht, und unterstreicht die wachsende Krise automatisierter Konten, die Online-Bereiche stören.
Identifizieren und Behandeln von Bot-Aktivitäten
Die Plattform wird automatisierte Konten kennzeichnen, die legitime Dienste bereitstellen, was den Ansatz von X gegenüber „guten Bots“ widerspiegelt. Allerdings verlangt Reddit nun eine menschliche Verifizierung von Konten, deren Verhalten auf eine Automatisierung schließen lässt. Dies ist kein standortweites Mandat; Die Verifizierung wird nur dann ausgelöst, wenn Aktivität oder technische Signale Warnsignale auslösen. Für Konten, bei denen die Verifizierung fehlschlägt, können Einschränkungen gelten.
Die Erkennungstools von Reddit analysieren Signale auf Kontoebene, einschließlich der Posting-Geschwindigkeit, um potenzielle Bots zu identifizieren. Auch wenn der Einsatz von KI zum Erstellen von Inhalten nicht gegen die Richtlinien verstößt, ist der Anstieg der von Bots generierten Beiträge ein Hauptanliegen. Das Unternehmen wird Verifizierungsmethoden von Drittanbietern wie Passkeys (Apple, Google, YubiKey) und biometrische Dienste (Face ID, World ID) nutzen und dabei den Datenschutz in den Vordergrund stellen. In bestimmten Regionen (Großbritannien, Australien, einige US-Bundesstaaten) kann aufgrund örtlicher Vorschriften eine staatliche Ausweisüberprüfung erforderlich sein – Reddit möchte diese Methode jedoch lieber vermeiden.
„Unser Ziel ist es, zu bestätigen, dass hinter dem Konto eine Person steht, und nicht, wer diese Person ist … Sie sollten nicht das eine für das andere opfern müssen.“
– Steve Huffman, Reddit-Mitbegründer und CEO
Der breitere Kontext: Eine Bot-dominierte Zukunft?
Das Vorgehen erfolgt, da Prognosen zufolge bis 2027 der Bot-Verkehr den menschlichen Verkehr übersteigen wird, einschließlich Webcrawlern und KI-Agenten. Reddit ist zu einem Hauptziel für Bots geworden, die Narrative manipulieren, Astroturfing betreiben (falsche Basisunterstützung), Spam versenden und betrügerischen Datenverkehr fördern. Entscheidend ist, dass der Inhalt der Plattform KI-Trainingsmodelle speist, was den Verdacht aufkommen lässt, dass Bots absichtlich Trainingsdaten in Bereichen generieren, in denen KI mangelhaft ist.
Diese Situation verdeutlicht, dass die „Theorie des toten Internets“ zunehmend an Bedeutung gewinnt: die Idee, dass Online-Aktivitäten zunehmend von Automatisierung und nicht von echter menschlicher Interaktion dominiert werden. Der Wandel hin zu KI-Agenten macht dies Wirklichkeit. Reddit kündigte letztes Jahr Pläne zur menschlichen Verifizierung an, verfeinert nun jedoch seinen Ansatz und sucht nach dezentralen, privaten Lösungen, die sich nicht auf ID-Anforderungen verlassen.
Es steht viel auf dem Spiel. Unkontrollierte Bot-Aktivitäten untergraben das Online-Vertrauen, verzerren Informationsökosysteme und bedrohen die Integrität sozialer Plattformen. Die aggressive Reaktion von Reddit signalisiert die Erkenntnis, dass proaktive Maßnahmen für den Erhalt einer funktionierenden Online-Community unerlässlich sind.




















