Entgegen der weit verbreiteten Befürchtung, dass künstliche Intelligenz die Cyberkriminalität sofort ankurbeln würde, legt eine neue Studie nahe, dass die Realität weitaus banaler ist. Untersuchungen der Universität Edinburgh zeigen, dass Cyberkriminelle Schwierigkeiten haben, KI in ihre Abläufe zu integrieren, da sie die Technologie für komplexe Angriffe weitgehend unwirksam halten.

Während die digitale Unterwelt großes Interesse an KI-Tools bekundet hat, ist es der Technologie nicht gelungen, ihre Methoden zu revolutionieren. Anstatt eine neue Generation von „Super-Hackern“ zu schaffen, diente KI in erster Linie als kleine Erleichterung für Routineaufgaben, während komplexe kriminelle Aktivitäten weitgehend unverändert blieben.

Der Mythos vom KI-gestützten Hacker

Die Ergebnisse stammen aus einer umfassenden Analyse von über 100 Millionen Forenbeiträgen, die über die CrimeBB-Datenbank aus Untergrundgemeinschaften gesammelt wurden. Durch die Kombination manueller Überprüfung mit der Large Language Model (LLM)-Analyse wollten Forscher herausfinden, ob KI die Fähigkeiten böswilliger Akteure verbessert.

Die Ergebnisse waren eindeutig: Es gibt keine signifikanten Beweise dafür, dass Hacker KI erfolgreich eingesetzt haben, um ihre Einbruchstechniken zu verbessern, bessere Malware zu entwickeln oder Sicherheitsmaßnahmen effektiver zu umgehen.

„Viele der Rezensionen und Diskussionen beschreiben [KI-]Tools als nicht besonders nützlich“, heißt es in der Studie.

Das Kernproblem scheint ein Qualifikationsdefizit zu sein. KI-Codierungsassistenten sollen vorhandene Programmierkenntnisse erweitern und nicht ersetzen. Für Cyberkriminelle, denen es an fundiertem technischem Fachwissen mangelt, bietet KI kaum Vorteile. In einem in der Studie zitierten Forumsbeitrag heißt es unverblümt: „Sie müssen sich zunächst selbst mit den Grundlagen des Programmierens vertraut machen, bevor Sie KI nutzen und WIRKLICH davon profitieren können.“*

Wo KI tatsächlich eingesetzt wird

Wenn KI Hackern nicht dabei hilft, in Systeme einzudringen, was machen sie dann damit? Die Studie identifiziert einen engen Bereich von Anwendungen, bei denen KI spürbare, wenn auch begrenzte Auswirkungen hatte:

  • Social-Media-Automatisierung: Erstellen von Bots für Engagement oder Spam.
  • Romance Scams: Generieren überzeugender, aber allgemeiner Dialoge für Betrüger.
  • SEO-Betrug: Massenproduktion minderwertiger Inhalte zur Manipulation von Suchmaschinen-Rankings.
  • Gefälschte Websites: Erstellen von Websites, die darauf ausgelegt sind, durch irreführende Ranking-Strategien Werbeeinnahmen zu erzielen.

Diese Aktivitäten sind weitgehend automatisiert und erfordern nicht die ausgefeilten technischen Fähigkeiten, die für hochgradige Cyberkriminalität kennzeichnend sind. Für erfahrene Hacker bleibt der Hauptnutzen von KI trivial: die Verwendung von Chatbots zur Beantwortung grundlegender Programmierfragen oder zur Erstellung von Kurzreferenz-„Spickzetteln“.

Das Scheitern der Spezialkriminalitäts-KI

Interessanterweise ergab die Studie, dass Cyberkriminelle KI-Modelle, die speziell für illegale Zwecke entwickelt wurden, weitgehend ignorieren, wie beispielsweise WormGPT, das vermarktet wurde, um beim Schreiben von Malware- und Phishing-E-Mails zu helfen. Stattdessen bevorzugen sie legitime Mainstream-Produkte wie Claude von Anthropic oder Codex von OpenAI.

Diese Präferenz hat einen neuen Engpass geschaffen. Da diese legitimen Modelle über robuste Sicherheitsleitplanken verfügen, suchen Cyberkriminelle ständig nach Möglichkeiten, diese zu umgehen. Allerdings deuten die Untersuchungen darauf hin, dass diese Bemühungen größtenteils scheitern. Hacker haben Schwierigkeiten, die Sicherheitseinstellungen großer KI-Anbieter zu „jailbreaken“ oder außer Kraft zu setzen.

Infolgedessen sind viele gezwungen, auf ältere Open-Source-Modelle umzusteigen, die einfacher zu manipulieren sind. Diese Alternativen sind jedoch weniger leistungsfähig und erfordern häufig erhebliche Rechenressourcen, um effektiv zu funktionieren, wodurch potenzielle Effizienzgewinne zunichte gemacht werden.

Leitplanken halten

Die umfassenderen Auswirkungen dieser Studie sind für die Cybersicherheitsbranche beruhigend. Die von großen KI-Entwicklern implementierten Sicherheitsmechanismen erweisen sich als wirksam. Cyberkriminelle können diese Systeme nicht ohne weiteres dazu zwingen, schädlichen Code zu generieren oder Sicherheitsprotokolle zu umgehen.

Während der Reiz der KI-gesteuerten Kriminalität nach wie vor ein starkes Narrativ darstellt, deuten die Daten darauf hin, dass menschliches Fachwissen nach wie vor der Haupttreiber raffinierter Cyberangriffe ist. KI ist für den digitalen Kriminellen vorerst keine Abkürzung zum Erfolg; Es handelt sich lediglich um ein weiteres Werkzeug, dessen effektive Handhabung Geschicklichkeit erfordert.

Schlussfolgerung: Die Integration von KI in die Cyberkriminalität ist aufgrund technischer Einschränkungen und wirksamer Sicherheitsleitplanken ins Stocken geraten. Anstatt Hackern mehr Möglichkeiten zu geben, wurde die KI größtenteils auf Automatisierungsaufgaben auf niedriger Ebene beschränkt. Dies beweist, dass hochentwickelte Cyber-Bedrohungen noch immer auf menschlichem Können und nicht auf künstlicher Unterstützung beruhen.