Na rozdíl od rozšířeného strachu, že umělá inteligence okamžitě posílí kybernetickou kriminalitu, nový výzkum ukazuje, že realita je mnohem prozaičtější. Studie z University of Edinburgh naznačuje, že kyberzločinci čelí obtížím při integraci umělé inteligence do svých činností, přičemž tuto technologii považují za v podstatě neúčinnou k provádění sofistikovaných útoků.

Přestože účastníci “digitálního undergroundu” projevili živý zájem o nástroje založené na umělé inteligenci, technologie nedokázala jejich metody zvrátit. Místo příchodu nové generace “super hackerů” se AI v podstatě stala menším pomocníkem pro rutinní úkoly, takže složité kriminální činy zůstaly do značné míry nezměněny.

Mýtus o hackerovi, ozbrojené AI

Data pocházejí z komplexní analýzy více než * *100 milionů příspěvků * * na fórech shromážděných z podzemních komunit prostřednictvím databáze CrimeBB. Kombinací ručního přehledu s analýzou pomocí velkých jazykových modelů (LLM) se vědci pokusili zjistit, zda AI zlepšuje schopnosti útočníků.

Výsledky byly jednoznačné: * * neexistují žádné podstatné důkazy**, že hackeři úspěšně použili AI ke zlepšení technik hackování, vytvoření účinnějšího malwaru nebo úspěšnějšímu obcházení bezpečnostních systémů.

“Mnoho recenzí a diskusí popisuje nástroje [AI] jako nepříliš užitečné,” poznamenává studie.

Zdá se, že hlavním problémem je zlom v dovednostech. Ai programovací asistenty jsou navrženy tak, aby doplňovaly stávající znalosti kódování, nikoli aby je nahradily. Pro kybernetické zločince, kteří nemají hluboké technické znalosti, AI poskytuje jen málo výhod. Jak je výslovně uvedeno v jednom z příspěvků na fórech citovaných ve studii:*”nejprve si musíte osvojit základy programování sami, než použijete AI a získáte z toho skutečný užitek.” *

Kde se AI skutečně používá

Pokud AI nepomůže hackerům hackovat systémy, k čemu je používají? Studie odhaluje úzkou škálu aplikací, kde AI měla hmatatelný, i když omezený dopad:

      • Automatizace sociálních médií: * * vytváření robotů pro interakci s publikem nebo zasílání spamu.
      • Romantické podvody: * * generování přesvědčivých, ale šablonových dialogů pro podvodníky.
      • SEO podvody: * * hromadná výroba nekvalitního obsahu pro manipulaci s pozicemi ve vyhledávačích.
      • Falešné stránky: * * vytváření webů, které mají shromažďovat příjmy z reklamy podváděním algoritmů hodnocení.

Tyto aktivity jsou do značné míry automatizované a nevyžadují sofistikované technické dovednosti charakteristické pro vysokou úroveň kybernetické kriminality. Pro zkušené hackery zůstává hlavní užitečnost AI triviální: použití chatbotů k zodpovězení základních programovacích otázek nebo generování rychlých pomocných “taháků”.

Selhání specializované AI pro zločiny

Je zajímavé, co studie zjistila: kyberzločinci do značné míry ignorují modely AI speciálně navržené pro nezákonné účely, jako je WormGPT, který byl umístěn jako pomocník při psaní malwaru a phishingových e-mailů. Místo toho dávají přednost mainstreamovým legálním produktům, jako je Claude od Anthropic nebo Codex od OpenAI.

Tato preference vytvořila nové úzké místo. Vzhledem k tomu, že tyto legální modely mají spolehlivé bezpečnostní mechanismy, kyberzločinci neustále hledají způsoby, jak je obejít. Studie však ukazují, že tyto pokusy většinou selhávají. Pro hackery je těžké “útěk z vězení” nebo přepsat nastavení zabezpečení velkých dodavatelů AI.

V důsledku toho mnozí musí přejít na starší open source modely, které se snáze padělají. Tyto alternativy jsou však * * méně výkonné* * a často vyžadují značné výpočetní zdroje, aby fungovaly efektivně, což nivelizuje jakýkoli potenciální přínos v efektivitě.

Bezpečnostní mechanismy fungují

Širší důsledek této studie je povzbudivý pro průmysl kybernetické bezpečnosti. Bezpečnostní mechanismy zavedené velkými vývojáři AI jsou účinné. Kyberzločinci nemohou tyto systémy snadno přinutit ke generování škodlivého kódu nebo obcházení bezpečnostních protokolů.

Zatímco přitažlivost zločinů řízených AI zůstává silným narativem, důkazy naznačují, že lidská odbornost zůstává hlavním hnacím motorem sofistikovaných kybernetických útoků. AI, alespoň prozatím, není nejkratší cestou k úspěchu pro digitálního zločince; je to jen další nástroj, který vyžaduje dovednosti pro efektivní použití.

    • Závěr: * * integrace AI do kybernetické kriminality se zastavila kvůli technickým omezením a účinným bezpečnostním mechanismům. Místo toho, aby poskytovala hackerům superschopnosti, byla AI v podstatě omezena na úkoly nízkoúrovňové automatizace, což dokazuje, že sofistikované kybernetické hrozby jsou stále závislé na lidských dovednostech, nikoli na umělé pomoci.