Contrariamente al timore diffuso che l’intelligenza artificiale possa potenziare istantaneamente la criminalità informatica, un nuovo studio suggerisce che la realtà è molto più banale. Una ricerca dell’Università di Edimburgo indica che i criminali informatici stanno lottando per integrare l’intelligenza artificiale nelle loro operazioni, trovando la tecnologia in gran parte inefficace per attacchi sofisticati.
Sebbene il mondo criminale digitale abbia espresso vivo interesse per gli strumenti di intelligenza artificiale, la tecnologia non è riuscita a rivoluzionare i loro metodi. Invece di creare una nuova generazione di “super-hacker”, l’intelligenza artificiale è servita principalmente come una comodità minore per compiti di routine, lasciando sostanzialmente invariate le attività criminali complesse.
Il mito dell’hacker dotato di intelligenza artificiale
I risultati provengono da un’analisi completa di oltre 100 milioni di post sui forum recuperati dalle comunità sotterranee tramite il database CrimeBB. Combinando la revisione manuale con l’analisi LLM (Large Language Model), i ricercatori hanno cercato di determinare se l’intelligenza artificiale stesse migliorando le capacità degli autori malintenzionati.
I risultati sono stati netti: non esistono prove significative che gli hacker abbiano utilizzato con successo l’intelligenza artificiale per migliorare le proprie tecniche di intrusione, sviluppare malware migliori o aggirare le misure di sicurezza in modo più efficace.
“Molte revisioni e discussioni descrivono gli strumenti [AI] come non particolarmente utili”, osserva lo studio.
Il problema principale sembra essere il divario di competenze. Gli assistenti di codifica AI sono progettati per aumentare le conoscenze di programmazione esistenti, non per sostituirle. Per i criminali informatici privi di competenze tecniche approfondite, l’intelligenza artificiale offre pochi vantaggi. Come affermato senza mezzi termini in un post del forum citato nello studio: “Devi prima imparare i fondamenti della programmazione da solo prima di poter utilizzare l’intelligenza artificiale e trarne REALMENTE beneficio.”
Dove viene effettivamente utilizzata l’intelligenza artificiale
Se l’intelligenza artificiale non aiuta gli hacker a penetrare nei sistemi, cosa ne fanno? Lo studio identifica una gamma ristretta di applicazioni in cui l’intelligenza artificiale ha avuto un impatto tangibile, anche se limitato:
- Automazione dei social media: Creazione di bot per coinvolgimento o spam.
- Truffe romantiche: Generazione di dialoghi convincenti ma generici per i truffatori.
- Frode SEO: Produzione di massa di contenuti di bassa qualità per manipolare il posizionamento nei motori di ricerca.
- Siti web falsi: creazione di siti progettati per raccogliere entrate pubblicitarie attraverso strategie di ranking ingannevoli.
Queste attività sono in gran parte automatizzate e non richiedono le sofisticate capacità tecniche che definiscono la criminalità informatica di alto livello. Per gli hacker esperti, l’utilità principale dell’intelligenza artificiale rimane banale: utilizzare i chatbot per rispondere a domande di programmazione di base o generare “cheatsheet” di riferimento rapido.
Il fallimento dell’intelligenza artificiale criminale specializzata
È interessante notare che lo studio ha scoperto che i criminali informatici ignorano in gran parte i modelli di intelligenza artificiale appositamente progettati per scopi illeciti, come WormGPT, commercializzato per aiutare a scrivere malware ed e-mail di phishing. Preferiscono invece prodotti mainstream e legittimi come Claude di Anthropic o Codex di OpenAI.
Questa preferenza ha creato un nuovo collo di bottiglia. Poiché questi modelli legittimi sono dotati di robuste barriere di sicurezza, i criminali informatici sono costantemente alla ricerca di modi per aggirarle. Tuttavia, la ricerca suggerisce che questi sforzi stanno in gran parte fallendo. Gli hacker hanno difficoltà a effettuare il “jailbreak” o a ignorare le impostazioni di sicurezza dei principali fornitori di intelligenza artificiale.
Di conseguenza, molti sono costretti a ricorrere a modelli open source più vecchi e più facili da manipolare. Queste alternative, tuttavia, sono meno capaci e spesso richiedono notevoli risorse computazionali per funzionare in modo efficace, annullando qualsiasi potenziale guadagno in termini di efficienza.
I guardrail reggono
Le implicazioni più ampie di questo studio sono rassicuranti per il settore della sicurezza informatica. I meccanismi di sicurezza implementati dai principali sviluppatori di IA si stanno dimostrando efficaci. I criminali informatici non sono facilmente in grado di costringere questi sistemi a generare codice dannoso o a bypassare i protocolli di sicurezza.
Sebbene il fascino della criminalità guidata dall’intelligenza artificiale rimanga una narrazione potente, i dati suggeriscono che la competenza umana rimane il motore principale degli attacchi informatici sofisticati. L’intelligenza artificiale, per ora, non è una scorciatoia verso il successo per il criminale digitale; è semplicemente un altro strumento che richiede abilità per essere maneggiato in modo efficace.
Conclusione: L’integrazione dell’intelligenza artificiale nella criminalità informatica è in fase di stallo a causa di limitazioni tecniche e di efficaci barriere di sicurezza. Invece di dare potere agli hacker, l’intelligenza artificiale è stata in gran parte relegata a compiti di automazione di basso livello, dimostrando che le minacce informatiche sofisticate dipendono ancora dalle abilità umane piuttosto che dall’assistenza artificiale.