In tegenstelling tot de wijdverbreide angst dat kunstmatige intelligentie de cybercriminaliteit onmiddellijk zou aanwakkeren, suggereert een nieuwe studie dat de realiteit veel alledaagser is. Uit onderzoek van de Universiteit van Edinburgh blijkt dat cybercriminelen moeite hebben om AI in hun activiteiten te integreren, en vinden dat de technologie grotendeels ineffectief is voor geavanceerde aanvallen.
Hoewel de digitale onderwereld grote belangstelling heeft getoond voor AI-instrumenten, is de technologie er niet in geslaagd hun methoden radicaal te veranderen. In plaats van een nieuw soort ‘superhackers’ te creëren, heeft AI vooral gediend als een klein gemak voor routinetaken, waardoor complexe criminele activiteiten grotendeels ongewijzigd zijn gebleven.
De mythe van de AI-aangedreven hacker
De bevindingen komen uit een uitgebreide analyse van meer dan 100 miljoen forumberichten die via de CrimeBB-database uit ondergrondse gemeenschappen zijn verzameld. Door handmatige beoordeling te combineren met Large Language Model (LLM)-analyse, probeerden onderzoekers vast te stellen of AI de mogelijkheden van kwaadwillende actoren verbeterde.
De resultaten waren grimmig: er is geen significant bewijs dat hackers met succes AI hebben gebruikt om hun inbraaktechnieken te verbeteren, betere malware te ontwikkelen of beveiligingsmaatregelen effectiever te omzeilen.
“Veel van de recensies en discussies beschrijven [AI]-tools als niet bijzonder nuttig”, merkt het onderzoek op.
Het kernprobleem lijkt een tekort aan vaardigheden te zijn. AI-coderingsassistenten zijn ontworpen om bestaande programmeerkennis uit te breiden en niet te vervangen. Voor cybercriminelen die geen diepgaande technische expertise hebben, biedt AI weinig voordeel. Zoals een in het onderzoek geciteerde forumpost ronduit stelde: “Je moet eerst zelf de kneepjes van het programmeren leren voordat je AI kunt gebruiken en er ECHT voordeel uit kunt halen.”
Waar AI daadwerkelijk wordt gebruikt
Als AI hackers niet helpt in te breken in systemen, wat doen ze er dan mee? Het onderzoek identificeert een beperkt aantal toepassingen waarbij AI een tastbare, zij het beperkte, impact heeft gehad:
- Sociale media-automatisering: Bots maken voor betrokkenheid of spam.
- Romantische oplichting: Het genereren van overtuigende maar algemene dialogen voor fraudeurs.
- SEO-fraude: Massaproductie van inhoud van lage kwaliteit om de ranking van zoekmachines te manipuleren.
- Nepwebsites: Sites maken die zijn ontworpen om advertentie-inkomsten binnen te halen via misleidende rangschikkingsstrategieën.
Deze activiteiten zijn grotendeels geautomatiseerd en vereisen niet de geavanceerde technische bekwaamheid die cybercriminaliteit op hoog niveau definieert. Voor ervaren hackers blijft het primaire nut van AI triviaal: het gebruik van chatbots om elementaire codeervragen te beantwoorden of om snelle referentie-‘cheatsheets’ te genereren.
Het falen van gespecialiseerde misdaad-AI
Interessant is dat uit het onderzoek blijkt dat cybercriminelen grotendeels AI-modellen negeren die specifiek zijn ontworpen voor illegale doeleinden, zoals WormGPT, dat op de markt werd gebracht om te helpen bij het schrijven van malware en phishing-e-mails. In plaats daarvan geven ze de voorkeur aan reguliere, legitieme producten zoals Anthropic’s Claude of OpenAI’s Codex.
Deze voorkeur heeft een nieuw knelpunt gecreëerd. Omdat deze legitieme modellen robuuste veiligheidsvoorzieningen hebben, zoeken cybercriminelen voortdurend naar manieren om deze te omzeilen. Uit onderzoek blijkt echter dat deze inspanningen grotendeels mislukken. Hackers vinden het moeilijk om de veiligheidsinstellingen van grote AI-aanbieders te ‘jailbreaken’ of te omzeilen.
Als gevolg daarvan zijn velen gedwongen om over te schakelen op oudere, open-sourcemodellen die gemakkelijker te manipuleren zijn. Deze alternatieven zijn echter minder capabel en vereisen vaak aanzienlijke rekenkracht om effectief te kunnen werken, waardoor potentiële efficiëntiewinsten teniet worden gedaan.
Vangrails houden stand
De bredere implicatie van dit onderzoek is geruststellend voor de cyberbeveiligingsindustrie. De veiligheidsmechanismen die door grote AI-ontwikkelaars zijn geïmplementeerd, blijken effectief. Cybercriminelen zijn niet gemakkelijk in staat deze systemen te dwingen schadelijke code te genereren of beveiligingsprotocollen te omzeilen.
Hoewel de aantrekkingskracht van AI-gestuurde misdaad een krachtig verhaal blijft, suggereren de gegevens dat menselijke expertise de belangrijkste motor blijft van geavanceerde cyberaanvallen. AI is voorlopig geen kortere weg naar succes voor de digitale crimineel; het is slechts een ander hulpmiddel dat vaardigheid vereist om effectief te kunnen hanteren.
Conclusie: De integratie van AI in cybercriminaliteit is tot stilstand gekomen vanwege technische beperkingen en effectieve veiligheidsvoorzieningen. In plaats van hackers de macht te geven, is AI grotendeels gedegradeerd tot automatiseringstaken op een laag niveau, wat bewijst dat geavanceerde cyberdreigingen nog steeds afhankelijk zijn van menselijke vaardigheden in plaats van kunstmatige hulp.