Contrairement à la crainte largement répandue selon laquelle l’intelligence artificielle pourrait dynamiser instantanément la cybercriminalité, une nouvelle étude suggère que la réalité est bien plus banale. Une étude de l’Université d’Édimbourg indique que les cybercriminels ont du mal à intégrer l’IA dans leurs opérations, trouvant cette technologie largement inefficace pour les attaques sophistiquées.
Même si la pègre du numérique a exprimé un vif intérêt pour les outils d’IA, la technologie n’a pas réussi à révolutionner leurs méthodes. Au lieu de créer une nouvelle race de « super-hackers », l’IA a essentiellement servi de commodité mineure pour les tâches de routine, laissant en grande partie inchangées les activités criminelles complexes.
Le mythe du pirate informatique alimenté par l’IA
Les résultats proviennent d’une analyse complète de plus de 100 millions de messages de forum récupérés dans les communautés clandestines via la base de données CrimeBB. En combinant l’examen manuel avec l’analyse du Large Language Model (LLM), les chercheurs ont cherché à déterminer si l’IA améliorait les capacités des acteurs malveillants.
Les résultats ont été sans appel : il n’existe aucune preuve significative que les pirates ont utilisé avec succès l’IA pour améliorer leurs techniques d’intrusion, développer de meilleurs logiciels malveillants ou contourner plus efficacement les mesures de sécurité.
« De nombreuses analyses et discussions décrivent les outils [d’IA] comme peu utiles », note l’étude.
Le problème central semble être le manque de compétences. Les assistants de codage IA sont conçus pour augmenter les connaissances en programmation existantes, et non pour les remplacer. Pour les cybercriminels qui manquent d’expertise technique approfondie, l’IA n’offre que peu d’avantages. Comme l’indique sans ambages un message du forum cité dans l’étude : * « Vous devez d’abord apprendre les ficelles de la programmation par vous-même avant de pouvoir utiliser l’IA et en bénéficier VRAIMENT. »*
Où l’IA est réellement utilisée
Si l’IA n’aide pas les pirates à pénétrer dans les systèmes, que font-ils avec ? L’étude identifie une gamme restreinte d’applications dans lesquelles l’IA a eu un impact tangible, quoique limité :
- Automatisation des médias sociaux : Création de robots pour l’engagement ou le spam.
- Escroqueries romantiques : Générer un dialogue convaincant mais générique pour les fraudeurs.
- Fraude SEO : Production en masse de contenu de mauvaise qualité pour manipuler les classements des moteurs de recherche.
- Faux sites Web : Création de sites conçus pour récolter des revenus publicitaires grâce à des stratégies de classement trompeuses.
Ces activités sont largement automatisées et ne nécessitent pas les prouesses techniques sophistiquées qui définissent la cybercriminalité de haut niveau. Pour les hackers expérimentés, l’utilité principale de l’IA reste triviale : utiliser des chatbots pour répondre à des questions de base en matière de codage ou générer des « aide-mémoire » de référence rapide.
L’échec de l’IA spécialisée dans la criminalité
Il est intéressant de noter que l’étude a révélé que les cybercriminels ignorent largement les modèles d’IA spécialement conçus à des fins illicites, tels que WormGPT, qui a été commercialisé pour aider à écrire des logiciels malveillants et des e-mails de phishing. Au lieu de cela, ils préfèrent les produits grand public et légitimes comme Claude d’Anthropic ou Codex d’OpenAI.
Cette préférence a créé un nouveau goulot d’étranglement. Étant donné que ces modèles légitimes disposent de solides garde-fous de sécurité, les cybercriminels cherchent constamment des moyens de les contourner. Cependant, la recherche suggère que ces efforts échouent largement. Les pirates ont du mal à « jailbreaker » ou à contourner les paramètres de sécurité des principaux fournisseurs d’IA.
Par conséquent, beaucoup sont obligés de se tourner vers des modèles open source plus anciens, plus faciles à manipuler. Ces alternatives, cependant, sont moins performantes et nécessitent souvent des ressources informatiques importantes pour fonctionner efficacement, annulant ainsi tout gain d’efficacité potentiel.
Les garde-corps tiennent
Les implications plus larges de cette étude sont rassurantes pour le secteur de la cybersécurité. Les mécanismes de sécurité mis en œuvre par les grands développeurs d’IA s’avèrent efficaces. Les cybercriminels ne sont pas facilement en mesure de contraindre ces systèmes à générer du code nuisible ou à contourner les protocoles de sécurité.
Même si l’attrait de la criminalité basée sur l’IA reste un argument puissant, les données suggèrent que l’expertise humaine reste le principal moteur des cyberattaques sophistiquées. L’IA, pour l’instant, n’est pas un raccourci vers le succès pour le criminel numérique ; c’est simplement un autre outil qui nécessite des compétences pour être utilisé efficacement.
Conclusion : L’intégration de l’IA dans la cybercriminalité est au point mort en raison de limitations techniques et de garde-fous de sécurité efficaces. Plutôt que de donner du pouvoir aux pirates informatiques, l’IA a été largement reléguée à des tâches d’automatisation de bas niveau, prouvant que les cybermenaces sophistiquées dépendent toujours des compétences humaines plutôt que de l’assistance artificielle.






















