Contrariamente al temor generalizado de que la inteligencia artificial potenciaría instantáneamente el cibercrimen, un nuevo estudio sugiere que la realidad es mucho más mundana. Una investigación de la Universidad de Edimburgo indica que los ciberdelincuentes están luchando por integrar la IA en sus operaciones y consideran que la tecnología es en gran medida ineficaz para ataques sofisticados.
Si bien el hampa digital ha expresado un gran interés en las herramientas de inteligencia artificial, la tecnología no ha logrado revolucionar sus métodos. En lugar de crear una nueva generación de “superhackers”, la IA ha servido principalmente como una comodidad menor para tareas rutinarias, dejando las actividades criminales complejas prácticamente sin cambios.
El mito del hacker impulsado por IA
Los hallazgos provienen de un análisis exhaustivo de más de 100 millones de publicaciones en foros extraídas de comunidades clandestinas a través de la base de datos CrimeBB. Al combinar la revisión manual con el análisis del modelo de lenguaje grande (LLM), los investigadores intentaron determinar si la IA estaba mejorando las capacidades de los actores maliciosos.
Los resultados fueron contundentes: no hay evidencia significativa de que los piratas informáticos hayan utilizado con éxito la IA para mejorar sus técnicas de intrusión, desarrollar mejor malware o eludir las medidas de seguridad de manera más efectiva.
“Muchas de las revisiones y discusiones describen las herramientas [de IA] como no particularmente útiles”, señala el estudio.
El problema central parece ser la falta de habilidades. Los asistentes de codificación de IA están diseñados para aumentar el conocimiento de programación existente, no para reemplazarlo. Para los ciberdelincuentes que carecen de conocimientos técnicos profundos, la IA ofrece pocas ventajas. Como afirmó sin rodeos una publicación del foro citada en el estudio: “Primero debes aprender los entresijos de la programación por ti mismo antes de poder usar la IA y REALMENTE beneficiarte de ella”.
Dónde se utiliza realmente la IA
Si la IA no ayuda a los piratas informáticos a acceder a los sistemas, ¿qué están haciendo con ella? El estudio identifica una gama limitada de aplicaciones en las que la IA ha tenido un impacto tangible, aunque limitado:
- Automatización de redes sociales: Creación de bots para interacción o spam.
- Estafas románticas: Generar un diálogo convincente pero genérico para los estafadores.
- Fraude SEO: Producción masiva de contenido de baja calidad para manipular la clasificación en los motores de búsqueda.
- Sitios web falsos: Creación de sitios diseñados para obtener ingresos publicitarios mediante estrategias de clasificación engañosas.
Estas actividades están en gran medida automatizadas y no requieren la destreza técnica sofisticada que define el cibercrimen de alto nivel. Para los piratas informáticos experimentados, la principal utilidad de la IA sigue siendo trivial: utilizar chatbots para responder preguntas básicas de codificación o generar “hojas de trucos” de referencia rápida.
El fracaso de la IA especializada en delitos
Curiosamente, el estudio encontró que los ciberdelincuentes ignoran en gran medida los modelos de IA diseñados específicamente para fines ilícitos, como WormGPT, que se comercializó para ayudar a escribir malware y correos electrónicos de phishing. En cambio, prefieren productos legítimos y convencionales como Claude de Anthropic o Codex de OpenAI.
Esta preferencia ha creado un nuevo cuello de botella. Dado que estos modelos legítimos cuentan con sólidas barreras de seguridad, los ciberdelincuentes buscan constantemente formas de eludirlas. Sin embargo, la investigación sugiere que estos esfuerzos están fracasando en gran medida. A los piratas informáticos les resulta difícil hacer “jailbreak” o anular las configuraciones de seguridad de los principales proveedores de inteligencia artificial.
En consecuencia, muchos se ven obligados a recurrir a modelos más antiguos de código abierto que son más fáciles de manipular. Estas alternativas, sin embargo, son menos capaces y a menudo requieren importantes recursos computacionales para funcionar de manera efectiva, lo que anula cualquier posible ganancia de eficiencia.
Las barandillas se mantienen firmes
La implicación más amplia de este estudio es tranquilizadora para la industria de la ciberseguridad. Los mecanismos de seguridad implementados por los principales desarrolladores de IA están resultando eficaces. Los ciberdelincuentes no pueden obligar fácilmente a estos sistemas a generar códigos dañinos o eludir los protocolos de seguridad.
Si bien el atractivo de los delitos impulsados por la IA sigue siendo una narrativa potente, los datos sugieren que la experiencia humana sigue siendo el principal impulsor de los ciberataques sofisticados. La IA, por ahora, no es un atajo hacia el éxito del delincuente digital; es simplemente otra herramienta que requiere habilidad para manejarla de manera efectiva.
Conclusión: La integración de la IA en el ciberdelito se ha estancado debido a limitaciones técnicas y barreras de seguridad efectivas. En lugar de empoderar a los piratas informáticos, la IA ha quedado relegada en gran medida a tareas de automatización de bajo nivel, lo que demuestra que las amenazas cibernéticas sofisticadas todavía dependen de la habilidad humana y no de la asistencia artificial.






















