В отличие от широко распространенного страха, что искусственный интеллект мгновенно усилит киберпреступность, новое исследование показывает, что реальность куда более прозаична. Исследование из Эдинбургского университета свидетельствует, что киберпреступники сталкиваются с трудностями при интеграции ИИ в свою деятельность, находя эту технологию в основном неэффективной для совершения изощренных атак.

Хотя участники «цифрового андеграунда» проявили живой интерес к инструментам на базе ИИ, технология не смогла революционизировать их методы. Вместо появления нового поколения «суперхакеров», ИИ в основном стал незначительным помощником для рутинных задач, оставив сложные преступные деяния в значительной степени неизменными.

Миф о хакере, вооруженном ИИ

Данные получены в результате комплексного анализа более 100 миллионов сообщений на форумах, собранных из подпольных сообществ через базу данных CrimeBB. Сочетая ручной обзор с анализом с помощью больших языковых моделей (LLM), исследователи пытались выяснить, улучшает ли ИИ возможности злоумышленников.

Результаты были однозначными: нет никаких существенных доказательств того, что хакеры успешно использовали ИИ для совершенствования методов взлома, создания более эффективного вредоносного ПО или более успешного обхода систем безопасности.

«Многие отзывы и обсуждения описывают инструменты [ИИ] как не особо полезные», — отмечается в исследовании.

Основная проблема, похоже, кроется в разрыве в навыках. ИИ-ассистенты для программирования предназначены для дополнения существующих знаний в области кодирования, а не для их замены. Для киберпреступников, не обладающих глубокой технической экспертизой, ИИ дает мало преимуществ. Как прямо сказано в одном из форумных постов, процитированном в исследовании: «Сначала нужно самому освоить основы программирования, прежде чем использовать ИИ и ПОЛУЧИТЬ от этого реальную выгоду».

Где ИИ используется на самом деле

Если ИИ не помогает хакерам взламывать системы, то для чего они его используют? Исследование выявляет узкий спектр приложений, где ИИ оказал ощутимое, хотя и ограниченное, влияние:

  • Автоматизация в социальных сетях: Создание ботов для взаимодействия с аудиторией или рассылки спама.
  • Романтические мошенничества: Генерация убедительных, но шаблонных диалогов для мошенников.
  • SEO-мошенничество: Массовое производство низкокачественного контента для манипуляции позициями в поисковых системах.
  • Фейковые сайты: Создание сайтов, предназначенных для сбора дохода от рекламы путем обмана алгоритмов ранжирования.

Эти активности в значительной степени автоматизированы и не требуют изощренных технических навыков, характерных для высокоуровневой киберпреступности. Для опытных хакеров основная полезность ИИ остается тривиальной: использование чат-ботов для ответа на базовые вопросы по программированию или генерации быстрых справочных «шпаргалок».

Неудача специализированного ИИ для преступлений

Интересно, что исследование показало: киберпреступники в значительной степени игнорируют модели ИИ, специально разработанные для незаконных целей, такие как WormGPT, который позиционировался как помощник в написании вредоносного ПО и фишинговых писем. Вместо этого они предпочитают мейнстримные легальные продукты, такие как Claude от Anthropic или Codex от OpenAI.

Это предпочтение создало новое узкое место. Поскольку эти легальные модели имеют надежные механизмы безопасности, киберпреступники постоянно ищут способы их обойти. Однако исследования показывают, что эти попытки в основном терпят неудачу. Хакерам трудно «джейлбрейкнуть» или переопределить настройки безопасности крупных поставщиков ИИ.

В результате многим приходится переходить на более старые модели с открытым исходным кодом, которые легче подделать. Однако эти альтернативы менее мощны и часто требуют значительных вычислительных ресурсов для эффективной работы, что нивелирует любую потенциальную выгоду в эффективности.

Механизмы безопасности работают

Более широкое следствие этого исследования обнадеживает для индустрии кибербезопасности. Механизмы безопасности, внедренные крупными разработчиками ИИ, оказываются эффективными. Киберпреступникам не удается легко принудить эти системы к генерации вредоносного кода или обходу протоколов безопасности.

Хотя притягательность преступлений, управляемых ИИ, остается мощным нарративом, данные свидетельствуют о том, что человеческая экспертиза остается основным драйвером изощренных кибератак. ИИ, по крайней мере на данный момент, не является кратчайшим путем к успеху для цифрового преступника; это просто еще один инструмент, требующий навыков для эффективного использования.

Вывод: Интеграция ИИ в киберпреступность остановилась из-за технических ограничений и эффективных механизмов безопасности. Вместо того чтобы наделять хакеров сверхсилами, ИИ в основном был ограничен задачами низкоуровневой автоматизации, доказывая, что изощренные киберугрозы по-прежнему зависят от человеческих навыков, а не от искусственной помощи.