W przeciwieństwie do powszechnego strachu, że sztuczna inteligencja natychmiast wzmocni cyberprzestępczość, nowe badania pokazują, że rzeczywistość jest znacznie bardziej prozaiczna. Badanie przeprowadzone na Uniwersytecie w Edynburgu pokazuje, że cyberprzestępcy mają trudności z integracją sztucznej inteligencji ze swoją działalnością, uznając tę technologię za w dużej mierze nieskuteczną w przeprowadzaniu wyrafinowanych ataków.
Chociaż uczestnicy “cyfrowego podziemia” wykazali żywe zainteresowanie narzędziami opartymi na sztucznej inteligencji, technologia nie zrewolucjonizowała ich metod. Zamiast pojawienia się nowej generacji “superhakerów”, sztuczna inteligencja stała się w dużej mierze drobnym pomocnikiem w rutynowych zadaniach, pozostawiając złożone czyny przestępcze w dużej mierze niezmienione.
Mit hakera uzbrojonego w AI
Dane pochodzą z kompleksowej analizy ponad** 100 milionów postów * * na forach zebranych z podziemnych społeczności za pośrednictwem bazy danych CrimeBB. Łącząc przegląd ręczny z analizą za pomocą dużych modeli językowych (LLM), naukowcy próbowali sprawdzić, czy sztuczna inteligencja poprawia możliwości atakujących.
Wyniki były jednoznaczne: nie ma istotnych dowodów, że hakerzy z powodzeniem wykorzystali sztuczną inteligencję do udoskonalenia technik hakerskich, stworzenia bardziej skutecznego złośliwego oprogramowania lub bardziej skutecznego obejścia systemów bezpieczeństwa.
“Wiele opinii i dyskusji opisuje narzędzia [AI] jako niezbyt przydatne”, zauważa badanie.
Wydaje się, że głównym problemem jest luka w umiejętnościach. Asystenci programowania AI mają na celu uzupełnienie istniejącej wiedzy o kodowaniu, a nie ich zastąpienie. Dla cyberprzestępców, którzy nie mają dogłębnej wiedzy technicznej, sztuczna inteligencja ma niewiele zalet. Jak wyraźnie stwierdzono w jednym z postów na forum cytowanym w badaniu:“najpierw musisz opanować podstawy programowania, zanim użyjesz sztucznej inteligencji i odniesiesz z tego prawdziwą korzyść”.
Gdzie sztuczna inteligencja jest faktycznie używana
Jeśli sztuczna inteligencja nie pomaga hakerom włamać się do systemów, to do czego jej używają? Badanie ujawnia wąski zakres zastosowań, w których sztuczna inteligencja miała namacalny, choć ograniczony wpływ:
-
-
- Automatyzacja mediów społecznościowych: * * tworzenie botów do interakcji z odbiorcami lub spamowania.
-
-
-
- Romantyczne oszustwa: * * generowanie przekonujących, ale stereotypowych dialogów dla oszustów.
-
-
-
- Oszustwo SEO: * * masowa produkcja treści niskiej jakości w celu manipulowania pozycjami w wyszukiwarkach.
-
-
-
- Fałszywe witryny: * * twórz witryny zaprojektowane w celu zbierania przychodów z reklam poprzez oszukiwanie algorytmów rankingowych.
-
Działania te są w dużej mierze zautomatyzowane i nie wymagają wyrafinowanych umiejętności technicznych typowych dla cyberprzestępczości na wysokim poziomie. Dla doświadczonych hakerów podstawowa użyteczność sztucznej inteligencji pozostaje trywialna: używanie chatbotów do odpowiadania na podstawowe pytania programistyczne lub generowania szybkich “ściągawek”.
Niepowodzenie wyspecjalizowanej sztucznej inteligencji w przestępstwach
Co ciekawe, badanie wykazało: cyberprzestępcy w dużej mierze ignorują modele sztucznej inteligencji zaprojektowane specjalnie do nielegalnych celów, takie jak WormGPT, który został umieszczony jako pomocnik w pisaniu złośliwego oprogramowania i e-maili phishingowych. Zamiast tego wolą legalne produkty głównego nurtu, takie jak Claude z Anthropic lubCodex z OpenAI.
Ta preferencja stworzyła nowe wąskie gardło. Ponieważ te legalne modele mają solidne mechanizmy bezpieczeństwa, cyberprzestępcy nieustannie szukają sposobów na ich obejście. Jednak badania pokazują, że próby te w większości kończą się niepowodzeniem. Hakerzy mają trudności z “jailbreakiem” lub przesłonięciem ustawień bezpieczeństwa głównych dostawców sztucznej inteligencji.
W rezultacie wielu musi przejść na starsze modele open source, które są łatwiejsze do sfałszowania. Jednak te alternatywy * * są mniej wydajne** i często wymagają znacznych zasobów obliczeniowych do wydajnego działania, co niweluje wszelkie potencjalne korzyści w zakresie wydajności.
Mechanizmy bezpieczeństwa działają
Szersze implikacje tego badania są zachęcające dla branży cyberbezpieczeństwa. Mechanizmy bezpieczeństwa wdrożone przez głównych programistów AI okazują się skuteczne. Cyberprzestępcom nie udaje się łatwo zmusić tych systemów do generowania złośliwego kodu lub omijania protokołów bezpieczeństwa.
Chociaż atrakcyjność przestępstw napędzanych Sztuczną Inteligencją pozostaje potężną narracją, dowody sugerują, że wiedza ludzka pozostaje głównym motorem wyrafinowanych cyberataków. Sztuczna inteligencja, przynajmniej na razie, nie jest najkrótszą drogą do sukcesu dla cyfrowego przestępcy; to tylko kolejne narzędzie, które wymaga umiejętności, aby skutecznie z niego korzystać.
- Wniosek: * * Integracja sztucznej inteligencji z cyberprzestępczością zatrzymała się z powodu ograniczeń technicznych i skutecznych mechanizmów bezpieczeństwa. Zamiast dawać hakerom supermoce, sztuczna inteligencja była w dużej mierze ograniczona do zadań automatyzacji niskiego poziomu, udowadniając, że wyrafinowane cyberzagrożenia nadal polegają na ludzkich umiejętnościach, a nie na sztucznej pomocy.